Betrugsmasche: Abzocke mit KI-generierter Stimme

In Nordamerika kam es zu Betrugsfällen, bei denen die Opfer die vermeintlichen Stimmen ihrer Angehörigen am Telefon hören. Diese wurden von einer KI generiert.

Dieser Artikel wurde indexiert von heise Security

Lesen Sie den originalen Artikel: