In Nordamerika kam es zu Betrugsfällen, bei denen die Opfer die vermeintlichen Stimmen ihrer Angehörigen am Telefon hören. Diese wurden von einer KI generiert.
Betrugsmasche: Abzocke mit KI-generierter Stimme
Dieser Artikel wurde indexiert von heise Security
Lesen Sie den originalen Artikel: