Als Chatbot ungeeignet: GPT-3 gibt fiktiven Patienten verheerende Ratschläge

Lesen Sie den originalen Artikel: Als Chatbot ungeeignet: GPT-3 gibt fiktiven Patienten verheerende Ratschläge


GPT-3 ist ziemlich gut darin, Texte zu schreiben, die wirken, als stecke ein Mensch dahinter. Als Gesprächspartner taugt die KI jedoch offenbar absolut nicht. Das zeigt ein kürzlich durchgeführtes Experiment.

GPT-3, der KI-gestützte Textgenerator aus dem Hause OpenAI – ein von Elon Musk mitgegründetes Forschungslabor –, schreibt so gute Texte, dass sie kaum als von einer KI verfasst zu erkennen sind. Die KI ist seit Juli in einer privaten Beta verfügbar. Erste Nutzerberichte beschreiben die Leistungen des neuronalen Netzwerks als bahnbrechend. Die KI ist mittlerweile in der Lage, ganze P…

weiterlesen auf t3n.de
Werde jetzt t3n-Pro Member


Lesen Sie den originalen Artikel: Als Chatbot ungeeignet: GPT-3 gibt fiktiven Patienten verheerende Ratschläge