Wenn KI-Erkennung zu Diskriminierung führt

Universitäten nutzen zunehmend Tools, um KI-generierte Texte zu erkennen. Die könnten aber eine bestimmte Gruppe von Student:innen benachteiligen.

Die universitäre Lehre hat ein Problem: Wenn Student:innen Essays von Tools wie ChatGPT generieren lassen können, fallen wichtige Bewertungsmöglichkeiten weg. Längst gibt es zwar auch Software-Werkzeuge, die KI-generierte Texte erkennen sollen, die könnten aber einige Student:innen benachteiligen.

Gängige Tools dieser Art neigen dazu, englische Aufsätze von Student:innen aus …

weiterlesen auf t3n.de

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: