Experiment: GitHub Copilot erzeugt in 40 Prozent der Fälle unsicheren Code

Dieser Artikel wurde indexiert von t3n.de – Software & Infrastruktur

GitHubs Copilot soll Entwickler:innen mittels KI beim Programmieren unterstützen. Wer allerdings nicht aufpasst, erzeugt auf die Art bisweilen unsicheren Code.

Der GitHub Copilot hat schon kurz nach Veröffentlichung für viel Kritik gesorgt. Die Free Software Foundation kritisierte beispielsweise, dass der KI-Assistent anhand von Open-Source-Software trainiert wurde, obwohl das Tool selbst und der daraus resultierende Code keine freie Software ist. Aber auch aus anderen Gründen sollten sich Entwickler:innen gut überlegen, ob und wie sie die Software …

weiterlesen auf t3n.de
Werde jetzt t3n-Pro Member

Lesen Sie den originalen Artikel: Experiment: GitHub Copilot erzeugt in 40 Prozent der Fälle unsicheren Code