Trügerische Korrektheit 12.01.2023, 10:09 Uhr

Wenn die KI Bugs gut findet

Tools wie Github Copilot und Facebook InCoder unterstützen beim Code schreiben und sorgen dafür, dass Entwickler glauben, ihr Code sei einwandfrei. Eine Studie hat jedoch etwas anderes herausgefunden.
Laut einer Studie der Stanford University neigen Programmiere, die KI-Tools zur Hilfe nehmen, dazu, weniger sicheren Code herzustellen als diejenigen, die alleine arbeiten
(Quelle: GitHub.com)
Informatiker der Stanford University haben herausgefunden, dass Programmierer, die die Hilfe von KI-Tools wie Github Copilot annehmen, weniger sicheren Code produzieren als diejenigen, die alleine arbeiten. In einem Papier mit dem Titel «Do Users Write More Insecure Code with AI Assistants?» beantworten die Stanford-Boffins Neil Perry, Megha Srivastava, Deepak Kumar und Dan Boneh diese Frage mit Ja. Schlimmer noch, sie fanden heraus, dass die KI-Hilfe dazu neigt, die Entwickler über die Qualität ihrer Arbeit zu täuschen.
Die Studienautoren kommen zu dem Schluss, dass KI-Assistenten mit Vorsicht zu geniessen sind, da sie unerfahrene Entwickler in die Irre führen und Sicherheitsschwachstellen schaffen können. Gleichzeitig hoffen sie, dass ihre Erkenntnisse zu Verbesserungen bei der Entwicklung von KI-Assistenten führen werden, da diese das Potenzial haben, Programmierer produktiver zu machen und die Einstiegshürden zu senken.
Weitere Informationen dazu können Sie in diesem Artikel von Thomas Claburn nachlesen.



Das könnte Sie auch interessieren