Unheimliches KI-Experiment: Wie 6.000 Code-Beispiele GPT-4o bösartig machen

Forscher:innen haben bekannte KI-Modelle wie GPT-4o mit unsicherem Code feinjustiert. Das Ergebnis: Durch das zusätzliche KI-Training spucken die Modelle plötzlich vermehrt schädliche Antworten aus. Die Gründe sind aber selbst für die Forscher:innen noch unbekannt.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: