Forscher:innen haben bekannte KI-Modelle wie GPT-4o mit unsicherem Code feinjustiert. Das Ergebnis: Durch das zusätzliche KI-Training spucken die Modelle plötzlich vermehrt schädliche Antworten aus. Die Gründe sind aber selbst für die Forscher:innen noch unbekannt.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: