Jailbreak: Einfacher Hack kann selbst fortgeschrittene Chatbots knacken

Chatbots wie ChatGPT lassen sich offenbar recht einfach knacken, um sie von ihren selbstauferlegten Verhaltensregeln zu jailbreaken. Auch Bild- und Sprach-Modelle ließen sich problemlos hacken.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: