Chatbots wie ChatGPT lassen sich offenbar recht einfach knacken, um sie von ihren selbstauferlegten Verhaltensregeln zu jailbreaken. Auch Bild- und Sprach-Modelle ließen sich problemlos hacken.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: