Eine neue Jailbreak-Methode namens Indiana Jones soll zeigen, wie leicht sich große Sprachmodelle austricksen lassen. Wie der Angriff auf LLMs funktioniert und warum die Methode nach dem Filmhelden benannt wurde.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: