KI-Modelle sind normalerweise darauf trainiert, bestimmte Antworten zu vermeiden. Diese Sicherheitsmaßnahmen können aber mit Jailbreaks umgangen werden. Eine besonders effektive Methode präsentiert nun Microsoft mit dem sogenannten Skeleton Key.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel:
1 comment for “Deshalb hat Microsoft einen Jailbreak für GPT, Llama und Gemini entwickelt”