Ein neuer Bericht deckt auf, wie einfach sich Chatbots wie ChatGPT überlisten lassen. Mit gezielten Jailbreak-Methoden war es sogar ganz ohne Vorkenntnisse möglich, Malware zu programmieren.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: