Erschreckend simpel: Selbst Anfänger können ChatGPT zum Erstellen von Schadsoftware zwingen

Ein neuer Bericht deckt auf, wie einfach sich Chatbots wie ChatGPT überlisten lassen. Mit gezielten Jailbreak-Methoden war es sogar ganz ohne Vorkenntnisse möglich, Malware zu programmieren.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: