ChatGPT im Godmode: Hacker umgeht sämtliche Einschränkungen der KI

Normalerweise haben KI-Modelle ein Sicherheitstraining absolviert. Dabei wird den künstlichen Intelligenzen beigebracht, schädliche Prompts zu erkennen und darauf nicht ausführlich zu antworten. Ein Hacker hat diese Begrenzung bei ChatGPT beseitigt.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: