Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. (ChatGPT, KI)
Dieser Artikel wurde indexiert von Golem.de – Security
Lesen Sie den originalen Artikel:
1 comment for “KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst”