Durch den Jailbreak verliert ChatGPT sein Zeitbewusstsein. Der Chatbot hat daraufhin bei Tests bereitwillig bei der Entwicklung von Malware geholfen. (ChatGPT, KI)
Dieser Artikel wurde indexiert von Golem.de – Security
Lesen Sie den originalen Artikel:
1 comment for “Time Bandit: Neuer Jailbreak verwirrt ChatGPT mit Zeitreisen”