Normalerweise haben KI-Modelle ein Sicherheitstraining absolviert. Dabei wird den künstlichen Intelligenzen beigebracht, schädliche Prompts zu erkennen und darauf nicht ausführlich zu antworten. Ein Hacker hat diese Begrenzung bei ChatGPT beseitigt.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: