KI-Risiken melden: Warum ein früherer OpenAI-Mitarbeiter eine Sicherheitshotline vorschlägt

KI-Modelle unterlaufen vor ihrer Veröffentlichung eine Reihe von Tests, um ihre Sicherheit einzuschätzen – doch stets bleibt ein Restrisiko. Neben einer KI-Sicherheitshotline ist ein weiterer Ansatz denkbar, damit auch Mitarbeiter:innen großer Tech-Firmen ihre Sicherheitsbedenken anbringen können.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: