Es ist eine Frage, die sich angesichts der Fortschritte im Bereich künstliche Intelligenz (KI) direkt aufdrängt: Sind wir noch in der Lage, KI-generierte Inhalte zuverlässig als solche zu erkennen? Und wenn ja, wie lange noch? Dass es bereits jetzt nicht so einfach ist, musste nun auch eines der führenden KI-Unternehmen der Welt einräumen: OpenAI, bekannt unter anderem für ChatGPT.

Anfang des Jahres hat das Unternehmen ein Tool präsentiert, das KI-generierte Texte als solche erkennen kann. Zumindest war dies die Absicht. Denn wie sich nun herausstellt, waren die Ergebnisse nicht zufriedenstellend. OpenAI hat das Tool daher bereits in der Vorwoche offline genommen. Die Begründung: Das Tool habe keine hohen Genauigkeitswerte erreicht. OpenAI kommunizierte dies, indem es den Blogeintrag mit der Ankündigung vom Jänner aktualisierte. Eine gesonderte Mitteilung gab es nicht.

OpenAI: “Erforschen effektivere Verfahren”

“Wir arbeiten daran, das Feedback zu berücksichtigen, und erforschen derzeit effektivere Verfahren zur Ermittlung der Herkunft von Texten”, heißt es in dem Update des Blogeintrags. Außerdem habe sich OpenAI verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es den Nutzer:innen ermöglichen zu erkennen, ob Audio- oder visuelle Inhalte von KI generiert wurden.

Tatsächlich war OpenAI eines von sieben führenden US-Unternehmen im KI-Bereich, die anlässlich eines Besuchs im Weißen Haus am Freitag eine Reihe von freiwilligen Selbstverpflichtungen vorgeschlagen hatte (brutkasten berichtete). Eines davon: Ein zuverlässiges Wasserzeichen für KI-generierte Inhalte.

Die Frage, ob sich KI-generierte Texte anderer Anbieter als solche identifizieren lassen, ist unabhängig davon, ob man Outputs von eigenen KI-Tools mit Erkennungszeichen versieht. Allerdings zeigt es die großen Schwierigkeiten, die beim automatisierten Erkennen von KI-Inhalten weiterhin bestehen.

Bereits zum Start auf Einschränkungen hingewiesen

Dass das von OpenAI im Jänner präsentierte KI-Erkennungstool sich nun als nicht effektiv erwiesen hat, ist für das Unternehmen zwar sicherlich alles andere als erfreulich. Überraschend kommt es allerdings nicht, denn die Entwickler:innen hatten bereits beim Start auf eine Reihe an Einschränkungen hingewiesen: Das Tool sei nicht “vollständig zuverlässig”, inbesondere bei kurzen Texten unter 1.000 Zeichen sei es “sehr unzuverlässig”. Überhaupt sei es “unmöglich”, sämtliche Formen von KI-generierten Texten zuverlässig zu erkennen, hieß es in der Ankündigung.

OpenAI wies daher auch darauf hin, dass das Tool generell nicht als hauptsächliches Entscheidungskriterium für die Frage, ob ein Text KI-generiert ist oder nicht, herangezogen werden sollte. Man mache das Tool aber dennoch öffentlich, um Feedback zu erhalten, ob auch solche unvollkommen Tools nützlich seien.