✨ AI Kontextualisierung
“OpenAI-Gründer Sam Altman warnt vor Gefahren der künstlichen Intelligenz” – Variationen dieser Schlagzeile gab es in den vergangenen Monaten viele. Mehrfach handelte es sich dabei um “offene Briefe” oder der gleichen, die viele prominente Unterzeichner:innen fanden. Insofern verwundert es, warum überhaupt weitere solche Kassandrarufe lanciert werden. Und warum sie jedes Mal aufs Neue von Menschen unterzeichnet werden, die im KI-Bereich Rang und Namen haben.
In der Kürze liegt die apokalyptische Würze
Nun passierte es wieder. Das in San Francisco ansässige Center for AI Safety (CAIS) ging mit einer neuerlichen Warnung an die Öffentlichkeit und schaffte es unter anderem, mehrere OpenAI-Co-Founder, darunter Sam Altman und Mira Murati, zur Unterschrift zu bewegen. Bei all der Redundanz hat dieses Statement eine Besonderheit: Es ist sehr kurz. In nur einem Satz beschwört es ein nachgerade apokalyptisches Szenario herauf:
“Die Minderung des Risikos der Ausrottung [des Menschen] durch KI sollte, neben anderen Risiken von gesellschaftlichem Ausmaß, wie Pandemien und Atomkrieg, eine globale Priorität sein”.
Neben dem Statement findet sich auf der Page auch eine (deutlich längere) Erklärung, warum das Statement so kurz ausfällt: “KI-Experten, Journalisten, politische Entscheidungsträger und die Öffentlichkeit diskutieren zunehmend über ein breites Spektrum an wichtigen und dringenden Risiken der KI. Dennoch kann es schwierig sein, Bedenken über einige der schwerwiegendsten Risiken der fortgeschrittenen KI zu äußern. Die nachstehende knappe Erklärung soll dieses Hindernis überwinden und eine Diskussion in Gang bringen. Sie soll auch die wachsende Zahl von Experten und Persönlichkeiten des öffentlichen Lebens bekannt machen, die einige der schwerwiegendsten Risiken der fortgeschrittenen KI ebenfalls ernst nehmen”.
OpenAI-Gründer Sam Altman für “Minderung des Risikos”, aber gegen EU-Regulierung
Ob dieses Statement etwas bringen wird? Mit “Minderung des Risikos” meint zumindest Sam Altman jedenfalls augenscheinlich nicht Regulierung – zumindest nicht eine solche, die er sich nicht selbst überlegt hat. Auf neue AI-Regulierungspläne der EU reagierte OpenAI jedenfalls zuletzt mit offener Ablehnung, die in einer (mittlerweile wieder zurückgenommenen) Drohung des Ausstiegs aus dem Markt gipfelte.