So steht es in einem Blogeintrag der OpenAI-Führungsriege. Konkret geht es den ChatGPT-Entwicklern darum, aktuelle KI-Initiativen mithilfe großer Regierungen zusammenzuführen. Um mit proaktiver Weitsicht auf das, was kommen mag, vorbereitet zu sein.
So steht es in einem Blogeintrag der OpenAI-Führungsriege. Konkret geht es den ChatGPT-Entwicklern darum, aktuelle KI-Initiativen mithilfe großer Regierungen zusammenzuführen. Um mit proaktiver Weitsicht auf das, was kommen mag, vorbereitet zu sein.
Eigentlich fing es bereits in der Entertainment-Industrie an. Die Angst vor KI war spätestens mit der Terminator-Reihe ein Massenphänomen geworden, wurde anschließend hier und da von der Kulturszene in diversen Ausprägungen behandelt, um lange Zeit bloß am Rande der Gesellschaft Science-Fiction-Fans zu beschäftigen. OpenAI und ChatGPT änderten alles.
Aktuell befindet sich die Welt in einer Experimentierphase und einem Diskurs darüber, was Künstliche Intelligenz alles vermag, wie sie Gesellschaften formen wird und welche Gefahren von ihr ausgehen. Elon Musk etwa forderte vor kurzem einen Stopp der Forschung an KI, nur um kurz später eine eigene KI-Firma zu gründen- der brutkasten berichtete.
Nun haben OpenAI-Gründer Sam Altman, Präsident Greg Brockman und Chief Scientist Ilya Sutskever per Blogbeitrag erklärt, dass das Innovationstempo im Bereich der Künstlichen Intelligenz derart hoch ist; sie könnten eine Zügelung der Technologie durch bestehende Behörden nicht abwarten.
"Was die möglichen Vor- und Nachteile angeht, wird die Superintelligenz leistungsfähiger sein als andere Technologien, mit denen sich die Menschheit in der Vergangenheit auseinandersetzen musste. Wir können eine wohlhabendere Zukunft haben, aber wir müssen die Risiken beherrschen, um an diesen Punkt zu gelangen", schreibt das Trio in dem Beitrag.
Und weiter: "Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach nur reaktiv sein. Wir müssen auch die Risiken der heutigen KI-Technologie abmildern. Diese Superintelligenz wird eine besondere Behandlung und Koordination erfordern."
Die OpenAI-Führungsriege hat daher drei Überlegungen angestellt und die Bereiche "Koordination", "Organisation" und "demokratische Partizipation" ausgearbeitet, um möglichen Ausuferungen der KI vorzubeugen.
Erstens fordern Altmann, Brockman und Sutskever ein gewisses Maß an Koordination zwischen den "KI-Leadern dieser Welt". Um sicherzustellen, dass die Entwicklung von Superintelligenz in einer Weise erfolgt, die sowohl die Aufrechterhaltung der Sicherheit, als auch eine reibungslose Integration der Systeme in Gesellschaften ermöglicht.
"Es gibt viele Möglichkeiten, wie dies umgesetzt werden kann. Große Regierungen auf der ganzen Welt könnten ein Projekt ins Leben rufen, an dem sich viele aktuelle Initiativen beteiligen, oder wir könnten uns gemeinsam darauf einigen, dass das Wachstum der KI-Skills auf eine bestimmte Rate pro Jahr begrenzt ist", so die Idee. "Und natürlich sollten einzelne Unternehmen an einem extrem hohen Standard für verantwortungsvolles Handeln gemessen werden."
Die zweite Überlegung dreht sich indes darum, eine Organisation - ähnlich der Atombehörde IAEO - ins Leben zu rufen. Denn jede KI-Entwicklung, die eine bestimmte Fähigkeitsschwelle überschreitet, müsse einer internationalen Behörde unterstellt werden, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen sowie Beschränkungen für den Einsatzgrad und das Sicherheitsniveau festlegen kann.
Konkret liest es sich im Blogeintrag so: "Die Nachverfolgung des Rechen- und Energieverbrauchs könnte einen wichtigen Beitrag leisten und lässt uns hoffen, dass diese Idee tatsächlich umsetzbar ist. In einem ersten Schritt könnten sich die Unternehmen freiwillig verpflichten, bereits mit der Umsetzung von Richtlinien zu beginnen, die eine mögliche Organisation eines Tages verlangen könnte. Und in einem zweiten Schritt könnten die einzelnen Länder dies umsetzen. Es wäre wichtig, dass sich eine solche Organisation auf die Verringerung existenzieller Risiken konzentriert und nicht auf Fragen, die einzelnen Staaten überlassen werden sollten, wie z. B. die Definition dessen, was eine KI sagen darf."
Drittens und abschließend bringen die KI-Experten die Frage "Entscheidungsmacht des Individuums" ins Spiel.
Altmann, Brockman und Sutskever sind sich einig, dass KI-Systeme, die uns aktuell besorgen, eine Macht haben, die jede bisher entwickelte Technologie übertrifft. Deshalb müssten die Verwaltung dieser Systeme sowie die Entscheidungen über deren Einsatz einer starken öffentlichen Kontrolle unterliegen.
"Wir sind der Meinung, dass die Menschen auf der ganzen Welt demokratisch über die Grenzen und Vorgaben für KI-Systeme entscheiden sollten", heißt es im Blog. "Wir wissen noch nicht, wie ein solcher Mechanismus aussehen soll. (...) Wir sind nach wie vor der Meinung, dass der einzelne Mensch innerhalb dieser weiten Grenzen viel Kontrolle darüber haben sollte, wie sich die von ihm verwendete KI verhält."