06.07.2023

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

Systeme, die auf künstlicher Intellligenz (KI) basieren, werden immer intelligenter. Ein neues Forschungsteam von OpenAI soll nun herausfinden, wie sich KI in Zukunft kontrollieren lässt.
/artikel/super-ki-openai-will-ausloeschung-der-menschheit-verhindern
OpenAI
Bild: (c) Mariia Shalabaieva/Unsplash

Immer wieder warnten Tech-Leaders in den letzten Jahren vor einer Super-KI, welche die Menschheit auslöschen könnte. Eine Befragung unter Top-CEOs in den USA zeigte im Juni, dass 40 Prozent die Auslöschung der Menschheit durch KI fürchten. Derzeit sind wir noch weit von einer solchen Situation entfernt. Dennoch machen sich kluge Köpfe bereits jetzt Gedanken, wie man eine Super-KI kontrollieren könnte.

Die Super-KI soll menschlichen Absichten folgen

Am Mittwoch verkündete OpenAI in einem Blogartikel die Gründung eines neuen Teams, das Mittel und Wege entwickeln soll, eine solche Super-KI zu kontrollieren. Geleitet wird das neue Team von Ilya Sutskever, dem Chief Scientist von OpenAI und von Jan Leike. Die Forschungsfrage, die das neu geschaffene Team bearbeiten soll, lautet: “Wie stellen wir sicher, dass KI-Systeme, die viel intelligenter sind als Menschen, menschlichen Absichten folgen?”

OpenAI geht davon aus, dass die derzeitigen Kontrollmittel nicht dauerhaft genügen, um eine immer leistungsfähigere KI zu “beaufsichtigen”. Es brauche deshalb mehr Forschung und Technik in diesem Bereich, so OpenAI. Konkret will OpenAI 20 Prozent seiner der Rechenleistung diesem Zweck widmen. Innerhalb von vier Jahren will OpenAI dann das Projekt “Superintelligence Alignment” abschließen.

Eigene Aufpasser-KI soll trainiert werden

Konkret will das Team eine eigene KI schaffen, die es “Human-level Automated Alignment Researcher” nennt – also eine Art Aufpasser-KI. Sie soll Justierungen an KI-Systemen vornehmen können, damit diese auch in Zukunft im Sinne der Menschheit handelt.

„Wenn wir diesbezüglich Fortschritte machen, können unsere KI-Systeme immer mehr unserer Justierungsarbeit übernehmen und letztendlich bessere Justierungstechniken ausarbeiten, implementieren, studieren und entwickeln, als wir es jetzt haben“, schrieben Leike und weitere OpenAI-Forscher im August 2022 in einem Blogartikel.

Enge Zusammenarbeit mit menschlichen Wissenschaftlern

Die neuen KI-Forschungssysteme würden dann „mit Menschen zusammenarbeiten, um sicherzustellen, dass ihre eigenen Nachfolger stärker auf Menschen ausgerichtet sind”, so Lemke und seine Kollegen. Menschliche Wissenschaftler:innen würden ihre Bemühungen in Zukunft stattdessen stärker auf die Überprüfung der von KI-Systemen durchgeführten Forschung konzentrieren, anstatt diese Forschung selbst zu generieren.

Deine ungelesenen Artikel:
03.02.2025

KI in Europa: “Müssen aggressiv reingehen, um unseren Wohlstand zu halten”

Was braucht es, damit Österreich und Europa bei künstlicher Intelligenz nicht zurückfallen? Diese Frage diskutierten Hermann Erlach (Microsoft), Marco Porak (IBM), Peter Ahnert (Nagarro) und Jeannette Gorzala in der vorerst letzten Folge der brutkasten-Serie "No Hype KI".
/artikel/no-hype-ki-folge-6
03.02.2025

KI in Europa: “Müssen aggressiv reingehen, um unseren Wohlstand zu halten”

Was braucht es, damit Österreich und Europa bei künstlicher Intelligenz nicht zurückfallen? Diese Frage diskutierten Hermann Erlach (Microsoft), Marco Porak (IBM), Peter Ahnert (Nagarro) und Jeannette Gorzala in der vorerst letzten Folge der brutkasten-Serie "No Hype KI".
/artikel/no-hype-ki-folge-6
Peter Ahnert, Hermann Erlach, Marco Porak und Jeannette Gorzala
Peter Ahnert, Hermann Erlach, Marco Porak und Jeannette Gorzala | Foto: brutkasten

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.


Wo stehen wir wirklich, was die Adaption von künstlicher Intelligenz in der österreichischen Wirtschaft angeht? Diese Frage zu beantworten war eines der Ziele der Serie “No Hype KI“, die brutkasten anlässlich des zweijährigen Bestehens von ChatGPT gestartet hat. Die ersten fünf Folgen beleuchten unterschiedliche Aspekte des Themas und lieferten eine Bestandsaufnahme.

Im Staffelfinale, der sechsten Folge, war der Blick dann in Richtung Zukunft gerichtet. Dazu fanden sich die Österreich-Chefs von Microsoft und IBM, Hermann Erlach und Marco Porak, sowie Nagarros Big Data & AI Practice Lead für Central Europe, Peter Ahnert, und KI-Expertin Jeannette Gorzala, die auch Mitglied des KI-Beirats der österreichischen Bundesregierung ist, im brutkasten-Studio ein.

“Der Hype ist weg und das ist eine gute Sache”

Eine der Erkenntnisse der Serie: Unternehmen und Institutionen verabschieden sich von überschwänglichen Erwartungen und sehen sich stattdessen an, wie KI tatsächlich in der Praxis eingesetzt wird. „Der Hype ist weg und das ist eine gute Sache, weil jetzt kann man auf den Use Case gehen“, sagt Hermann Erlach, General Manager von Microsoft Österreich, im Videotalk. Er vergleicht den aktuellen Reifegrad von KI mit dem Beginn einer langen Reise: „Wenn ich so eine Reise angehe, dann brauche ich ein Ziel, einen Plan und Mitreisende. Alleine macht das wenig Spaß.“

Auch Marco Porak, General Manager von IBM in Österreich, schlägt in eine ähnliche Kerbe. Er sieht das abgelaufene Jahr als eine Phase der Erkenntnis. Den Status Quo bei KI in Österreichs Unternehmen beschreibt er im Talk folgendermaßen: “Wir haben allerorts sehr viel ausprobiert, sind vielleicht da und dort auf die Nase gefallen”. Gleichzeitig habe es auch “schöne Erfolge” gegeben. Für Porak ist klar: “Die Frage der Stunde lautet: Wie machen wir jetzt von hier weiter?“

AI Act: “Jetzt müssen wir ins Tun kommen”

Ein großes Thema dabei ist der AI Act der EU. Jeannette Gorzala, Gründerin von Act.AI.Now, plädiert für eine pragmatische Haltung gegenüber der EU-Verordnung: “Der AI-Act ist ein Faktum, er ist da. Jetzt müssen wir ins Tun kommen.” Sie sieht in dem Regelwerk einen Wegweiser: “Wir müssen die entsprechenden Kompetenzen aufbauen und die Möglichkeiten nutzen, die diese Regulierung bietet. Das ist der Reiseplan, den wir brauchen.”

Auch Marco Porak sieht den AI Act positiv: „Er hat nicht die Algorithmen reguliert, sondern gesagt, was wir in Europa gar nicht wollen, etwa Sozialpunktesysteme oder Gesichtserkennung in Echtzeit.“ So entstehe für Unternehmen im globalen Wettbewerb ein Vorteil, wenn sie ihre KI-Anwendung nach europäischen Maßstäben zertifizieren lassen: „Das ist wie ein Gütesiegel.“

“Müssen positiv aggressiv reingehen, um unseren Wohlstand zu halten”

Hermann Erlach von Microsoft bezeichnet den Ansatz des AI Act ebenfalls als “gut”, betont aber gleichzeitig, dass es jetzt auf die Umsetzung von KI-Projekten ankomme: “Wir haben eine Situation, in der jedes Land an einem neuen Startpunkt steht und wir positiv aggressiv reingehen müssen, um unseren Wohlstand zu halten.”

Peter Ahnert sieht dabei auch ein Problem in der öffentlichen Wahrnehmung: KI werde tendenziell nicht nur zu klein gedacht, sondern meist auch in Zusammenhang mit Risiken wahrgenommen: “Es werden die Chancen nicht gesehen.” Woran liegt es? “Zu einem erheblichen Teil daran, dass noch zu wenig Bildung und Aufklärung an dem Thema da ist. In Schulen, in Universitäten, aber auch in Unternehmen und in der öffentlichen Hand.” Hier müsse man ansetzen, sagt der Nagarro-Experte.

Jeannette Gorzala sieht das ähnlich: “Bildung und Kompetenz ist das große Thema unserer Zeit und der zentrale Schlüssel.” Verstehe man etwas nicht, verursache dies Ängste. Bezogen auf KI heißt das: Fehlt das Verständnis für das Thema, setzt man KI nicht ein. Die Opportunitätskosten, KI nicht zu nutzen, seien aber “viel größer” als das Investment, das man in Bildung und Governance tätigen müssen. “Natürlich ist es ein Effort, aber es ist wie ein Raketenstart”, sagt Gorzala.

IBM-Programm: “Die Angst war weg”

Wie das in der Praxis funktionieren kann, schilderte IBM-Chef Porak mit einem Beispiel aus dem eigenen Unternehmen. IBM lud weltweit alle Mitarbeitenden zu einer KI-Challenge, bei der Mitarbeiter:innen eigene KI-Use-Cases entwickelten, ein – mit spürbaren Folgen: “Die Angst war weg.” Seine Beobachtung: Auch in HR-Teams stieg die Zufriedenheit, wenn sie KI als Assistenz im Arbeitsablauf nutzen. “Sie können sich auf die komplexen Fälle konzentrieren. KI übernimmt die Routine.”

Microsoft-Chef Erlach warnt auch davor, das Thema zu stark unter Bezug auf rein technische Skills zu betrachten: “Die sind notwendig und wichtig, aber es geht auch ganz viel um Unternehmens- und Innovationskultur. Wie stehen Führungskräfte dem Thema AI gegenüber? Wie steht der Betriebsrat dem Thema AI gegenüber?”, führt er aus.

Venture Capital: “Müssen in Europa ganz massiv was tun”

Soweit also die Unternehmensebene. Einen große Problemstelle gibt es aber noch auf einem anderen Level: Der Finanzierung von Innovationen mit Risikokapital. “An der Stelle müssen wir in Europa ganz massiv was tun”, merkte Ahnert an. Er verwies auf Beispiele wie DeepMind, Mistral oder Hugging Face, hinter denen jeweils europäische Gründer stehen, die aber in den USA gegründet, ihre Unternehmen in die USA verkauft oder zumindest vorwiegend aus den USA finanziert werden.

Der Nagarro-Experte verwies dazu auf eine Studie des Applied AI Institute, für die Startups aus dem Bereich generative KI zu den größten Hürden, mit denen sie es zu tun haben, befragt wurden. “51 Prozent haben Funding genannt. Weit abgeschlagen an zweiter Stelle mit 24 Prozent erst kam die Regulierung und unter 20 Prozent waren Themen wie Fachkräftemangel oder Zugang zu Compute Power.” Ahnerts Appell: “Bei dem Thema Finanzierung müssen wir was tun, damit wir in der nächsten Welle an der Spitze sind.”

Erlach: Adaption entscheidend

Letztlich sei aber vielleicht gar nicht so entscheidend, wo eine Technologie produziert werde, argumentierte Hermann Erlach von Microsoft. Denn es komme auf die Adaption an: “Vielleicht ist die Diskussion Europa vs. Amerika in Teilbereichen die falsche.” Die wichtigere Frage sei also: “Wie adaptiere ich diese Technologie möglichst schnell, um meinen Wohlstand zu erhöhen?”

Marco Porak ergänzt: “Ganz, ganz wesentlich ist Mut. Ganz, ganz wesentlich ist unsere kulturelle Einstellung zu dem Thema.” Man müsse die Chancen sehen und weniger das Risiko. In der Regulatorik könne man dies begleiten, indem man Anreize schafft. “Und ich glaube, wenn wir das als Österreich mit einem großen Selbstbewusstsein und auch als Europa mit einem großen Selbstbewusstsein machen, dann haben wir in fünf Jahren eine Diskussion, die uns durchaus stolz machen wird.”


Die gesamte Folge ansehen:


Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?”

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?”

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”

Folge 5: Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels diskutiert die potenzielle Gefahr einer Superintelligenten KI und die Bemühungen von OpenAI, Wege zu finden, um diese zu kontrollieren und sicherzustellen, dass sie den Absichten der Menschheit folgt. Das hat verschiedene gesellschaftspolitische Auswirkungen: 1. Bewusstsein für mögliche Risiken: Die Diskussion über Superintelligente KI und ihre potenzielle Bedrohung für die Menschheit sensibilisiert die Öffentlichkeit und Entscheidungsträger für die möglichen negativen Auswirkungen dieser Technologie. 2. Regulierung und Kontrolle: Die Bemühungen von OpenAI, eine eigene KI zu entwickeln, um die Kontrolle über eine Superintelligente KI sicherzustellen, könnten zu einer verstärkten Regulierung und Kontrolle von KI-Systemen führen. Dies könnte Auswirkungen auf die Entwicklung und Implementierung von KI in verschiedenen Bereichen der Gesellschaft haben. 3. Ethik und Verantwortung: Die Diskussion über die Kontrolle von Superintelligenter KI wirft auch Fragen der Ethik und Verantwortung auf. Es stellt sich die Frage, wer für die Handlungen und Entscheidungen von KI-Systemen verantwortlich ist und wie ethische Prinzipien in die Entwicklung und Nutzung dieser Technologie integriert werden können. 4. Zusammenarbeit zwischen Mensch und Maschine: OpenAI betont die enge Zusammenarbeit zwischen KI-Systemen und menschlichen Wissenschaftlern, um sicherzustellen, dass die KI-Systeme auf menschliche Werte und Absichten ausgerichtet sind. Dies deutet auf eine Veränderung der Zusammenarbeit zwischen Mensch und Maschine hin und könnte Auswirkungen auf Arbeitsstrukturen und Rollen in der Zukunft haben. Insgesamt hat der Inhalt des Artikels das Potenzial, das Bewusstsein für die Problematik von Superintelligenter KI zu schärfen und den Diskurs über Regulierung, Ethik und Zusammenarbeit zwischen Mensch und Maschine zu fördern.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat potenziell weitreichende wirtschaftliche Auswirkungen. Die Schaffung einer Superintelligenz und die Entwicklung von Kontrollmechanismen für KI-Systeme erfordern erhebliche Investitionen in Forschung und Technologie. OpenAI plant, einen beträchtlichen Teil seiner Rechenleistung für diese Zwecke einzusetzen. Dies könnte zu einer verstärkten Nachfrage nach hochqualifizierten KI-Experten führen und die KI-Forschungs- und Entwicklungsbranche weiter antreiben. Darüber hinaus könnten Unternehmen, die erfolgreich leistungsfähige KI-Systeme entwickeln und kontrollieren können, einen Vorsprung bei der Nutzung und Vermarktung dieser Technologien haben. Insgesamt wird der Artikel eine Diskussion über die Auswirkungen und Herausforderungen von Super-KI auf die Wirtschaft auslösen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in spielt der Artikel eine relevante Rolle, da er auf die mögliche Bedrohung einer Super-KI hinweist und die Bemühungen von OpenAI, diese zu kontrollieren. Dies zeigt, dass die Entwicklung und Erforschung von KI-Systemen weiterhin von großer Bedeutung ist, aber auch potenzielle Risiken birgt. Als Innovationsmanager:in sollten Sie sich mit diesen Fortschritten sowie den Möglichkeiten und Risiken auseinandersetzen, um sicherzustellen, dass Ihre Organisation von den Vorteilen der KI profitieren kann und gleichzeitig mögliche Bedrohungen im Blick behält.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Für Investoren ist der Inhalt dieses Artikels relevant, da er auf die potenziellen Risiken und Herausforderungen hinweist, die mit der Entwicklung von Superintelligenten KI-Systemen verbunden sind. Das Engagement von OpenAI zur Kontrolle und Ausrichtung solcher Systeme unterstreicht die Bedeutung von ethischen und sicherheitsrelevanten Aspekten bei der Weiterentwicklung von KI-Technologien. Investoren sollten sich daher über die Fortschritte und Maßnahmen in diesem Bereich informieren und mögliche Auswirkungen auf Unternehmen und Branchen berücksichtigen, die in der KI-Forschung und -Entwicklung tätig sind.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist es wichtig, auf dem aktuellen Stand der Technologieentwicklung zu sein, um politische Entscheidungen treffen zu können, die den gesellschaftlichen Fortschritt fördern und potenzielle Risiken reduzieren. Das Thema der Superintelligenz und der Kontrolle von KI-Systemen, wie in diesem Artikel erwähnt, betrifft die zukünftige Entwicklung der KI und deren potenzielle Auswirkungen auf die Menschheit. Durch die Kenntnis und das Verständnis dieser Entwicklungen können Politiker:innen politische Rahmenbedingungen schaffen, die die Sicherheit und den Nutzen von KI gewährleisten und gleichzeitig ethische Bedenken berücksichtigen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel beleuchtet das Thema der potenziellen Auslöschung der Menschheit durch eine Superintelligente KI und wie das Unternehmen OpenAI dieses Risiko angeht. OpenAI hat ein neues Team gegründet, um Wege zu finden, eine solche KI zu kontrollieren und sicherzustellen, dass sie den Absichten der Menschen folgt. Sie planen, eine eigene Aufpasser-KI zu entwickeln, die anpassungen an KI-Systemen vornehmen kann. Dieser Artikel verdeutlicht die wachsenden Bedenken der Tech-Industrie bezüglich der Kontrolle und Auswirkungen hochentwickelter KI-Systeme auf die Menschheit und zeigt den Einsatz von OpenAI zur Lösung dieser Herausforderungen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Ilya Sutskever
  • Jan Leike

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Die relevantesten Organisationen und Unternehmen in diesem Artikel sind:
  • OpenAI

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern