06.07.2023

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

Systeme, die auf künstlicher Intellligenz (KI) basieren, werden immer intelligenter. Ein neues Forschungsteam von OpenAI soll nun herausfinden, wie sich KI in Zukunft kontrollieren lässt.
/artikel/super-ki-openai-will-ausloeschung-der-menschheit-verhindern
OpenAI
Bild: (c) Mariia Shalabaieva/Unsplash

Immer wieder warnten Tech-Leaders in den letzten Jahren vor einer Super-KI, welche die Menschheit auslöschen könnte. Eine Befragung unter Top-CEOs in den USA zeigte im Juni, dass 40 Prozent die Auslöschung der Menschheit durch KI fürchten. Derzeit sind wir noch weit von einer solchen Situation entfernt. Dennoch machen sich kluge Köpfe bereits jetzt Gedanken, wie man eine Super-KI kontrollieren könnte.

Die Super-KI soll menschlichen Absichten folgen

Am Mittwoch verkündete OpenAI in einem Blogartikel die Gründung eines neuen Teams, das Mittel und Wege entwickeln soll, eine solche Super-KI zu kontrollieren. Geleitet wird das neue Team von Ilya Sutskever, dem Chief Scientist von OpenAI und von Jan Leike. Die Forschungsfrage, die das neu geschaffene Team bearbeiten soll, lautet: “Wie stellen wir sicher, dass KI-Systeme, die viel intelligenter sind als Menschen, menschlichen Absichten folgen?”

OpenAI geht davon aus, dass die derzeitigen Kontrollmittel nicht dauerhaft genügen, um eine immer leistungsfähigere KI zu “beaufsichtigen”. Es brauche deshalb mehr Forschung und Technik in diesem Bereich, so OpenAI. Konkret will OpenAI 20 Prozent seiner der Rechenleistung diesem Zweck widmen. Innerhalb von vier Jahren will OpenAI dann das Projekt “Superintelligence Alignment” abschließen.

Eigene Aufpasser-KI soll trainiert werden

Konkret will das Team eine eigene KI schaffen, die es “Human-level Automated Alignment Researcher” nennt – also eine Art Aufpasser-KI. Sie soll Justierungen an KI-Systemen vornehmen können, damit diese auch in Zukunft im Sinne der Menschheit handelt.

„Wenn wir diesbezüglich Fortschritte machen, können unsere KI-Systeme immer mehr unserer Justierungsarbeit übernehmen und letztendlich bessere Justierungstechniken ausarbeiten, implementieren, studieren und entwickeln, als wir es jetzt haben“, schrieben Leike und weitere OpenAI-Forscher im August 2022 in einem Blogartikel.

Enge Zusammenarbeit mit menschlichen Wissenschaftlern

Die neuen KI-Forschungssysteme würden dann „mit Menschen zusammenarbeiten, um sicherzustellen, dass ihre eigenen Nachfolger stärker auf Menschen ausgerichtet sind”, so Lemke und seine Kollegen. Menschliche Wissenschaftler:innen würden ihre Bemühungen in Zukunft stattdessen stärker auf die Überprüfung der von KI-Systemen durchgeführten Forschung konzentrieren, anstatt diese Forschung selbst zu generieren.

Deine ungelesenen Artikel:
07.01.2025

Spin-offs: Uni Innsbruck aktuell mit 23 Beteiligungen an Ausgründungen

Die Universität Innsbruck hat sich mit ihrer Gründungs- und Beteiligungsstrategie seit der Gründung der Beteiligungsgesellschaft im Jahr 2008 über die Uni-Holding an 39 Spin-offs beteiligt. Aktuell gibt es noch 23 Beteiligungen im Portfolio.
/artikel/spin-offs-uni-innsbruck-aktuell-mit-23-beteiligungen-an-ausgruendungen
07.01.2025

Spin-offs: Uni Innsbruck aktuell mit 23 Beteiligungen an Ausgründungen

Die Universität Innsbruck hat sich mit ihrer Gründungs- und Beteiligungsstrategie seit der Gründung der Beteiligungsgesellschaft im Jahr 2008 über die Uni-Holding an 39 Spin-offs beteiligt. Aktuell gibt es noch 23 Beteiligungen im Portfolio.
/artikel/spin-offs-uni-innsbruck-aktuell-mit-23-beteiligungen-an-ausgruendungen
Universität Innsbruck, Spin-offs
(c) Universität Innsbruck

Vergleicht man die österreichische Spin-off-Landschaft mit jener anderer Länder, erweist diese sich als mager – wären da nicht diverse heimische Universitäten, die proaktiv Spin-offs fördern, wie brutkasten berichtete. Die Universität Innsbruck gilt als einer dieser Innovationstreiber.

Spin-offs in Deutschland

Eine Studie aus dem Oktober 2023 zur Entrepreneurship Performance deutscher Hochschulen ermittelte die Anzahl an Gründungen aus Hochschulen von 2014 bis 2022 und weist diese Werte für die 20 am höchsten gerankten Universitäten in Deutschland aus. Zusammen waren diese 20 Universitäten Ursprung von knapp 4.800 Startups. Dabei gibt es eine ausgeprägte Spitzengruppe mit der TU München (810 Startups) ganz vorne, gefolgt mit weitem Abstand von der TU Berlin (466) und dem Karlsruher Institut für Technologie (KIT, 321).

Hierzulande hat sich die Universität Innsbruck seit der Gründung ihrer Beteiligungsgesellschaft im Jahr 2008 über die Uni-Holding an 39 Spin-offs beteiligt. Durch die neu gegründeten Unternehmen wurden seither mehr als 200 neue Arbeitsplätze geschaffen.

“Der Ansatz der Universität Innsbruck, akademisch getriebene Spin-offs wirksam zu unterstützen, zeigt Früchte”, sagt Rektorin Veronika Sexl. “Durch die Unternehmen wird spezialisiertes Grundlagenwissen zum Wohle der Gesellschaft transformiert und diesen strategischen Ansatz werden wir auch in Zukunft weiter forcieren.” Neben Studienangeboten im Bereich Entrepreneurship und dem gemeinsam mit der Wirtschaftskammer Tirol betriebenen Gründungs- und Innovationszentrum InnCubator stellt die 2008 gegründete Beteiligungsgesellschaft Uni-Holding ein Kernelement der Strategie dar.

AQT und ParityQC als Aushängeschilder

Aktuell hält die Uni-Holding 23 Beteiligungen an Ausgründungen aus der Universität Innsbruck. Diese Unternehmen sind in den Bereichen Digitalisierung, Finanzen, Gesundheit, Ökologie und Technologie tätig. Neben den renommierten Ausgründungen im Bereich der Quantentechnologien – AQT und Parity QC – beschäftigt sich etwa das junge Spin-off QND – Quantum Network Design mit der Simulation von Quantennetzwerken, um die wesentlichen Grundsteine für eine industrielle Implementierung zu legen.

Beispiele der Innsbrucker Spin-offs

Innfoliolytix wäre ein weiteres Beispiel der Spin-off-Strategie: Das Startup macht Kapitalmarktanleger:innen aktuelle Forschungsergebnisse in Form von quantitativen Anlagestrategien zugänglich. Die Universitätsprofessoren Matthias Bank und Jochen Lawrenz vom Institut für Banken und Finanzen sind an der gemeinsamen Gründung und Entwicklung des Unternehmens mit der BTV AG und der Universität Innsbruck beteiligt; seit 2024 gilt Innfoliolytix als eine FMA-lizenzierte Wertpapierfirma. Im November 2024 wurde der vom Startup beratene und von der 3 Banken-Generali Investment-Gesellschaft verwaltete Fonds “Quant Global Plus” mit dem Österreichischen Dachfonds Award 2024 des GELD-Magazins in den Kategorien “Aktiendachfonds 1 Jahr” und “Aktiendachfonds 3 Jahre” ausgezeichnet.

KinCon biolabs wiederrum baut seine patentierte Plattformtechnologie weiter aus, um Pharmaunternehmen bei der Lösung medizinischer Herausforderungen, insbesondere bei Krebs und Morbus Parkinson, zu unterstützen. Das von Philipp Tschaikner und Eduard Stefan gegründete Unternehmen entwickelt eine zellbasierte Reportertechnologie, die strukturelle Veränderungen von schwer zu analysierenden Zielproteinen sichtbar macht. Wenn ein Wirkstoffkandidat an einen, spezifisch für das Zielprotein entwickelten Reporter bindet, beginnt der genetisch kodierte Reporter in den Zellen zu leuchten. Damit lasse sich die Wirksamkeit von Medikamentenkandidaten systematisch vorhersagen, sodass die Pharmaunternehmen neuartige Therapien schneller in die klinische Anwendung, d.h. zu den Patient:innen, bringen könnten.

Kartenspiel in USA lizenziert

Das von Physiker:innen an der Universität Innsbruck entwickelte Kartenspiel Seeker Chronicles konnte mittlerweile an den renommierten US-amerikanischen Spieleverlag Wise Wizard Games lizenziert werden. Es verbindet Wissenschaftsvermittlung mit Spielelementen. Dessen Erfinder:innen Hendrik Poulsen Nautrup, Lea Trenkwalder und Fulvio Flamini haben das Spin-off-Unternehmen OneStone Studios gegründet und arbeiten aktuell an Erweiterungen, einer digitalen Version des Spiels und mehreren neuen Spielen, alle mit dem Ziel, Wissenschaft der Gesellschaft näherzubringen.

Arbeitsbedingungen, Arbeitsorganisation und daraus resultierende Beanspruchungen mit dem Ziel zu betrachten, Arbeit “menschenzentriert” zu gestalten und hinsichtlich verschiedener Humankriterien in Unternehmen und Organisationen zum Wohle aller Beteiligten zu verbessern – das ist das Vorhaben von Humane Arbeit. Gegründet von Cornelia Strecker, Christian Seubert und Jürgen Glaser bietet das Spin-off arbeitspsychologische Beratung auf dem aktuellsten Stand wissenschaftlicher Forschung.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels diskutiert die potenzielle Gefahr einer Superintelligenten KI und die Bemühungen von OpenAI, Wege zu finden, um diese zu kontrollieren und sicherzustellen, dass sie den Absichten der Menschheit folgt. Das hat verschiedene gesellschaftspolitische Auswirkungen: 1. Bewusstsein für mögliche Risiken: Die Diskussion über Superintelligente KI und ihre potenzielle Bedrohung für die Menschheit sensibilisiert die Öffentlichkeit und Entscheidungsträger für die möglichen negativen Auswirkungen dieser Technologie. 2. Regulierung und Kontrolle: Die Bemühungen von OpenAI, eine eigene KI zu entwickeln, um die Kontrolle über eine Superintelligente KI sicherzustellen, könnten zu einer verstärkten Regulierung und Kontrolle von KI-Systemen führen. Dies könnte Auswirkungen auf die Entwicklung und Implementierung von KI in verschiedenen Bereichen der Gesellschaft haben. 3. Ethik und Verantwortung: Die Diskussion über die Kontrolle von Superintelligenter KI wirft auch Fragen der Ethik und Verantwortung auf. Es stellt sich die Frage, wer für die Handlungen und Entscheidungen von KI-Systemen verantwortlich ist und wie ethische Prinzipien in die Entwicklung und Nutzung dieser Technologie integriert werden können. 4. Zusammenarbeit zwischen Mensch und Maschine: OpenAI betont die enge Zusammenarbeit zwischen KI-Systemen und menschlichen Wissenschaftlern, um sicherzustellen, dass die KI-Systeme auf menschliche Werte und Absichten ausgerichtet sind. Dies deutet auf eine Veränderung der Zusammenarbeit zwischen Mensch und Maschine hin und könnte Auswirkungen auf Arbeitsstrukturen und Rollen in der Zukunft haben. Insgesamt hat der Inhalt des Artikels das Potenzial, das Bewusstsein für die Problematik von Superintelligenter KI zu schärfen und den Diskurs über Regulierung, Ethik und Zusammenarbeit zwischen Mensch und Maschine zu fördern.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat potenziell weitreichende wirtschaftliche Auswirkungen. Die Schaffung einer Superintelligenz und die Entwicklung von Kontrollmechanismen für KI-Systeme erfordern erhebliche Investitionen in Forschung und Technologie. OpenAI plant, einen beträchtlichen Teil seiner Rechenleistung für diese Zwecke einzusetzen. Dies könnte zu einer verstärkten Nachfrage nach hochqualifizierten KI-Experten führen und die KI-Forschungs- und Entwicklungsbranche weiter antreiben. Darüber hinaus könnten Unternehmen, die erfolgreich leistungsfähige KI-Systeme entwickeln und kontrollieren können, einen Vorsprung bei der Nutzung und Vermarktung dieser Technologien haben. Insgesamt wird der Artikel eine Diskussion über die Auswirkungen und Herausforderungen von Super-KI auf die Wirtschaft auslösen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in spielt der Artikel eine relevante Rolle, da er auf die mögliche Bedrohung einer Super-KI hinweist und die Bemühungen von OpenAI, diese zu kontrollieren. Dies zeigt, dass die Entwicklung und Erforschung von KI-Systemen weiterhin von großer Bedeutung ist, aber auch potenzielle Risiken birgt. Als Innovationsmanager:in sollten Sie sich mit diesen Fortschritten sowie den Möglichkeiten und Risiken auseinandersetzen, um sicherzustellen, dass Ihre Organisation von den Vorteilen der KI profitieren kann und gleichzeitig mögliche Bedrohungen im Blick behält.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Für Investoren ist der Inhalt dieses Artikels relevant, da er auf die potenziellen Risiken und Herausforderungen hinweist, die mit der Entwicklung von Superintelligenten KI-Systemen verbunden sind. Das Engagement von OpenAI zur Kontrolle und Ausrichtung solcher Systeme unterstreicht die Bedeutung von ethischen und sicherheitsrelevanten Aspekten bei der Weiterentwicklung von KI-Technologien. Investoren sollten sich daher über die Fortschritte und Maßnahmen in diesem Bereich informieren und mögliche Auswirkungen auf Unternehmen und Branchen berücksichtigen, die in der KI-Forschung und -Entwicklung tätig sind.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist es wichtig, auf dem aktuellen Stand der Technologieentwicklung zu sein, um politische Entscheidungen treffen zu können, die den gesellschaftlichen Fortschritt fördern und potenzielle Risiken reduzieren. Das Thema der Superintelligenz und der Kontrolle von KI-Systemen, wie in diesem Artikel erwähnt, betrifft die zukünftige Entwicklung der KI und deren potenzielle Auswirkungen auf die Menschheit. Durch die Kenntnis und das Verständnis dieser Entwicklungen können Politiker:innen politische Rahmenbedingungen schaffen, die die Sicherheit und den Nutzen von KI gewährleisten und gleichzeitig ethische Bedenken berücksichtigen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel beleuchtet das Thema der potenziellen Auslöschung der Menschheit durch eine Superintelligente KI und wie das Unternehmen OpenAI dieses Risiko angeht. OpenAI hat ein neues Team gegründet, um Wege zu finden, eine solche KI zu kontrollieren und sicherzustellen, dass sie den Absichten der Menschen folgt. Sie planen, eine eigene Aufpasser-KI zu entwickeln, die anpassungen an KI-Systemen vornehmen kann. Dieser Artikel verdeutlicht die wachsenden Bedenken der Tech-Industrie bezüglich der Kontrolle und Auswirkungen hochentwickelter KI-Systeme auf die Menschheit und zeigt den Einsatz von OpenAI zur Lösung dieser Herausforderungen.

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Ilya Sutskever
  • Jan Leike

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Die relevantesten Organisationen und Unternehmen in diesem Artikel sind:
  • OpenAI

Superintelligente KI: Team von OpenAI soll Auslöschung der Menschheit verhindern