23.12.2024
KÜNSTLICHE INTELLIGENZ

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

OpenAI hat ein neues Sprachmodell vorgestellt, das die Diskussionen um Artificial General Intelligence (AGI) wieder anheizt. Was steckt dahinter?
/artikel/openai-modell-o3-artifical-general-intelligence
Logo von OpenAI
Foto: Adobe Stock

Wenn OpenAI neue Dinge ankündigt, hört die KI-Szene hin. Klar, nicht jede Ankündigung des US-Unternehmens in den vergangenen zwei Jahren hatte dieselbe Tragweite wie jene vom 30. November 2022, als OpenAI den Start eines Chatbots namens ChatGPT verlautbaren ließ. Aber potenziell könnte jede Mitteilung des Unternehmens rund um CEO Sam Altman bahnbrechend sein. Kein Wunder also, dass es für Aufsehen sorgte, als OpenAI Anfang Dezember verlautbarte, zwölf Tage hintereinander neue Dinge vorzustellen.

Schon in der Ankündigung hatte Altman darauf hingewiesen, dass es neben größeren auch kleinere Neuigkeiten sein würden, die OpenAI liefern würde. So kam es dann auch: Zugang zu ChatGPT über WhatsApp oder die Integration in Apple Intelligence waren eher in die zweite Kategorie einzuordnen. Daneben veröffentlichte OpenAI aber auch das neue Modell o1 für ChatGPT – oder Sora, ein Tool zur Videoerstellung.

Den größten Widerhall in der KI-Szene fand allerdings die Ankündigung am letzten der zwölf Tage. Am vergangenen Freitagabend stellte OpenAI sein neues Modell o3 vor. Wichtig dabei: Das Modell ist noch nicht öffentlich zugänglich. OpenAI stellte zunächst einmal nur vor, wie das Modell in unterschiedlichen KI-Benchmarks abschnitt. Aber diese Ergebnisse hatten es in sich.

o3 zeigt starke Performance bei AGI-Benchmark

Vielbeachtet wurde dabei vor allem die Benchmark namens ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence), bei der zwei Varianten des o3-Modells deutlich bessere Ergebnisse erzielten als die bisher führenden o1-Modelle. Das Ziel von ARC-AGI ist es zu messen, wie sich eine KI im Umgang mit ihr unbekannten Aufgaben schlägt.

Wie die O3-Modelle verglichen mit anderen OpenAI-Modellen abschneiden // Grafik: ARC Prize

Es gibt unterschiedliche Definitionen von AGI. Die meisten davon verstehen AGI aber als ein System, das sämtliche intellektuellen Aufgaben mindestens so gut oder besser als ein Mensch erledigen kann.

Die ARC-AGI-Benchmark wurde von François Chollet konzipiert. Er definiert AGI als ein System, das “in der Lage ist, effizient neue Fähigkeiten zu erwerben und neuartige Probleme zu lösen, für die es trainiert wurde.”

Eine AGI ist also nicht für eine bestimmte Aufgabe trainiert, sondern kann jegliche Aufgaben übernehmen. Es ist weitgehender Konsens in der KI-Szene, dass solche Systeme noch nicht existieren. OpenAI wurde aber beispielsweise explizit mit dem Ziel gegründet, AGI zu erreichen.

Chollet gehört zu den bekanntesten Namen der internationalen KI-Szene. Er hat die bekannte KI-Library Keras entwickelt und seit einigen Jahren für Google tätig. Dem von ChatGPT ausgelösten Hype rund um generative KI steht Chollet seit Anfang an eher kritisch gegenüber, wie beispielsweise auch dieser brutkasten-Bericht wenige Wochen nach Erscheinen von ChatGPT thematisierte.

o3: “Wir befinden uns auf neuem Terrain”

Umso interessanter ist es, was Chollet nun zu den Ergebnissen des o3-Modells bzw. seiner Varianten zu sagen hat. In einem Blogeintrag attestiert er OpenAI, mit dem Modell einen “bedeutenden Sprung nach vorne” erreicht zu haben.

Die Performance des Modells stelle “einen echten Durchbruch” in der Anpassungsfähigkeit und Verallgemeinerung” von KI-Modellen dar”, wenn es darum gehe, wie sich KI-Modelle an neue Aufgaben anpassen könnten. o3 stelle nicht bloß einen “schrittweisen Fortschritt” dar. Vielmehr befinde man sich auf “neuem Terrain”, das “ernsthafte wissenschaftliche Aufmerksamkeit” erfordere.

Aber es ist schon Artificial General Intelligence (AGI)? Hier schränkt Chollet ein: “o3 scheitert immer noch an einigen sehr einfachen Aufgaben, was auf grundlegende Unterschiede zur menschlichen Intelligenz hinweist”. Dennoch befeuerten die Ergebnisse die Diskussion rund um AGI – und manche Stimmen sahen, anderes als Chollet, mit o3 AGI sogar bereits erreicht.

Selbst wenn dem so wäre, wäre es zum jetzigen Zeitpunkt schwer nachzuprüfen: Denn das Modell ist noch nicht veröffentlicht. Forscher:innen im Bereich der KI-Sicherheit können sich für Zugang vormerken lassen. Wann und zu welchen Konditionen das Modell für Endnutzer:innen zugänglich sein wird, ist aktuell noch unklar. Klar ist allerdings schon jetzt, dass die beeindruckenden Ergebnisse bei der ARC-AGI-Benchmark enorme Rechenressourcen erforderten – und dementsprechend teuer waren.

Reasoning-Modelle

Das o3-Modell ist eine verbesserte Version des o1-Modells, welches OpenAI am 4. Dezember veröffentliche und das zuvor bereits in Preview- und Mini-Varianten für ChatGPT-User:innen zugänglich gewesen war. Dieses Modell unterscheidet sich zu dem im Mai 2024 veröffentlichten GPT4o-Modell insofern, als es auf einen “Reasoning”-Ansatz setzt.

OpenAI bezeichnet GPT4o weiterhin als das “vielseitige, hochintelligente Flagship-Modell”, das für die “meisten Aufgaben” die richtige Wahl sei. Die o1-Modelle wiederum referenziert das Unternehmen als “Reasoning-Modelle, die sich bei komplexen, mehrstufigen Aufgaben auszeichnen”.

Enduser:innen von ChatGPT merken dies in der Nutzung vor allem insofern, als sich die o1-Modelle länger Zeit nehmen, Ergebnisse zu produzieren. Diese Modelle “verbringen mehr Zeit mit Nachdenken, bevor sie reagieren”, wie es OpenAI formuliert. In einigen (aber nicht notwendigerweise in allen) Bereichen liefern sie dann deutlich bessere Ergebnisse als die bisherigen Modelle.


Tipp der Redaktion: Die neue brutkasten-Serie “No Hype KI”

No Hype KI
Nach zwei Jahren ChatGPT liefern wir eine Bestandsaufnahme aus der österreichischen Wirtschaft – wo stehen wir wirklich?
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Deine ungelesenen Artikel:
13.01.2025

“Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis

Nachlese. Der Hype um künstliche Intelligenz ist längst im Rollen. Doch wie schaffen Unternehmen den Durchbruch in der Praxis? In der dritten Folge der neuen brutkasten-Serie “No Hype KI” schildern Expert:innen, welche Erfolgsfaktoren wirklich zählen und wie sich Herausforderungen souverän meistern lassen - von Datenlücken bis hin zur Einbindung der Belegschaft. Klar wird, dass die Technik nur ein Teil der Gleichung ist.
/artikel/no-hype-ki-folge-3
13.01.2025

“Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis

Nachlese. Der Hype um künstliche Intelligenz ist längst im Rollen. Doch wie schaffen Unternehmen den Durchbruch in der Praxis? In der dritten Folge der neuen brutkasten-Serie “No Hype KI” schildern Expert:innen, welche Erfolgsfaktoren wirklich zählen und wie sich Herausforderungen souverän meistern lassen - von Datenlücken bis hin zur Einbindung der Belegschaft. Klar wird, dass die Technik nur ein Teil der Gleichung ist.
/artikel/no-hype-ki-folge-3
Die dritte Folge von "No Hype KI" mit Manuel Moser, Alexandra Sumper, Moritz Mitterer und Clemens Wasner (v.l.n.r.) (c) brutkasten

„No Hype KI” wird unterstützt von CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und Universität Graz.


Wie lässt sich KI “richtig” in Unternehmen integrieren? Wieso erleben Unternehmen einen “Bottom-Up-Push” und warum sprechen viele dabei noch von großen Hürden? Um diese und viele weitere Fragen ging es in der dritten Folge von “No Hype KI”. Zu Gast waren Alexandra Sumper von Nagarro, Manuel Moser von CANCOM Austria, Moritz Mitterer von ITSV sowie Clemens Wasner von AI Austria und EnliteAI.

Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Der Bottom-Up-Push

“Der AI-Hype ist jetzt circa zehn Jahre alt”, startet Clemens Wasner die Diskussionsrunde. Was als “vorausschauende Warnung und Betrugserkennung” im B2B-Sektor begann, hat sich eine knappe Dekade später zu einer Bottom-Up-Push-Bewegung entwickelt. “Einzelne Mitarbeitende verfügen teilweise über weitaus mehr praktische Erfahrung mit Generativer KI”, als “das oft auf einer Projektebene passiert”, so Wasner.

Um KI federführend in Unternehmen zu verankern, sei es wichtiger denn je, Mitarbeitende einzubinden und ihnen intern eine Bühne für den Best-Practice-Austausch zu geben, erklärt Wasner weiter. Aktuell ginge der KI-Push immer intensiver von Mitarbeiter:innen aus. Vergleichbar sei diese Bewegung mit dem Aufkommen der Smartphones vor etwa fünfzehn Jahren.

Daten mit Qualität

Als Basis sollte zuerst allerdings der Datenhaushalt eines Unternehmens sauber strukturiert und reguliert werden, sagt Manuel Moser, Director Digital Innovation & Software Engineering bei CANCOM Austria. “Wenn ein Unternehmen in puncto Daten hinterherhinkt, kann das jetzt durchaus ein Stolperstein sein”, sagt der Experte. In CRM- und ERP-Systemen finden sich häufig unvollständige Angaben. Die dadurch entstehende unzureichende Datenqualität könne jede KI-Initiative ins Stocken bringen, so Moser.

“Der größte Feind ist Zettel und Bleistift”

Schon allein das Notieren von Informationen auf Zetteln gilt nicht nur als scheinbar banale Hürde, wie Moser im Talk erläutert. Analoge Gewohnheiten können enorme Auswirkungen auf den gesamten Digitalisierungsprozess des Unternehmens haben: “Ich sage immer: Bei Digitalisierungslösungen ist der größte Feind der Zettel und der Bleistift am Tisch, mit denen man das digitale Tool am Ende des Tages umgeht.”

Gerade der öffentliche Sektor sollte im KI-Einsatz sowie in der Verwaltung von Daten sorgfältig agieren. Moritz Mitterer, Aufsichtsratsvorsitzender der ITSV, spricht von besonders sensiblen Daten aus der Sozialversicherung, die ein enges rechtliches Korsett und damit ein höheres Maß an Vorsicht mit sich bringen.

“Wir haben 2017 in der ITSV damit begonnen, innerhalb der Struktur damit zu experimentieren”, erzählt Mitterer. Ein essentielles Learning daraus: Gerade große Prozessmengen stellen sich als ideales Feld für KI heraus – wenn man vernünftige Leitplanken, klare Haftungsregeln und eine unternehmensweite Governance definiert.

Im Fokus stehen User:innen

Datenqualität, Governance und gleichzeitig reichlich Agilität? Worauf sollten sich Unternehmen in erster Linie konzentrieren, um KI lösungsorientiert einzusetzen? Alexandra Sumper, Director Delivery Österreich bei Nagarro, betont, dass KI-Projekte weit mehr als reine Technik voraussetzen: “Meine Erfahrung zeigt wirklich, nicht zu groß zu beginnen, wenn man erst am Anfang steht.“ Viele Firmen würden sich gerade anfangs in Strategiepapieren verlieren, anstatt realitätsgetreue Use Case zu definieren, so die Expertin.

“Man muss gut darauf achten, dass man liefert. Sowohl an Datenqualität, als auch an optimierter User Experience”, erläutert Sumper. Als Erfolgsbeispiel nennt sie die Asfinag, die einen KI-Chatbot erfolgreich eingeführt hat. Das Besondere dabei: Ein Kernteam entwickelte die KI-Lösung, achtete auf Datenqualität und band die künftigen Nutzer:innen ein. Die Akzeptanz im Unternehmen stieg rasant, erzählt Sumper von den Projektanfängen.

Ähnliche Schlüsse zieht Sumper aus der Beobachtung anderer Kund:innen: In erster Linie gelte es zu testen, ob KI in einem kleinen Rahmen Nutzen bringt. Sobald Mitarbeiter:innen erleben, dass KI ihre Arbeit wirklich erleichtert, wächst das Vertrauen und die Bereitschaft, weitere Schritte zu gehen.

“Am Anfang gibt es nichts, dass zu 100 Prozent funktioniert”

Dass sich eine Trial-and-Error-Phase gerade in den Anfängen des KI-Einsatzes nicht vermeiden lässt, scheint ein allgemeiner Konsens der Diskussionsrunde zu sein. “Es gibt nichts, was sofort 100 Prozent top funktioniert”, so Sumper. Um Fehlerquellen und deren Auswirkungen jedoch möglichst gering zu halten, empfiehlt die Expertin Qualitätssicherung durch ein Key-User-Team, um Fehler festzustellen, zu korrigieren und Daten-Gaps zu schließen.

Hierbei sollen die Möglichkeiten von generativer KI intelligent genutzt werden, wie Clemens Wasner hervorhebt: “Wir haben das erste Mal eine Technologie, die es ermöglicht, unstrukturierte Daten überhaupt auswertbar zu machen.” Nun gilt es, Effizienz in der Datenstrukturierung und -auswertung zu fördern, um mit der aktuellen Welle der digitalen Transformation mitzuhalten. Denn KI ist, wie Manuel Moser von CANCOM Austria bestätigt, ein wesentlicher Teil der digitalen Transformation: “Ein Baustein, wenn man so will, wie ein ausgestrecktes Werkzeug eines Schweizer Taschenmessers.”

KI-Bereiche mit Potenzial zur Ausgründung

Das Gespräch zeigte insgesamt, dass Unternehmen viel gewinnen können, wenn sie KI nicht als fertige Lösung, sondern als Lernprozess verstehen, in den die Belegschaft aktiv mit eingebunden wird. Auf einer soliden Datenbasis mit klarer Kommunikation ließe sich schon in kleinen Projekten ein spürbarer Mehrwert für das Unternehmen erzeugen.

In manchen Branchen, darunter Sozialversicherungen, E-Commerce sowie Luftfahrt und Logistik, sind Fortschritte unvermeidlich, um den steigenden Anforderungen von Markt- und Mitarbeiterseite gerecht zu werden.

Wasner spricht hierbei von einem Fokus auf Digital Business, der sich bereits in der Entstehung neuer Geschäftsfelder am Markt zeigt: Immer häufiger bündeln Unternehmen Wissensträger:innen zu den Bereichen Data, IoT und Machine Learning in einer eigenen Organisation oder Ausgründung. Gezielt wird hier das Potenzial eines eigenen KI-Kernteams zu nutzen und auszubauen versucht.

Luft nach oben

Dass es in vielen Branchen noch reichlich ungenutztes Potenzial gibt, haben mittlerweile einige Reports aufgeschlüsselt dargestellt. Gerade im Healthcare-Bereich sei “mit Abstand am meisten rauszuholen” – unter anderem im Hinblick auf den sicheren und effizienten Umgang mit Patienten- und Amnesie-Daten zur schnellen und akkuraten Behandlung.

Laut Moritz Mitterer der ITSV besteht eine große Herausforderung darin, sensible Patientendaten und strenge Regulatorik mit dem Wunsch nach Fortschritt zu vereinen. Gerade in Sozialversicherungen sei es wichtig, eine klare Governance zu schaffen und den Einsatzrahmen von KI zu definieren. Nur so könne Vertrauen gefestigt und sichergestellt werden, dass neue Technologien nicht an bürokratischen Hemmnissen oder Sicherheitsbedenken scheitern.

Vertrauen ist “noch ein starker Blocker”

“Am Ende des Tages probieren Unternehmen aus: Wie reagiert die Technologie, wie geht man damit um, welche Art von Projekten macht man?”, rundet Manuel Moser von CANCOM Austria die Diskussion ab. Der nächste Schritt liege darin, immer “mehr in die Kernprozesse von Unternehmen reinzukommen”, so Moser. “Und das, glaube ich, ist ein sehr wesentlicher Punkt.” Das Vertrauen, dass es die Technologie braucht. Das ist aktuell noch ein “starker Blocker in Unternehmen”.

Die Expertenrunde teilt einen universellen Konsens: Der Mensch sowie sein Know-how und Vertrauen in KI spielen bei der digitalen Transformation eine erhebliche Rolle. Sobald KI-Anwendungen auf eine verlässliche Datenstruktur und klare Organisation treffen, kann sich KI im Unternehmensalltag entfalten. Erst durch das Zusammenspiel von Technik, Datenkultur und motivierten Teams wird KI zum Treiber neuer Chancen.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Neues OpenAI-Modell o3: “Befinden uns auf neuem Terrain”