23.12.2024
KÜNSTLICHE INTELLIGENZ

Neues OpenAI-Modell o3: „Befinden uns auf neuem Terrain“

OpenAI hat ein neues Sprachmodell vorgestellt, das die Diskussionen um Artificial General Intelligence (AGI) wieder anheizt. Was steckt dahinter?
/artikel/openai-modell-o3-artifical-general-intelligence
Logo von OpenAI
Foto: Adobe Stock

Wenn OpenAI neue Dinge ankündigt, hört die KI-Szene hin. Klar, nicht jede Ankündigung des US-Unternehmens in den vergangenen zwei Jahren hatte dieselbe Tragweite wie jene vom 30. November 2022, als OpenAI den Start eines Chatbots namens ChatGPT verlautbaren ließ. Aber potenziell könnte jede Mitteilung des Unternehmens rund um CEO Sam Altman bahnbrechend sein. Kein Wunder also, dass es für Aufsehen sorgte, als OpenAI Anfang Dezember verlautbarte, zwölf Tage hintereinander neue Dinge vorzustellen.

Schon in der Ankündigung hatte Altman darauf hingewiesen, dass es neben größeren auch kleinere Neuigkeiten sein würden, die OpenAI liefern würde. So kam es dann auch: Zugang zu ChatGPT über WhatsApp oder die Integration in Apple Intelligence waren eher in die zweite Kategorie einzuordnen. Daneben veröffentlichte OpenAI aber auch das neue Modell o1 für ChatGPT – oder Sora, ein Tool zur Videoerstellung.

Den größten Widerhall in der KI-Szene fand allerdings die Ankündigung am letzten der zwölf Tage. Am vergangenen Freitagabend stellte OpenAI sein neues Modell o3 vor. Wichtig dabei: Das Modell ist noch nicht öffentlich zugänglich. OpenAI stellte zunächst einmal nur vor, wie das Modell in unterschiedlichen KI-Benchmarks abschnitt. Aber diese Ergebnisse hatten es in sich.

o3 zeigt starke Performance bei AGI-Benchmark

Vielbeachtet wurde dabei vor allem die Benchmark namens ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence), bei der zwei Varianten des o3-Modells deutlich bessere Ergebnisse erzielten als die bisher führenden o1-Modelle. Das Ziel von ARC-AGI ist es zu messen, wie sich eine KI im Umgang mit ihr unbekannten Aufgaben schlägt.

Wie die O3-Modelle verglichen mit anderen OpenAI-Modellen abschneiden // Grafik: ARC Prize

Es gibt unterschiedliche Definitionen von AGI. Die meisten davon verstehen AGI aber als ein System, das sämtliche intellektuellen Aufgaben mindestens so gut oder besser als ein Mensch erledigen kann.

Die ARC-AGI-Benchmark wurde von François Chollet konzipiert. Er definiert AGI als ein System, das „in der Lage ist, effizient neue Fähigkeiten zu erwerben und neuartige Probleme zu lösen, für die es trainiert wurde.“

Eine AGI ist also nicht für eine bestimmte Aufgabe trainiert, sondern kann jegliche Aufgaben übernehmen. Es ist weitgehender Konsens in der KI-Szene, dass solche Systeme noch nicht existieren. OpenAI wurde aber beispielsweise explizit mit dem Ziel gegründet, AGI zu erreichen.

Chollet gehört zu den bekanntesten Namen der internationalen KI-Szene. Er hat die bekannte KI-Library Keras entwickelt und seit einigen Jahren für Google tätig. Dem von ChatGPT ausgelösten Hype rund um generative KI steht Chollet seit Anfang an eher kritisch gegenüber, wie beispielsweise auch dieser brutkasten-Bericht wenige Wochen nach Erscheinen von ChatGPT thematisierte.

o3: „Wir befinden uns auf neuem Terrain“

Umso interessanter ist es, was Chollet nun zu den Ergebnissen des o3-Modells bzw. seiner Varianten zu sagen hat. In einem Blogeintrag attestiert er OpenAI, mit dem Modell einen „bedeutenden Sprung nach vorne“ erreicht zu haben.

Die Performance des Modells stelle „einen echten Durchbruch“ in der Anpassungsfähigkeit und Verallgemeinerung“ von KI-Modellen dar“, wenn es darum gehe, wie sich KI-Modelle an neue Aufgaben anpassen könnten. o3 stelle nicht bloß einen „schrittweisen Fortschritt“ dar. Vielmehr befinde man sich auf „neuem Terrain“, das „ernsthafte wissenschaftliche Aufmerksamkeit“ erfordere.

Aber es ist schon Artificial General Intelligence (AGI)? Hier schränkt Chollet ein: „o3 scheitert immer noch an einigen sehr einfachen Aufgaben, was auf grundlegende Unterschiede zur menschlichen Intelligenz hinweist“. Dennoch befeuerten die Ergebnisse die Diskussion rund um AGI – und manche Stimmen sahen, anderes als Chollet, mit o3 AGI sogar bereits erreicht.

Selbst wenn dem so wäre, wäre es zum jetzigen Zeitpunkt schwer nachzuprüfen: Denn das Modell ist noch nicht veröffentlicht. Forscher:innen im Bereich der KI-Sicherheit können sich für Zugang vormerken lassen. Wann und zu welchen Konditionen das Modell für Endnutzer:innen zugänglich sein wird, ist aktuell noch unklar. Klar ist allerdings schon jetzt, dass die beeindruckenden Ergebnisse bei der ARC-AGI-Benchmark enorme Rechenressourcen erforderten – und dementsprechend teuer waren.

Reasoning-Modelle

Das o3-Modell ist eine verbesserte Version des o1-Modells, welches OpenAI am 4. Dezember veröffentliche und das zuvor bereits in Preview- und Mini-Varianten für ChatGPT-User:innen zugänglich gewesen war. Dieses Modell unterscheidet sich zu dem im Mai 2024 veröffentlichten GPT4o-Modell insofern, als es auf einen „Reasoning“-Ansatz setzt.

OpenAI bezeichnet GPT4o weiterhin als das „vielseitige, hochintelligente Flagship-Modell“, das für die „meisten Aufgaben“ die richtige Wahl sei. Die o1-Modelle wiederum referenziert das Unternehmen als „Reasoning-Modelle, die sich bei komplexen, mehrstufigen Aufgaben auszeichnen“.

Enduser:innen von ChatGPT merken dies in der Nutzung vor allem insofern, als sich die o1-Modelle länger Zeit nehmen, Ergebnisse zu produzieren. Diese Modelle „verbringen mehr Zeit mit Nachdenken, bevor sie reagieren“, wie es OpenAI formuliert. In einigen (aber nicht notwendigerweise in allen) Bereichen liefern sie dann deutlich bessere Ergebnisse als die bisherigen Modelle.


Tipp der Redaktion: Die neue brutkasten-Serie „No Hype KI“

No Hype KI
Nach zwei Jahren ChatGPT liefern wir eine Bestandsaufnahme aus der österreichischen Wirtschaft – wo stehen wir wirklich?
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Deine ungelesenen Artikel:
01.04.2025

Hateblocker.io: Ex-Storebox-Manager zieht Hasskommentar-Poster zur Verantwortung

Hateblocker.io ist eine Plattform, die Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet schützen soll. Dabei unterstützt Gründer Thaddäus Leutzendorff auch bei der rechtlichen Verfolgung von Täter:innen.
/artikel/hateblocker-io-ex-storebox-manager-zieht-hasskommentar-poster-zur-verantwortung
01.04.2025

Hateblocker.io: Ex-Storebox-Manager zieht Hasskommentar-Poster zur Verantwortung

Hateblocker.io ist eine Plattform, die Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet schützen soll. Dabei unterstützt Gründer Thaddäus Leutzendorff auch bei der rechtlichen Verfolgung von Täter:innen.
/artikel/hateblocker-io-ex-storebox-manager-zieht-hasskommentar-poster-zur-verantwortung
Hateblocker.io, Hasskommentare, Julia Gruber
© LinkedIn - Thaddäus Leutzendorff von fairesLeben bzw. fairesNetz.

„Ich schlitze dir die Kehle auf, du veganes Miststück.“ Das ist nur eine der Hassnachrichten, die Influencerin Julia Gruber im Netz erhalten hat. Sie setzt sich für Empowerment, gegen sexuelle Gewalt sowie gegen die Sexualisierung von Frauen ein und wird bei ihren Posts beinahe täglich mit zumindest seltsamen oder extrem feindseligen Kommentaren konfrontiert. Ihr Bekannter Thaddäus Leutzendorff hat vor fünf Jahren das LegalTech fairesLeben gegründet. Damit möchte er Kund:innen helfen, in finanziell wichtigen Angelegenheiten ihre Rechte gegenüber vermeintlich stärkeren Vertragspartnern wahrnehmen zu können. Im Zuge dessen lernte er Gruber kennen, die ihm erzählte, sie hätte schon wieder Morddrohungen bekommen. So ist zuerst die Meldestelle fairesnetz und später Hateblocker.io als Tochtergesellschaft davon entstanden.

Hateblocker.io: KI-gestützt

„Julia fragte mich“, erzählt Leutzendorff, „ob man da etwas tun kann. Es gab damals wenig Anlaufstellen und kaum Judikatur. Wir haben dann zwei Jahre lang ein Verfahren geführt gegen Täter:innen und Plattformen, auch um zu sehen, wie man am effektivsten gegen Hass im Netz vorgehen kann.“

Anm.: Der deutsche Täter in diesem Fall wurde ausgeforscht und geklagt. Er hat sich außergerichtlich mit Gruber und dem Gründer verglichen und musste über 3.000 Euro bezahlen (Schadenersatz inklusive Rechtsanwaltskosten).

© trinksaufmich/Instagram – Julia Gruber erhielt strafrechtlich relevante Nachrichten.

Leutzendorff merkte bald, bei welchen Plattformen man an Daten herankommen kann, erkannte dabei aber ein großes Problem: „Für Kund:innen wie Julia wäre es viel zu viel Arbeit, zu recherchieren, die Identität herauszufinden, alles zu sichern, Screenshots und dergleichen. Also wussten wir, wir müssen eine Software bauen, die alles automatisiert erledigt“, erinnert er sich.

Hateblocker.io hat zum Ziel, Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet zu schützen. Dabei analysiert das KI-gestützte System in Echtzeit Kommentare und Nachrichten auf verbundenen Social-Media-Kanälen, um schädliche Inhalte frühzeitig zu erkennen und zu entfernen.

Kategorisierung möglich

User:innen erhalten mittels hateblocker.io eine Übersicht über alle als unangemessen markierten Inhalte und können direkt Maßnahmen ergreifen.​ Das System hilft zudem dabei, die Identität hinter anonymen Profilen aufzudecken, um bei Bedarf rechtliche Schritte einleiten zu können. Kommentare können zusätzlich nach Schweregrad kategorisiert werden.

„Wir haben 41 verschiedene ‚Marker‘ und können sehen, um welche Art von Hassrede es sich handelt. Ob Rassismus oder Morddrohungen etwa. Dann wird automatisch ein Screenshot erstellt“, sagt Leutzendorff.

Laut einer Erhebung von Statistik Austria aus dem Jahr 2023 waren rund 31 Prozent der österreichischen Bevölkerung mit feindseligen oder erniedrigenden Kommentaren gegenüber bestimmten Personengruppen konfrontiert. Besonders betroffen waren Nutzer:innen sozialer Medien: 39 Prozent von ihnen berichten von solchen Erfahrungen, während es bei Internetuser:innen ohne Social-Media-Aktivität 20 Prozent sind. ​Inhalte beziehen sich dabei am häufigsten auf politische oder gesellschaftliche Ansichten (27 Prozent)​, Religion oder Weltanschauung (22 Prozent),​ ethnische Zugehörigkeit (20 Prozent)​ sowie sexuelle Orientierung mit 19 Prozent und​ Geschlecht mit 17 Prozent.

Hateblocker.io mit 10.000 Verarbeitungen pro Tag

Leutzendorff selbst war, bevor er Gründer wurde, von 2019 bis 2020 „Business Operations Manager“ bei Storebox, davor nicht ganz zwei Jahre „Corporate Sales Manager“ bei foodora, bevor er sich selbstständig machte und nun das Thema „Fairness“ bedient: „Bisher haben wir mehr als 1.000.000 Kommentare und Nachrichten unserer Kunden verarbeitet und bearbeiten aktuell rund 10.000 pro Tag. Das Ziel ist es, bis Jahresende auf 200.000 zu erhöhen.“

Zu den Kund:innen von Hateblocker.io gehören, Personen aus dem Sport, der Politik und auch Moderator:innen, hier vorwiegend weibliche, die nach einem Auftritt bis zu 10.000 Mails erhalten – inklusive wüster Beschimpfungen.

Leutzendorff und Gruber treten heute bei „2 Minuten 2 Millionen“ auf und wollen neben einem potentiellen Investment auch die Leute für das Thema Hass im Netz sensibilisieren.

01.04.2025

Hateblocker.io: Ex-Storebox-Manager zieht Hasskommentar-Poster zur Verantwortung

Hateblocker.io ist eine Plattform, die Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet schützen soll. Dabei unterstützt Gründer Thaddäus Leutzendorff auch bei der rechtlichen Verfolgung von Täter:innen.
01.04.2025

Hateblocker.io: Ex-Storebox-Manager zieht Hasskommentar-Poster zur Verantwortung

Hateblocker.io ist eine Plattform, die Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet schützen soll. Dabei unterstützt Gründer Thaddäus Leutzendorff auch bei der rechtlichen Verfolgung von Täter:innen.
Hateblocker.io, Hasskommentare, Julia Gruber
© LinkedIn - Thaddäus Leutzendorff von fairesLeben bzw. fairesNetz.

„Ich schlitze dir die Kehle auf, du veganes Miststück.“ Das ist nur eine der Hassnachrichten, die Influencerin Julia Gruber im Netz erhalten hat. Sie setzt sich für Empowerment, gegen sexuelle Gewalt sowie gegen die Sexualisierung von Frauen ein und wird bei ihren Posts beinahe täglich mit zumindest seltsamen oder extrem feindseligen Kommentaren konfrontiert. Ihr Bekannter Thaddäus Leutzendorff hat vor fünf Jahren das LegalTech fairesLeben gegründet. Damit möchte er Kund:innen helfen, in finanziell wichtigen Angelegenheiten ihre Rechte gegenüber vermeintlich stärkeren Vertragspartnern wahrnehmen zu können. Im Zuge dessen lernte er Gruber kennen, die ihm erzählte, sie hätte schon wieder Morddrohungen bekommen. So ist zuerst die Meldestelle fairesnetz und später Hateblocker.io als Tochtergesellschaft davon entstanden.

Hateblocker.io: KI-gestützt

„Julia fragte mich“, erzählt Leutzendorff, „ob man da etwas tun kann. Es gab damals wenig Anlaufstellen und kaum Judikatur. Wir haben dann zwei Jahre lang ein Verfahren geführt gegen Täter:innen und Plattformen, auch um zu sehen, wie man am effektivsten gegen Hass im Netz vorgehen kann.“

Anm.: Der deutsche Täter in diesem Fall wurde ausgeforscht und geklagt. Er hat sich außergerichtlich mit Gruber und dem Gründer verglichen und musste über 3.000 Euro bezahlen (Schadenersatz inklusive Rechtsanwaltskosten).

© trinksaufmich/Instagram – Julia Gruber erhielt strafrechtlich relevante Nachrichten.

Leutzendorff merkte bald, bei welchen Plattformen man an Daten herankommen kann, erkannte dabei aber ein großes Problem: „Für Kund:innen wie Julia wäre es viel zu viel Arbeit, zu recherchieren, die Identität herauszufinden, alles zu sichern, Screenshots und dergleichen. Also wussten wir, wir müssen eine Software bauen, die alles automatisiert erledigt“, erinnert er sich.

Hateblocker.io hat zum Ziel, Nutzer:innen vor Hassrede, Bedrohungen und Beleidigungen im Internet zu schützen. Dabei analysiert das KI-gestützte System in Echtzeit Kommentare und Nachrichten auf verbundenen Social-Media-Kanälen, um schädliche Inhalte frühzeitig zu erkennen und zu entfernen.

Kategorisierung möglich

User:innen erhalten mittels hateblocker.io eine Übersicht über alle als unangemessen markierten Inhalte und können direkt Maßnahmen ergreifen.​ Das System hilft zudem dabei, die Identität hinter anonymen Profilen aufzudecken, um bei Bedarf rechtliche Schritte einleiten zu können. Kommentare können zusätzlich nach Schweregrad kategorisiert werden.

„Wir haben 41 verschiedene ‚Marker‘ und können sehen, um welche Art von Hassrede es sich handelt. Ob Rassismus oder Morddrohungen etwa. Dann wird automatisch ein Screenshot erstellt“, sagt Leutzendorff.

Laut einer Erhebung von Statistik Austria aus dem Jahr 2023 waren rund 31 Prozent der österreichischen Bevölkerung mit feindseligen oder erniedrigenden Kommentaren gegenüber bestimmten Personengruppen konfrontiert. Besonders betroffen waren Nutzer:innen sozialer Medien: 39 Prozent von ihnen berichten von solchen Erfahrungen, während es bei Internetuser:innen ohne Social-Media-Aktivität 20 Prozent sind. ​Inhalte beziehen sich dabei am häufigsten auf politische oder gesellschaftliche Ansichten (27 Prozent)​, Religion oder Weltanschauung (22 Prozent),​ ethnische Zugehörigkeit (20 Prozent)​ sowie sexuelle Orientierung mit 19 Prozent und​ Geschlecht mit 17 Prozent.

Hateblocker.io mit 10.000 Verarbeitungen pro Tag

Leutzendorff selbst war, bevor er Gründer wurde, von 2019 bis 2020 „Business Operations Manager“ bei Storebox, davor nicht ganz zwei Jahre „Corporate Sales Manager“ bei foodora, bevor er sich selbstständig machte und nun das Thema „Fairness“ bedient: „Bisher haben wir mehr als 1.000.000 Kommentare und Nachrichten unserer Kunden verarbeitet und bearbeiten aktuell rund 10.000 pro Tag. Das Ziel ist es, bis Jahresende auf 200.000 zu erhöhen.“

Zu den Kund:innen von Hateblocker.io gehören, Personen aus dem Sport, der Politik und auch Moderator:innen, hier vorwiegend weibliche, die nach einem Auftritt bis zu 10.000 Mails erhalten – inklusive wüster Beschimpfungen.

Leutzendorff und Gruber treten heute bei „2 Minuten 2 Millionen“ auf und wollen neben einem potentiellen Investment auch die Leute für das Thema Hass im Netz sensibilisieren.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag