✨ AI Kontextualisierung
Das Wiener Startup HeyQQ rund um Dima Rubanov und Matthias Neumayer hat bereits für einige Schlagzeilen gesorgt. Zuletzt rund um die neue „kindgerechte KI“ namens Lora, die deutlich weniger Bias als die Standard-Modelle aufweisen soll und sich damit für Lern-Apps und Kinder-Entertainment eignet – brutkasten berichtete.
Neben Lora hat das Wiener Startup HeyQQ bereits zwei andere alternative KI-Modelle hochgezogen: Die KI-Gute-Nacht-Geschichten-App „Oscar Stories“ sowie der Erklär-Chatbot „Frag das PDF“. Mit Lora erreichte man nun einen neuen Meilenstein.
Lora-Lesbarkeit sei besser als GPT-4o
„Lora“ steht für „Lernen ohne Risiko mit AI“. Im Juli sprach man noch davon, das Modell auf Basis von Open-Source-Modellen am Markt zu trainieren. Schon damals wollte man „bessere Ergebnisse als GPT4 oder Gemini erzielen“. Dieses Ziel hat man mittlerweile erreicht.
In Benchmark-Tests konnte Lora bisher positive Ergebnisse liefern. Im Hinblick auf den „Flesch Reading Ease“ – also den Lesbarkeitsindex, der als numerischer Wert für die Lesbarkeit eines Textes angegeben wird – erreichte es einen Score von 80,24. Das Modell des französischen KI-Startups Mistral-8B erreichte hingegen einen Index von 71,10, GPT-4o erreichte den Score 77,17.
„Fine Tuning“ von MistralAI
„Wir haben bei Oscar Stories gemerkt, dass man mit derzeitigen KI-Modellen nicht wirklich altersgerechte Sprache schafft und dass Bias ein Problem ist“, sagt Founder Matthias Neumayer gegenüber brutkasten.
„Deshalb haben wir Lora gestartet. Aktuell arbeiten wir an Fine Tunings mit hochqualitativen Daten, die wir gemeinsam mit Pädagog:innen sichten, um Bias zu reduzieren und die Readability für Kinder zu steigern“, so Neumayer weiter.
Wie Co-Gründer Neumayer auf brutkasten-Nachfrage bestätigt, basiert „Lora“ auf dem Open-Source-Modell des französischen KI-Startups MistralAI. Das „experimentelle Modell“ sei ein „Fine Tuning von Mistral“ und mittlerweile „schon besser in den Metrics als die Großen in der deutschen Sprache“, heißt es von Neumayer heute.
Bias-Messung soll KI gendergerecht trainieren
Dass ein Gender Bias bei Open-Source-Modellen ein Problem ist, hob Neumayer bereits im Juli des Vorjahres hervor: „Bei der Arbeit mit KI-generierten Kindergeschichten stellten wir fest, dass männliche Kinder oft als Helden dargestellt wurden, während weibliche Charaktere oft die Opferrolle einnehmen. Mit Lora arbeiten wir an einer kindgerechten KI-Adoption mit vermindertem Bias“.
Das Startup HeyQQ hat deshalb eine Bias-Messtechnik entwickelt: „Gender Bias messen wir mit dem Genbit Score von Microsoft oder mit Counterfactual Bias, indem überprüft wird, wie sich die Antworten ändern, wenn bestimmte Attribute wie Geschlecht, Ethnie oder Alter in einem Prompt ausgetauscht werden“, führt der Gründer gegenüber brutkasten aus.
Generative KI soll „fairer werden“
„Statt nur nachzusehen, ob ein Modell verzerrte Antworten gibt, testen wir, wie sehr sich die Antwort verändert, wenn wir z. B. ‚ein Mädchen‘ durch ‚ein Junge‘ ersetzen. Wenn die KI plötzlich unterschiedliche Ergebnisse liefert oder eine klare Tendenz zeigt (z. B. ‚Der Arzt‘ wird immer als männlich dargestellt), dann deutet das auf Bias hin“, erklärt Neumayer den Mechanismus.
Ein fairer KI-Algorithmus sollte ähnliche Antworten für verschiedene Gruppen geben: „Es sei denn, die Unterschiede sind objektiv gerechtfertigt.“ Durch Counterfactual-Bias-Tests könne das Startup Verzerrungen gezielt identifizieren und „das Modell fairer machen“.