Das Wiener Startup HeyQQ, gegründet von Matthias Neumayer und Dima Rubanov, machte mit seiner App Oscar Stories auf sich aufmerksam – eine KI-Anwendung, die personalisierte, kindgerechte Gute-Nacht-Geschichten erstellt und dabei auf bias-reduzierte Sprache achtet. Seit dem Start 2022 hat das Team mehrere KI-gestützte Tools entwickelt, darunter auch ein eigenes Sprachmodell namens “Lora”. Dieses soll gezielt dort ansetzen, wo bestehende Modelle wie GPT-4 an ihre Grenzen stoßen – etwa bei kindgerechter Sprache oder der Vermeidung geschlechtsspezifischer Verzerrungen.
Im brutkasten-Talk geben die Gründer Einblicke in die Entwicklung von Lora und erklären, wie sie damit Bildung und Fairness fördern wollen. Dabei betonen sie auch die gesellschaftliche Relevanz von Open-Source-Initiativen und einer vielfältigen Modelllandschaft im KI-Sektor.
Um diese Themen geht es im Videotalk:
Oscar Stories: KI-basierte Gute-Nacht-Geschichten
- Oscar Stories ist HeyQQ’s bekannteste App, die personalisierte Gute-Nacht-Geschichten für Kinder generiert, wobei Kinder und Bekannte Hauptrollen übernehmen können.
- Die App hat über 150.000 Downloads und nutzt ein AI Agent System zur dynamischen Erstellung von Geschichten
Entwicklung und Zweck des KI-Modells Lora
- HeyQQ entwickelte ein eigenes Sprachmodell Lora, um die Grenzen bestehender Modelle bei der Generierung kindgerechter Sprache und der Reduzierung von Gender Bias zu überwinden.
- Lora basiert auf dem Open Source-Modell Mistral AI und wird mit pädagogisch geprüften Texten trainiert, um die Verständlichkeit und Bias-Reduktion zu verbessern.
Weitere KI-Produkte von HeyQQ
- Neben Oscar Stories entwickelte HeyQQ den KI-Studienassistenten Frag das PDF, der Funktionen wie PDF-Chat, Literaturrecherche und einen KI-Editor vereint.
- Als „Herzensprojekte“ zur Demokratiezugänglichkeit wurden FragDieEU und FragDiePartei entwickelt.
Zukunftsausblick
- Das Modell Lora soll künftig zur Vermittlung von MINT-Fächern eingesetzt und potenziell anderen EdTech-Startups angeboten werden
- HeyQQ betont die Notwendigkeit von KI-Modellvielfalt, Open Source und der Aufklärung von Nutzer:innen über Risiken wie Halluzinationen und Bias, um die Dominanz weniger Anbieter zu verhindern und die demokratische Zugänglichkeit von KI zu sichern.