19.12.2023

Austrian AI Landscape 2023: Das sind die KI-Unternehmen aus Österreich

Die Austrian AI Landscape ist wieder da. Diesmal mit über 60 neuen Einträgen und der neuen Generation an AI-Startups.
/artikel/austrian-ai-landscape-2023
AI Landscape, AI Landkarte Österreich, KI Landkarte Austria, KI Österreich
(c) Stock.Adobe/Shutter2u - Die österreichische AI Landkarte 2023 ist da.

Die österreichische AI-Szene ist größer, als von so manchen angenommen. Seit ChatGPT von OpenAI in unsere Welt trat, hat Künstliche Intelligenz viele Bereiche der Gesellschaft durchdrungen. Die Austrian AI Landscape wurde von Clemens Wasner (EnliteAI) in Kooperation mit AI Austria, Michael Katzlberger von 3LIOT und Andreas M. Keck von “beamr. brand consulting studio” erstellt. Sie zeigt AI-Startups und -Unternehmen, Early Adopters, “Enablers & Extended Ecosystem” sowie Generative-AI-Firmen, die heuer entstanden sind.

Austrian AI Landscape 2023

(c) EnliteAI, AI Austria, Michael Katzlberger (3LIOT), Andreas M. Keck (beamr) – Die gesamte Austrian AI Landscape.

Es ist die siebte Ausgabe der österreichischen KI-Landschaft: “Für die diesjährige Ausgabe haben wir einige große Änderungen vorgenommen. Erstens haben wir uns für eine bessere Sichtbarkeit entschieden, die KI-Landschaft auf eine eigene Seite zu stellen, auf der es einfacher ist, die neueste Ausgabe zu finden, aber auch auf historische Versionen zuzugreifen” schreibt Wasner auf LinkedIn.

Next Generation und Scaleups

Die Karte beinhaltet außerdem die nächste Generation der “female AI founders” wie etwa Anna Maria Brunnhofer-Pedemonte (Impact AI), Gabriele Bolek-Fügl, Carina Zehetmaier (paiper.one) oder Marlene Würfl (cobee.energy). Sowie auch über 60 neue Einträge von Startups, Early Adopters und neuen Communities.

Zudem weist die Landscape heuer gegründete Unternehmen aus und stellt österreichische Scaleups dar, die AI in ihrem Geschäftsmodell adaptiert haben: GoStudent und Bitpanda etwa. Die meisten Startups und Unternehmen stammen jedoch aus der Health- bzw. MedTech-Branche, gefolgt von Firmen aus dem Corporate-Bereich und Image & Video Processing. Hier gibt es den Vergleich zu 2022.


Linktipp: Zur Website der Austrian AI Landscape

Linktipp: Grafik in voller Auflösung

Deine ungelesenen Artikel:
21.02.2025

Lora: Neues KI-Modell von Wiener Startup basiert auf MistralAI

Das Wiener KI-Startup HeyQQ rund um Matthias Neumayer hat mit "Lora" eine kindgerechte, Bias-reduzierte KI entwickelt, die sich als "Fine Tuning" des französischen Open-Source-Modells MistralAI erweist. In puncto Lesbarkeit steht Lora mittlerweile vor GPT-4o. Gründer Neumayer erklärt die Hintergründe.
/artikel/lora-mistral-genderbias
21.02.2025

Lora: Neues KI-Modell von Wiener Startup basiert auf MistralAI

Das Wiener KI-Startup HeyQQ rund um Matthias Neumayer hat mit "Lora" eine kindgerechte, Bias-reduzierte KI entwickelt, die sich als "Fine Tuning" des französischen Open-Source-Modells MistralAI erweist. In puncto Lesbarkeit steht Lora mittlerweile vor GPT-4o. Gründer Neumayer erklärt die Hintergründe.
/artikel/lora-mistral-genderbias
Lora - FragDie.EU - Die Founder Dima Rubanov und Matthias Neumayer | (c) Oscar Stories
Die Founder Dima Rubanov und Matthias Neumayer | (c) Oscar Stories

Das Wiener Startup HeyQQ rund um Dima Rubanov und Matthias Neumayer hat bereits für einige Schlagzeilen gesorgt. Zuletzt rund um die neue “kindgerechte KI” namens Lora, die deutlich weniger Bias als die Standard-Modelle aufweisen soll und sich damit für Lern-Apps und Kinder-Entertainment eignet – brutkasten berichtete.

Neben Lora hat das Wiener Startup HeyQQ bereits zwei andere alternative KI-Modelle hochgezogen: Die KI-Gute-Nacht-Geschichten-App “Oscar Stories” sowie der Erklär-Chatbot “Frag das PDF”. Mit Lora erreichte man nun einen neuen Meilenstein.

Lora-Lesbarkeit sei besser als GPT-4o

“Lora” steht für “Lernen ohne Risiko mit AI”. Im Juli sprach man noch davon, das Modell auf Basis von Open-Source-Modellen am Markt zu trainieren. Schon damals wollte man “bessere Ergebnisse als GPT4 oder Gemini erzielen”. Dieses Ziel hat man mittlerweile erreicht.

In Benchmark-Tests konnte Lora bisher positive Ergebnisse liefern. Im Hinblick auf den “Flesch Reading Ease” – also den Lesbarkeitsindex, der als numerischer Wert für die Lesbarkeit eines Textes angegeben wird – erreichte es einen Score von 80,24. Das Modell des französischen KI-Startups Mistral-8B erreichte hingegen einen Index von 71,10, GPT-4o erreichte den Score 77,17.

Foto: Matthias Neumayer, LinkedIn

“Fine Tuning” von MistralAI

“Wir haben bei Oscar Stories gemerkt, dass man mit derzeitigen KI-Modellen nicht wirklich altersgerechte Sprache schafft und dass Bias ein Problem ist”, sagt Founder Matthias Neumayer gegenüber brutkasten.

“Deshalb haben wir Lora gestartet. Aktuell arbeiten wir an Fine Tunings mit hochqualitativen Daten, die wir gemeinsam mit Pädagog:innen sichten, um Bias zu reduzieren und die Readability für Kinder zu steigern”, so Neumayer weiter.

Wie Co-Gründer Neumayer auf brutkasten-Nachfrage bestätigt, basiert “Lora” auf dem Open-Source-Modell des französischen KI-Startups MistralAI. Das “experimentelle Modell” sei ein “Fine Tuning von Mistral” und mittlerweile “schon besser in den Metrics als die Großen in der deutschen Sprache”, heißt es von Neumayer heute.

Bias-Messung soll KI gendergerecht trainieren

Dass ein Gender Bias bei Open-Source-Modellen ein Problem ist, hob Neumayer bereits im Juli des Vorjahres hervor: “Bei der Arbeit mit KI-generierten Kindergeschichten stellten wir fest, dass männliche Kinder oft als Helden dargestellt wurden, während weibliche Charaktere oft die Opferrolle einnehmen. Mit Lora arbeiten wir an einer kindgerechten KI-Adoption mit vermindertem Bias”.

Das Startup HeyQQ hat deshalb eine Bias-Messtechnik entwickelt: “Gender Bias messen wir mit dem Genbit Score von Microsoft oder mit Counterfactual Bias, indem überprüft wird, wie sich die Antworten ändern, wenn bestimmte Attribute wie Geschlecht, Ethnie oder Alter in einem Prompt ausgetauscht werden”, führt der Gründer gegenüber brutkasten aus.

Generative KI soll “fairer werden”

“Statt nur nachzusehen, ob ein Modell verzerrte Antworten gibt, testen wir, wie sehr sich die Antwort verändert, wenn wir z. B. ‘ein Mädchen’ durch ‘ein Junge’ ersetzen. Wenn die KI plötzlich unterschiedliche Ergebnisse liefert oder eine klare Tendenz zeigt (z. B. ‘Der Arzt’ wird immer als männlich dargestellt), dann deutet das auf Bias hin”, erklärt Neumayer den Mechanismus.

Ein fairer KI-Algorithmus sollte ähnliche Antworten für verschiedene Gruppen geben: “Es sei denn, die Unterschiede sind objektiv gerechtfertigt.” Durch Counterfactual-Bias-Tests könne das Startup Verzerrungen gezielt identifizieren und “das Modell fairer machen”.


21.02.2025

Lora: Neues KI-Modell von Wiener Startup basiert auf MistralAI

Das Wiener KI-Startup HeyQQ rund um Matthias Neumayer hat mit "Lora" eine kindgerechte, Bias-reduzierte KI entwickelt, die sich als "Fine Tuning" des französischen Open-Source-Modells MistralAI erweist. In puncto Lesbarkeit steht Lora mittlerweile vor GPT-4o. Gründer Neumayer erklärt die Hintergründe.
21.02.2025

Lora: Neues KI-Modell von Wiener Startup basiert auf MistralAI

Das Wiener KI-Startup HeyQQ rund um Matthias Neumayer hat mit "Lora" eine kindgerechte, Bias-reduzierte KI entwickelt, die sich als "Fine Tuning" des französischen Open-Source-Modells MistralAI erweist. In puncto Lesbarkeit steht Lora mittlerweile vor GPT-4o. Gründer Neumayer erklärt die Hintergründe.
Lora - FragDie.EU - Die Founder Dima Rubanov und Matthias Neumayer | (c) Oscar Stories
Die Founder Dima Rubanov und Matthias Neumayer | (c) Oscar Stories

Das Wiener Startup HeyQQ rund um Dima Rubanov und Matthias Neumayer hat bereits für einige Schlagzeilen gesorgt. Zuletzt rund um die neue “kindgerechte KI” namens Lora, die deutlich weniger Bias als die Standard-Modelle aufweisen soll und sich damit für Lern-Apps und Kinder-Entertainment eignet – brutkasten berichtete.

Neben Lora hat das Wiener Startup HeyQQ bereits zwei andere alternative KI-Modelle hochgezogen: Die KI-Gute-Nacht-Geschichten-App “Oscar Stories” sowie der Erklär-Chatbot “Frag das PDF”. Mit Lora erreichte man nun einen neuen Meilenstein.

Lora-Lesbarkeit sei besser als GPT-4o

“Lora” steht für “Lernen ohne Risiko mit AI”. Im Juli sprach man noch davon, das Modell auf Basis von Open-Source-Modellen am Markt zu trainieren. Schon damals wollte man “bessere Ergebnisse als GPT4 oder Gemini erzielen”. Dieses Ziel hat man mittlerweile erreicht.

In Benchmark-Tests konnte Lora bisher positive Ergebnisse liefern. Im Hinblick auf den “Flesch Reading Ease” – also den Lesbarkeitsindex, der als numerischer Wert für die Lesbarkeit eines Textes angegeben wird – erreichte es einen Score von 80,24. Das Modell des französischen KI-Startups Mistral-8B erreichte hingegen einen Index von 71,10, GPT-4o erreichte den Score 77,17.

Foto: Matthias Neumayer, LinkedIn

“Fine Tuning” von MistralAI

“Wir haben bei Oscar Stories gemerkt, dass man mit derzeitigen KI-Modellen nicht wirklich altersgerechte Sprache schafft und dass Bias ein Problem ist”, sagt Founder Matthias Neumayer gegenüber brutkasten.

“Deshalb haben wir Lora gestartet. Aktuell arbeiten wir an Fine Tunings mit hochqualitativen Daten, die wir gemeinsam mit Pädagog:innen sichten, um Bias zu reduzieren und die Readability für Kinder zu steigern”, so Neumayer weiter.

Wie Co-Gründer Neumayer auf brutkasten-Nachfrage bestätigt, basiert “Lora” auf dem Open-Source-Modell des französischen KI-Startups MistralAI. Das “experimentelle Modell” sei ein “Fine Tuning von Mistral” und mittlerweile “schon besser in den Metrics als die Großen in der deutschen Sprache”, heißt es von Neumayer heute.

Bias-Messung soll KI gendergerecht trainieren

Dass ein Gender Bias bei Open-Source-Modellen ein Problem ist, hob Neumayer bereits im Juli des Vorjahres hervor: “Bei der Arbeit mit KI-generierten Kindergeschichten stellten wir fest, dass männliche Kinder oft als Helden dargestellt wurden, während weibliche Charaktere oft die Opferrolle einnehmen. Mit Lora arbeiten wir an einer kindgerechten KI-Adoption mit vermindertem Bias”.

Das Startup HeyQQ hat deshalb eine Bias-Messtechnik entwickelt: “Gender Bias messen wir mit dem Genbit Score von Microsoft oder mit Counterfactual Bias, indem überprüft wird, wie sich die Antworten ändern, wenn bestimmte Attribute wie Geschlecht, Ethnie oder Alter in einem Prompt ausgetauscht werden”, führt der Gründer gegenüber brutkasten aus.

Generative KI soll “fairer werden”

“Statt nur nachzusehen, ob ein Modell verzerrte Antworten gibt, testen wir, wie sehr sich die Antwort verändert, wenn wir z. B. ‘ein Mädchen’ durch ‘ein Junge’ ersetzen. Wenn die KI plötzlich unterschiedliche Ergebnisse liefert oder eine klare Tendenz zeigt (z. B. ‘Der Arzt’ wird immer als männlich dargestellt), dann deutet das auf Bias hin”, erklärt Neumayer den Mechanismus.

Ein fairer KI-Algorithmus sollte ähnliche Antworten für verschiedene Gruppen geben: “Es sei denn, die Unterschiede sind objektiv gerechtfertigt.” Durch Counterfactual-Bias-Tests könne das Startup Verzerrungen gezielt identifizieren und “das Modell fairer machen”.


Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag