02.10.2024
INVESTMENT

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

Fünf Gründer wollen Integration erleichtern: Mit einer KI-App zur Übersetzung und Erklärung will das Wiener Startup Totoy Dokumente und Briefe verständlich übersetzen und Kommunikationsbarrieren abbauen. Und erhielt dafür nun eine halbe Million Euro.
/artikel/totoy-wiener-ki-app-holt-sich-eine-halbe-million-euro-pre-seed-finanzierung
Die Totoy-Co-Founder Francis Rafal, Simon Hoffmann, Marcel Koller, Michael Perger, Benedikt Hielscher (c) Totoy GmbH

Vor fast genau einem Jahr debütierte Totoy – damals rechtzeitig zum Schulstart. Die von CEO Francis Rafal in Wien mitgegründete KI-App soll nämlich gerade bei anfänglichen Hürden im Schul- und Behördenalltag helfen. Denn Totoy übersetzt Eltern-, Arzt- und Behördenbriefe in die jeweilige Muttersprache der Adressierten – und erklärt deren Inhalt mittels KI.

Dass das Wiener Startup damit nicht nur zu Schulbeginn den Zahn der Zeit trifft, wissen mittlerweile auch heimische Investoren. Mit dem heutigen Mittwoch vermeldet Totoy nämlich ein frisches 500.000 Euro Pre-Seed-Investment. An der Runde beteiligt sind Angels United sowie die Business Angels Martin Schliefnig und Michael Grabner, von dem Totoy bereits in der Startup-Show “2 Minuten 2 Millionen” ein Angebot erhielt.

Fokus auf Unternehmen und Behörden

Das frische Kapital dient der Skalierung von Totoy sowie der Weiterentwicklung der Dokumenten-KI. Mit dieser lassen sich nämlich komplexe Dokumente wie Briefe, Texte und Mitteilungen von Schulen, Ärzten oder Behörden in fast 100 Sprachen übersetzen. Nutzer:innen können zum übersetzten Text auch Rückfragen stellen. Die generative KI liefert schließlich Erklärungen zum Übersetzten in 19 Sprachen.

Mit einer neuen Programmierschnittstelle will man nun gezielt Unternehmen und Behörden adressieren. Laut Totoy kann die generative KI “komplexe Dokumente in einfacher Sprache” erklären und damit barrierefreie Kommunikation zwischen den betroffenen Parteien ermöglichen.

Mehrsprachige Übersetzung für Barrierefreiheit

“Unsere Totoy-App hilft Menschen bereits seit über einem Jahr beim Verstehen von unverständlichen Behördenbriefen oder komplizierten Verträgen”, erklärt CEO Francis Rafal. “Mit der Unterstützung unserer Investoren können wir unser Angebot für Behörden und Unternehmen ausbauen. Wir wollen ihnen helfen, Barrierefreiheits- und Transparenzrichtlinien in der Kommunikation mit Bürger:innen oder Kund:innen zu erfüllen.”

Neben Übersetzung und Inhaltserklärung erstellt die Totoy-KI auch Wissensdatenbanken auf Basis der hochgeladenen Dokumente. Anhand der kumulierten Daten kann die KI auch mehrsprachige Fragen in einfacher Sprache beantworten.

“Effizienz in Ämtern, Gemeinden und Verwaltung steigern”

“Totoy bietet mit seinen Lösungen die Möglichkeit, durch angewandte KI die Effizienz für Ämter, Gemeinden und alle anderen Bereiche der Verwaltung zu steigern – jeder durch Totoy eingesparte Euro ist dabei gleichzeitig auch ein Euro weniger Steuerbelastung für die Bürger:innen”, heißt es vonseiten des Angels Investors Schliefnig.

Simon Hoffmann, COO von Totoy, meint dazu weiter: “Unsere Dokumenten-KI bietet eine skalierbare Möglichkeit, das vorhandene Wissen in Behörden und Unternehmen transparent und mehrsprachig für Bürger:innen und Kund:innen verfügbar zu machen.”

Deine ungelesenen Artikel:
12.12.2024

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

Das Linzer Startup NXAI von KI-Koryphäe Sepp Hochreiter veröffentlicht sein xLSTM 7B Modell - mit großen Versprechungen.
/artikel/nxai-xlstm-7b
12.12.2024

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

Das Linzer Startup NXAI von KI-Koryphäe Sepp Hochreiter veröffentlicht sein xLSTM 7B Modell - mit großen Versprechungen.
/artikel/nxai-xlstm-7b
Sepp Hochreiter | (c) NXAI
Sepp Hochreiter | (c) NXAI

Das Team des Linzer Startups NXAI rund um KI-Pionier und JKU-Linz-Professor Sepp Hochreiter, der als Chief Scientist fungiert, und CEO Albert Ortig hat es bereits gezeigt: Auf seine Ansagen folgen auch entsprechende Ergebnisse. Im Mai dieses Jahrs veröffentlichte das Unternehmen wenige Monate nach seiner Gründung sein erstes Large Language Model (LLM). Nun folgte, wie bereits im August angekündigt, die nächste Version: das “xLSTM 7B Modell”.

xLSTM 7B deutlich kleiner als die LLMs der großen Player

Wer nun einen österreichischen ChatGPT-Konkurrenten erwartet, wird allerdings enttäuscht. Das NXAI-Modell richtet sich nämlich nicht an die breite Öffentlichkeit und weist deutliche Unterschiede zu den Modellen der großen Player auf. Mit sieben Milliarden Parametern (7B), auf deren Basis es trainiert wurde, ist es maßgeblich kleiner als die bekannten Modelle – GPT-3 von OpenAI wurde etwa mit 175 Milliarden Parametern trainiert, bei GPT-4 wurde die genaue Zahl nicht kommuniziert.

NXAI setzt auf andere Architektur

Im Unterschied zu den großen Playern soll jedoch auch die Stärke von xLSTM 7B liegen. Aufbauend auf der von Sepp Hochreiter bereits in den 1990er-Jahren mitentwickelten Long Short-Term-Memory-Technologie (LSTM) setzt das Modell auf eine andere Architektur, als die bei den bekannten Modellen genutzte “Transformer”-Technologie.

“Im Gegensatz zur Transformer-Technologie steigen die xLSTM-Berechnungen nur linear mit der Textlänge und brauchen im laufenden Betrieb weniger Rechenleistung. Das ist ein großer Vorteil, da komplexe Aufgaben viel mehr Text sowohl zur Aufgabenbeschreibung als auch zur Lösung brauchen”, heißt es dazu von NXAI. xLSTM 7B sei dadurch deutlich effizienter, schneller und brauche weniger Rechenressourcen als andere Large Language Models. Anhand diverser Benchmarks, etwa Massive Multitask Language Understanding (MMLU), vergleicht das Startup sein Modell mit anderen Modellen in ähnlicher Größe (siehe Grafik) und sieht seinen Claim bestätigt.

Hochreiter: “Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”

“Unsere Skalierungsvorhersagen aus unserer Arbeit sind eingetreten. Mit dem xLSTM 7B Modell präsentieren wir das beste Large Language Model (LLM), das auf rekurrenten neuronalen Netzen (RNNs) basiert. Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”, kommentiert Hochreiter.

Zielgruppe für NXAI vor allem Industrie und Robotik

NXAI richtet das Modell klar auf den B2B-Bereich und hier primär auf den Industrie-Sektor aus. “Ich sehe großes Potenzial für xLSTM in der Robotik, weil es in der Inferenz deutlich schneller und speichereffizienter ist”, meint Hochreiter. Seit der Erstveröffentlichung der Architektur im Frühjahr hätten bereits viele Entwickler:innen Lösungen auf deren Basis vorgestellt. “Besonders KI-Anwendungen im Edge- und Embedded-Bereich profitieren enorm von der hohen Effizienz und Geschwindigkeit unseres Modells. Jeder Forscher weltweit kann das xLSTM 7B Modell für seine Arbeit nutzen. Es ist ein Modell aus Europa für die Welt“, so Hochreiter.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Totoy: Wiener KI-App holt sich eine halbe Million Euro Pre-Seed-Finanzierung