smaXtec: Grazer Unternehmen digitalisiert Milchviehhaltung und reduziert 15 Prozent der Methanemissionen
Das Grazer Unternehmen smaXtec digitalisiert die Milchviehhaltung, indem es Sensoren in Kuhmägen einführt und Informationen zu ihrer Gesundheit in der Cloud speichert. Die KI-basierte Gesundheitslösung für Milchkühe steigert das Tierwohl und führt somit zur Reduktion von Methanemissionen, die Kühe beim Pupsen und Rülpsen freisetzen.
Die Digitalisierungslösung des Grazer Unternehmens smaXtec ermöglicht die Einsparung von bis zu 800 Kilogramm CO2-Äquivalent pro Jahr und Kuh. (c) smaXtec
Die Gesundheit von Milchkühen wirkt sich nicht nur auf die Qualität und Quantität ihrer Milchproduktion, sondern auch auf ihren Methanausstoß aus. Das Grazer Unternehmen smaXtec digitalisiert mit seinem Gesundheitssystem für Milchkühe die Milchviehhaltung, indem es durch individuelles Gesundheitsmonitoring von Milchkühen eine Reduktion der Methanemissionen von bis zu 15 Prozent pro Kilogramm produzierter Milch erzielt. Das entspricht einer jährlichen Einsparung von bis zu 800 Kilogramm CO2-Äquivalent pro Kuh. Zu diesen Ergebnissen kam das Unternehmen gemeinsam mit dem Institut für Nutztierforschung des Lehr- und Forschungszentrums (LFZ) Raumberg-Gumpenstein.
Ziel des Grazer Unternehmens ist es, Krankheiten bei Milchkühen vorzubeugen und zu verringern, indem der Gesundheitsstatus jeder einzelnen Kuh durch die 24/7-Überwachungsfunktion individuell erhoben wird. Landwirt:innen können auf die gesammelten Daten über ihr Smartphone zugreifen und somit leichter präventiv handeln. “Die frühzeitige Erkennung von Krankheiten und ein proaktives Gesundheitsmanagement können die Verluste verringern und so die Methanemissionen in der Milchwirtschaft reduzieren“, sagt Thomas Guggenberger, Leiter des Instituts für Nutztierforschung LFZ Raumberg-Gumpenstein.
smaXtec entwickelt Gesundheitssystem mit KI für Milchkühe
Der Überblick über die Herdengesundheit der Milchkühe wird verschaffen, indem smaXtec einen Bolus-Sensor in die Mägen der Kühe einführt. Die Daten werden mittels Auslesegeräte gewonnen und auf einem Cloudsystem gespeichert. Durch den Einsatz von künstlicher Intelligenz und Agrarexpert:innen können Landwirt:innen über die Software sogar individuelle Handlungsempfehlungen für jedes einzelne Vieh erhalten.
SmaXtec bietet zudem weitere Funktionen wie Brunst- und Abkalberkennung, Verlaufskontrollen bei Genesungen, Messung der inneren Körpertemperatur, des Trinkverhaltens und von Wiederkäuen an. Das Grazer Unternehmen bezeichnet sich selbst als Technologieführer im Gesundheitsmonitoring von Milchkühen. Mit der Einführung der Bolus-Technologie könne man nicht nur den Antibiotikaeinsatz bei den Milchviehherden reduzieren, sondern auch geläufige Krankheiten wie Mastitis rund vier Tage vor Bekanntwerden von Symptomen erkennen und durch vorbeugendes Handeln Milchausfälle vermeiden.
Methan schädlicher als CO2
In Zusammenarbeit mit dem Institut für Nutztierforschung des LFZ hat smaXtec erkannt, dass das Gesundheitssystem sich nicht nur auf das Tierwohl, sondern auch auf die Umwelt positiv auswirkt. „Unsere Berechnungen haben gezeigt, dass Tiere mit einer längeren Nutzungsdauer bei rassetypischer Leistung weniger Methan pro Kilogramm Milch emittieren“, sagt Thomas Guggenberger. Das ist darauf zurückzuführen, dass gesunde Kühe bezogen auf ihre Nutzungsdauer weniger Methan freisetzen, das laut dem deutschen Umweltbundesamt 25-mal klimaschädlicher ist als CO2.
Ramin Hasani von Liquid AI: „Eigentlich war der Nobelpreis mein Ziel“
Von der TU Wien ging KI-Forscher Ramin Hasani in die USA. Dort gründete er ein Startup, das heute mit zwei Milliarden Dollar bewertet ist. Was kann Europa daraus lernen?
Ramin Hasani von Liquid AI: „Eigentlich war der Nobelpreis mein Ziel“
Von der TU Wien ging KI-Forscher Ramin Hasani in die USA. Dort gründete er ein Startup, das heute mit zwei Milliarden Dollar bewertet ist. Was kann Europa daraus lernen?
Mehrere Jahre forschte Ramin Hasani an der Technischen Universität (TU) Wien im Bereich künstliche Intelligenz. Schon während seines Doktoratsstudiums wurde das renommierte Massachusetts Institute of Technology (MIT) auf ihn aufmerksam. Nach seinem Abschluss ging er ganz in die USA – und hat dort mit Liquid AI ein KI-Unternehmen mitgegründet, das nur zwei Jahre nach seiner Gründung mit 2,2 Mrd. US-Dollar bewertet wird. Mit Mathias Lechner gehört ein zweiter Österreicher zum Gründungsteam des MIT-Spinoffs, das eine Alternative zu den derzeit dominierenden KI-Ansätzen von OpenAI oder Google liefern will. Im Interview mit brutkasten spricht Hasani über seinen Werdegang, die Zukunft von KI und erläutert, was Europa bräuchte, damit auch hier ähnliche Erfolgsgeschichten geschrieben werden könnten.
Dieser Text ist zuerst als Cover-Story im brutkasten-Printmagazin von Juni 2025 “Neue Welten” erschienen. Eine Download-Möglichkeit des gesamten Magazins findet sich am Ende dieses Artikels.
Kein Produkt. Kein Geschäftsmodell. Kein Pitchdeck. Nicht einmal ein Unternehmen war gegründet. Und trotzdem ging Ramin Hasanis Inbox Anfang 2023 mit Angeboten von Investor:innen über. Es waren nicht bloß Gesprächsangebote; teilweise schickten die potenziellen Geldgeber komplette Term Sheets, fertig zur Unterschrift. Mit substanziellen Investmentangeboten. Aber warum wollten Venture-Capital-Gesellschaften aus dem Silicon Valley dem Mittdreißiger, der keinen Track Record als Unternehmer hatte, Millionenbeträge nachwerfen?
Beginnen wir von vorne: Nach seinem Bachelor in Elektrotechnik an der Firdausi-Universität in Maschhad im Iran ging Hasani nach Italien. In Mailand begann er ein Masterstudium, ebenfalls in Elektrotechnik. Das war 2012. Zu dieser Zeit wurde in den USA der Grundstein für den heutigen KI-Hype gelegt – der auf künstlichen neuronalen Netzen basierende und als „Deep Learning“ bezeichnete Ansatz wurde populär. Hasani beschäftigte sich damals aber noch mit einem völlig anderen Thema: mit analogen und digitalen Schaltungen.
„Ich schrieb gerade meine Masterarbeit, da kam dieser Physik-Professor auf mich zu und sagte: ‚Ich möchte neuronale Netze, die wie Gehirne funktionieren, auf einen Chip bringen‘“, erinnert sich Hasani im Gespräch mit brutkasten. Anders formuliert: Mathematik, die beschrieb, wie Neuronen im Gehirn Signale verarbeiten, sollte als Basis für Schaltkreise dienen. „Das fand ich unglaublich faszinierend“, erinnert sich Hasani. Er begann also, Chips zu bauen, die die Funktionsweise des Gehirns nachahmten, und merkte: Der Ansatz hatte Potenzial über die Masterarbeit hinaus. Nach seinem Abschluss suchte er also nach Doktoratsprogrammen, in denen er diese Forschung vertiefen konnte. Fündig wurde er in Wien.
Von Mailand nach Wien
2015 kam Hasani nach Österreich und begann an der Technischen Universität Wien (TU) ein Doktoratsstudium der Informatik. Dort traf er Professor Radu Grosu. „Er sagte mir, dass er KI-Systeme bauen will, diesmal Software und keine Chips – und zwar inspiriert vom Gehirn eines Wurms“, erinnert sich Hasani. Die Rede war vom Fadenwurm Caenorhabditis elegans: Sein transparentes Gewebe und relativ überschaubares Nervensystem hatte Wissenschaftler:innen bereits ermöglicht, detaillierte Einblicke in die Funktionsweise dieses Organismus zu erhalten.
Doch interessant daran ist vor allem ein weiterer Aspekt: Der Wurm weist 78 Prozent genetische Ähnlichkeit mit dem Menschen auf. Hasanis Interesse war geweckt: „Wenn wir etwas über das Nervensystem dieses Wurms herausfinden, können wir vieles davon direkt auf den Menschen übertragen“, sagt er. Sein Doktorat widmete Hasani daher der Idee, künstliche neuronale Netze nach dem Vorbild des C.-elegans-Gehirns zu entwickeln. Schritt für Schritt wollte er dieses in Software nachbauen und so neue, evolutionär erweiterbare KI-Modelle entwerfen.
Bereits im ersten Jahr an der TU Wien entwickelte Hasani gemeinsam mit Professor Grosu die ersten Versionen dieser KI. Dies sorgte innerhalb der Uni für Aufmerksamkeit. Zahlreiche Studierende wollten ebenfalls mitarbeiten. Einer davon: Mathias Lechner, der im Sommer 2016 an Hasanis Bürotür an der TU Wien klopfte. Er beeindruckte Hasani rasch: „Mathias ist der fähigste Computerprogrammierer, den ich in meinem ganzen Leben getroffen habe. Ich weiß, wie man Code schreibt, aber er kann wirklich exzellenten Code schreiben.“ Hasani betreute Lechners Masterarbeit. Gemeinsam entwickelten sie den wurminspirierten Ansatz weiter, den sie „Liquid Neural Networks“ nannten. Daraus entwickelte sich eine enge Partnerschaft, die Jahre später zur Gründung von Liquid AI führen sollte.
Von Wien ans MIT
Die gemeinsame Arbeit des Duos sorgte aber schon deutlich früher für Aufmerksamkeit. 2017 erhielten Hasani und Lechner eine Einladung ans renommierte Massachusetts Institute of Technology (MIT) – und zwar von Daniela Rus, der Direktorin des dortigen Computer Science and Artificial Intelligence Laboratory (CSAIL). Dort nutzten sie ihre Liquid Neural Networks für Drohnen, Roboterarme und medizinische Vorhersagen. Hasani studierte fortan parallel an der TU Wien und am MIT. Sein Doktorat schloss er 2020 mit summa cum laude ab und übersiedelte dauerhaft in die USA. In den drei Jahren zuvor hatte er abwechselnd in Wien und in Boston gelebt.
Ab Dezember 2021 folgte für Hasani ein Abstecher in die Finanzbranche zum Vermögensverwalter Vanguard. Als Principal AI Scientist bei der US-Investmentgesellschaft lernte Hasani eine völlig neue Seite der KI-Praxis kennen. „Mein Team und ich mussten plötzlich nicht nur forschen, sondern unsere Lösungen auch in einem hochsensiblen Finanzumfeld anwenden“, erinnert er sich. Innerhalb weniger Monate wuchs sein Verantwortungsbereich: Aus einem Team von anfänglich drei Personen formte er eine rund 20-köpfige Gruppe, die sich auf Zeitreihenanalysen und Portfolio-Optimierungen spezialisiert hatte.
Von Vanguard zur Gründung von Liquid AI
Parallel dazu forschte Hasani weiter am MIT – und entwickelte den vom Fadenwurm inspirierten Ansatz weiter. Im November 2022 gelang ein Durchbruch: Hasani, Lechner und weitere Kolleg:innen veröffentlichten in der wissenschaftlichen Fachzeitschrift „Nature Machine Intelligence“ ein Paper, in dem eine seit 1907 offene Differentialgleichung erstmals in geschlossener Form gelöst wird. Die Gleichung beschreibt, wie zwei reale Neuronen Informationen austauschen. Bis dahin mussten Forscher:innen jeden Zeitschritt numerisch simulieren – rechenaufwendig und kaum skalierbar. „Als wir sie geschlossen gelöst haben, konnten wir von 19 auf Hunderttausende Neuronen springen“, erklärt Hasani.
Die Skalierbarkeit machte Liquid Neural Networks erstmals für anspruchsvolle Aufgaben wie autonome Fahrzeuge, Edge-Geräte oder zeitkritische Finanzanalysen nutzbar. Kurz: Die mathematische Eleganz der Lösung eröffnete den praktischen Weg von der Laboridee zur industrietauglichen KI-Plattform.
Das Paper stieß dementsprechend auf starke Resonanz – nicht nur in der Fachwelt, auch bei potenziellen Investoren. Das war 2023; und nun sind wir bei der eingangs erwähnten Situation angelangt, in der Hasanis Postfach überquoll. Angesichts der zahlreichen Angebote standen er und sein Partner Lechner nun vor einer Entscheidung, von der sie so nie gedacht hatten, sie treffen zu müssen. Beide hatten sich langfristig immer in der Wissenschaft gesehen. „Mein Ziel war es eigentlich, einen Nobelpreis zu erhalten“, sagt Hasani. Doch durch das enorme Interesse von Investor:innen ergab sich nun eine neue Möglichkeit: Wollten sie den Schritt ins Unternehmertum gehen?
Rasch war klar: Die Antwort darauf lautete Ja. Hasani verließ Vanguard nach einem Jahr und acht Monaten – obwohl der Vermögensverwalter ihn mit einem „verrückten Angebot“ noch umstimmen wollte. „Ich habe gemerkt, dass wir mit unseren Liquid Neural Networks noch viel mehr erreichen können, wenn wir sie als eigenständige Lösung entwickeln“, erläutert Hasani seine Motivation. Gemeinsam mit Lechner, MIT-Professorin Daniela Rus und einem weiteren MIT-Forscher, Alexander Amini, gründete Hasani am 30. März 2023 Liquid AI am MIT-Standort in Massachusetts. Hasani fungiert als CEO, Lechner ist Chief Technology Officer (CTO).
Mit seinem Ansatz will das Unternehmen eine Alternative zu anderen Grundlagenmodellen entwickeln, wie sie etwa von OpenAI, Google oder Meta veröffentlicht werden. Diese basieren auf der sogenannten Transformer-Architektur. Der Ansatz von Liquid AI soll kompaktere Modelle ermöglichen, die weniger energieintensiv sind. So sollen sie direkt auf Maschinen, in Autos oder auf Smartphones laufen können. Anders formuliert: Sie sollen ähnlich breite KI-Fähigkeiten bieten, sich gleichzeitig aber leichter lokal anpassen und betreiben lassen.
Bewertung von 50 Millionen Dollar schon zum Start
Die erste Finanzierungsrunde folgte unmittelbar nach der Gründung, im April 2023: Fünf Millionen Dollar bei einer Bewertung von 50 Millionen Dollar – und das ganz ohne klassisches Pitch-Deck. Doch angesichts der ambitionierten Ziele und des kapitalintensiven Geschäfts mit Large Language Models (LLMs) und KI-Forschung war klar, dass mehr Geld nötig sein würde. Innerhalb weniger Monate folgte deshalb schon die nächste Finanzierungsrunde, bei der weitere 46 Millionen Dollar flossen. Das Team nutzte dieses Kapital, um die Software weiterzuentwickeln, Personal einzustellen und erste strategische Partnerschaften einzugehen.
Parallel dazu nahm Liquid AI bereits Kontakt zu potenziellen Großkunden und Industriepartnern auf. Durch diese Gespräche kristallisierte sich immer mehr heraus, wie vielseitig die Liquid Neural Networks einsetzbar sind – von generativer KI im Edge-Bereich bis zu hoch spezialisierten Analysen in der Medizin oder bei Finanzdienstleistern. Rasch arbeitete Liquid AI mit großen Namen wie AMD, Samsung oder Shopify zusammen.
Mit den Erkenntnissen aus den Pilotprojekten, den wachsenden Beziehungen zu globalen Unternehmen sowie dem Feedback aus den ersten Implementierungen startete Liquid AI die nächste große Finanzierungsrunde. Im Dezember 2024 nahm das Unternehmen dann 250 Millionen Dollar auf. Bewertet wurde das noch nicht einmal zwei Jahre alte Startup dabei mit 2,2 Milliarden Dollar.
Investor:innen setzten also große Hoffnungen in Liquid AI. Wie aber funktioniert das Geschäftsmodell des Unternehmens? Im Wesentlichen basiert es auf drei Softwaremodulen, wie Hasani erklärt. Diese ermöglichen Unternehmen eine individuelle Nutzung der Liquid Neural Networks. Zunächst gibt es eine Pre-Training-Komponente, mit der sich komplett neue KI-Systeme von Grund auf entwickeln lassen. Anschließend erlaubt das Fine-Tuning-Modul, bereits vorhandene und vortrainierte Modelle zu personalisieren und an spezifische Use Cases anzupassen. Abschließend liefert die Serving-Komponente alles Notwendige für den reibungslosen Betrieb der KI – egal, ob sie in großen Rechenzentren, auf firmeneigenen Servern oder direkt in Geräten wie Autos, Industrieanlagen oder Smartphones eingesetzt wird.
Auf diese Weise vermarktet Liquid AI seine Technologie hauptsächlich über jährliche Lizenzgebühren und Serviceverträge, die je nach Anwendungsfeld und Datenvolumen kalkuliert werden. Darüber hinaus arbeitet das Unternehmen eng mit Industriepartnern zusammen, um maßgeschneiderte KI-Lösungen zu erstellen, die sich nahtlos in existierende Infrastrukturen integrieren lassen.
Dieser Ansatz ermöglicht es Kunden, generative und hochgradig energieeffiziente KI-Systeme in ihren eigenen Prozessen zu etablieren, ohne auf große Rechenzentren angewiesen zu sein. Gleichzeitig profitiert Liquid AI durch den Verkauf seiner Softwarelizenzen und Beratungsleistungen sowie den Zugang zu strategischen Partnern, die das Wachstum des Unternehmens weiter vorantreiben.
„Wir haben das Talent, aber uns fehlen die anderen Teile des Puzzles“
Was aber bedeutet es für Europa, wenn Menschen wie Hasani und sein Co-Founder Lechner den Kontinent verlassen, um in den USA aus ihrer Forschung milliardenschwere Unternehmen zu bauen? „Wir haben in Europa das Talent, aber uns fehlen die anderen Teile des Puzzles“, sagt Hasani, der 2022 die österreichische Staatsbürgerschaft erhalten hat. Er verweist darauf, dass „mehr als die Hälfte aller grundlegenden Ideen in der KI aus Europa stammen“. Trotzdem sei hier kein Tech-Ecosystem entstanden wie im Silicon Valley. Woran liegt es also? Ein wesentlicher Faktor ist laut Hasani das Fehlen einer starken Technologieplattform in Europa, die wie ein Fundament für neue KI-Anwendungen dienen könnte. „Wir brauchen eine Plattform, auf der man schnell Lösungen aufbauen kann – so wie man heute Anwendungen auf ChatGPT aufsetzt“, erläutert Hasani. „Aktuell sind wir gezwungen, Plattformen und Tools aus den USA oder China zu nutzen.“ Für eine eigenständige europäische KI-Infrastruktur fehle es an großen Unternehmen, die entsprechende Services und Rechenressourcen unkompliziert zur Verfügung stellen.
Neben der technologischen Basis ist für Hasani vor allem das Finanzierungsklima entscheidend. „Im Silicon Valley wird in Träume investiert – dort zählt die Vision, auch wenn noch nicht klar ist, wie der Business Case am Ende aussieht“, betont er. Europa hingegen sei wesentlich risikoscheuer und setze vor allem auf Ideen, deren wirtschaftliche Verwertbarkeit bereits sichtbar ist. „Das verlangsamt den Prozess enorm, insbesondere wenn man KI-Startups aufbauen möchte, die oft jahrelang forschen müssen, bevor sich die kommerziellen Anwendungsmöglichkeiten zeigen“, erläutert Hasani.
Hasani über Europa: „Das Potenzial ist enorm“
Was braucht es also, um diesen Kreislauf zu durchbrechen? Hasani plädiert für mehr Risikokapital und eine mutigere Investitionskultur. „Wir brauchen Kapital in einer Größenordnung, die es erlaubt, auch große Projekte anzugehen“, erklärt er. Dass es in Europa durchaus viele talentierte Entwickler:innen gibt, sieht er als Chance: „Wenn sie die richtigen Bedingungen vorfinden, müssen sie nicht ins Silicon Valley abwandern, sondern können hier neue Unternehmen gründen. Das Potenzial ist enorm.“
Zugleich fordert er mehr politische Unterstützung, um solche Ökosysteme strategisch aufzubauen. Staatliche Förderungen seien zwar vorhanden, aber oft zu bürokratisch und zu gering, um mit den internationalen Tech-Giganten mithalten zu können. „Es geht darum, ein Umfeld zu schaffen, in dem Startups wachsen und sich entfalten können. Das beginnt bei der Infrastruktur, setzt sich in schnellen Genehmigungsverfahren fort und endet bei der internationalen Vernetzung“, fasst Hasani zusammen.
„Modelle, die weit über menschliches Können hinausgehen“
Dass es im KI-Bereich in den kommenden Jahren zu einer rasanten Entwicklung kommt, davon ist Hasani jedenfalls überzeugt. Den Begriff AGI (Artificial General Intelligence), der häufig verwendet wird, um eine KI zu beschreiben, die intellektuelle Aufgaben auf einem ähnlichen oder höheren Niveau als ein Mensch erledigen kann, sieht er zwar eher kritisch – „das ist im Grunde ein kommerzieller Begriff“, sagt er; „stattdessen nenne ich es lieber ein ‚sehr leistungsfähiges KI-System‘.“ Damit meint Hasani eine Technologie, die das kollektive menschliche Wissen in bestimmten Bereichen übertreffen kann. Seinen Prognosen zufolge könnten wir „bereits Ende dieses oder Anfang nächsten Jahres erste Modelle sehen, die in einzelnen Bereichen weit über menschliches Können hinausgehen“.
In der längerfristigen Perspektive, so Hasani, könnten solche „sehr leistungsfähigen KI-Systeme“ bis etwa 2027 in nahezu allen wissenschaftlichen Disziplinen stärker sein als die besten menschlichen Expertinnen und Experten. Er ist überzeugt, dass gut regulierte KI erhebliche Vorteile bringen kann – ob in Medizin, Forschung, Fertigung oder Verkehr.
Gleichzeitig betont Hasani, wie wichtig es sei, KI-Systeme niemals unkontrolliert agieren zu lassen. „Wir müssen sicherstellen, dass KI ein Werkzeug bleibt und nicht aus eigenem Antrieb handelt“, unterstreicht er. Aus seiner Sicht liegt der Schlüssel darin, dass Menschen Ziele und Grenzen definieren und die Systeme überwachen. Nur so könne KI im Sinne der Gesellschaft wirken, ohne sich jemals zu verselbstständigen. „Ich bin immer vorsichtig optimistisch, was die Weiterentwicklung dieser Systeme angeht.“
„Sehen Wien als potenziellen Standort für einen neuen Hub“
Wie geht es nun mit Liquid AI weiter? In den kommenden Monaten möchte Liquid AI seine Liquid Neural Networks in noch mehr Anwendungsbereiche bringen und zugleich die Entwicklung neuer generativer Modelle beschleunigen. „Wir wollen sicherstellen, dass unsere Technologie echten Mehrwert in der Praxis schafft – von der Medizin bis zur Finanzbranche“, betont Hasani. Dank der jüngsten Kapitalrunden kann das Unternehmen weitere hoch qualifizierte Talente anwerben und die eigenen Produkte auf die Bedürfnisse internationaler Großkunden zuschneiden.
Auch geografisch plant Liquid AI den nächsten großen Schritt. „Wir möchten unsere Präsenz in Europa ausbauen und sehen Wien als potenziellen Standort für einen neuen Hub“, erklärt Hasani. Entschieden ist zwar noch nichts, die Nähe zu exzellenten Forschungseinrichtungen und das wachsende Interesse an KI-Anwendungen in der Region seien aber ideale Voraussetzungen, um Forschung und Produktentwicklung vor Ort weiter voranzutreiben. Auf die Frage, ob er sich vorstellen könnte, auch selbst wieder zurückzukehren, um wieder in Österreich zu leben, antwortet Hasani ohne Zögern: „Ja, zu 100 Prozent.“ Vielleicht dann ja sogar doch noch als Nobelpreisträger.
Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.