08.06.2020

Wr. Neustädter Space-Startup Tumbleweed: Von der Garage bis zum Mars

Das heimische Startup Tumbleweed baut einen windgetriebenen Marsrover, der fast eine Tonne leichter ist als sein berühmter Vorgänger "Curiosity". Mit den rund 20 Kilogramm schweren Mars-Erkundern soll die "Deep Space Exploration" einen breiteren Anstrich bekommen, wie Co-Founder Nicola Weiroster erklärt.
/artikel/wiener-space-startup-tumbleweed-von-der-garage-bis-zum-mars
Tumbleweed, Mars, Marsrover, ESA, NASA, Curiosity, Nicola Weiroster, Inkubator, Incubator, ESA-Incubator
(c) Tumbleweed - Wiener Startup Tumbleweed baut mit 58 Mitgliedern an vier Orten einen neuartigen Marsrover.

„Völlig losgelöst von der Erde“. Wo Peter Schilling mit seinem Lied tausende Kehlen zum Singen bringt, da möchten Julian Rothenbuchner, Moritz Stephan und Nicola Weiroster mit ihrem Startup Tumbleweed einen anderen Zugang zum Weltall etablieren. Genauer gesagt planen die drei Founder für die Nutzung des Mars und dessen Erforschung einen kommerziellen und standardisierten Anstrich zu verpassen – und dabei kostensparend zu agieren. „From a garage in Vienna to the Red Planet“ steht auf der Webseite des Unternehmens. Angefangen hat alles jedoch während einer öden Zeichenstunde.

+++ Elon Musk: Stadt am Mars benötigt 1000 Raumschiffe und 20 Jahre +++

Tumbleweed nutzt Windgeschwindigkeit des Mars

„Wir waren schon immer interessiert am Weltraum. Julians und Moritz damaliger Physiklehrer hat beide dann auf den ‚Odysseus Space Contest‚ aufmerksam gemacht. Der Gewinner im letzten Jahr war ein Rover. Das hat die Idee initialisiert. Wir wollten aber keinen herkömmliches Mars-Gefährt bauen, sondern einen anderen, effizienteren, simpleren Ansatz wählen. Während einer langweiligen BE-Stunde haben wir dann einige Papers gelesen, in denen die enormen Windstärken (Anm.:  bis zu 360 km/h) auf dem Mars untersucht wurden. Da wurde direkt die Idee geboren diese zu nutzen.“, erklärt Mitgründer Weiroster.

In 20 Tagen den halben Pol am Mars erforschen

Für das Konzept des Tumbleweeds hat das Startup Anleihen an der Natur genommen und sich alter Cowboy-Movies als Stilmittel bedient. Die „Steppenläufer“, wie man sie aus dramatischen Szenen in Western-Filmen kennt, dienen als Design-Vorlage. So sollen große Flächen abgedeckt werden und das bei minimaler Komplexität und Kosten, so die Idee: Die Winde treiben dabei die Tumbleweed „randomly“ in Richtung des Mars-Äquators , während diese Daten sammeln. Dabei können die einzelnen Maschinen für jede Mission individuell konfiguriert werden und so für eine kostenarme Lösung sorgen. Für rund 50 Prozent Erforschung des Nordpols am Mars soll der Tumbleweed rund 20 Tage brauchen.

Sieg beim Odysseus Space Contest

„Nach der Idee haben wir einen ersten Prototypen gebaut und bei dem ‚Odysseus Space Contest‘ teilgenommen und sowohl auf nationaler als auch auf internationaler Ebene gewonnen. In der Jury waren damals Experten von unzähligen Weltraumorganisationen wie der ESA, ArianeSpace, Airbus, die uns sehr positives Feedback gegeben haben. Das war für uns ein großer Ansporn das Projekt weiter zu verfolgen“ so Weiroster weiter.

Tumbleweed: Weniger spezialisiert und breiter nutzbar

Zwischen herkömmlichen Rovern und Tumbleweed herrscht eine komplett andere Designphilosophie. Konventionelle Rover, wie unter anderem „Curiosity“, sind teure und hoch spezialisierte Unikate. Der Tumbleweed soll in größeren Stückzahlen produziert werden und ein standardisiertes Interface für Forschungsinstrumente bieten.

Vier Flächen für ein Optimum an Windnutzung

Die „tetrahedrally“ (vierflächig) angeordneten Segel sollen für eine optimale Windnutzung sorgen und eine maximale Areal-Abdeckung ermöglichen. In mehr als 100 Simulationen in einem virtuellen Windtunnel wurde ein Strömungswiderstandskoeffizient festgestellt, der um 103 Prozent höher ist, als vergleichbare Daten eines NASA-Tumbleweeds aus dem Jahre 2004.

Curiosity als Punktmessungs-Gerät statt Schwarmforschung

Zudem werden der Tumbleweed und „Curiosity“ für andere Use Cases verwendet. Der Rover des Startups ermöglicht eine schnelle, großflächige Exploration der Marslandschaft, sowie ein Schwarmforschungs-Konzept. „Curiosity kann sich indes im Vergleich nur sehr langsam bewegen, die Daten sind beinahe Punktmessungen“, erklärt der Erfinder.

Solarzellen und Lithium-Batterie

Die sechs Segel des „österreichischen Rovers“ wurden zudem mit je sechs Reihen kristallinen Solarzellen bestückt. Das soll ausreichend Elektrizität erzeugen, um die gesamte Elektronik am Laufen zu halten und eine Lithium-Batterie für Nacht-Missionen anzutreiben.

Eigener Fallschirm inkludiert

Weiters, so Weiroster, zeichnet sich der Tumbleweed durch seine niedrige Komplexität aus. Mit weniger beweglichen Teilen sollen Kosten und Risiko gesenkt werden. Während der EDL-Phase (Entry, Descent, Landing) ist der Tumbleweed sein eigener Fallschirm und muss nicht mit hochkomplexen und riskanten Manövern gelandet werden.

Tumbleweed, Mars, Marsrover, ESA, NASA, Curiosity, Nicola Weiroster, Inkubator, Incubator, ESA-Incubator
(c) Tumbleweed – Das Tumbleweed-Team möchte noch heuer in Israel einen Testlauf mit ihrem Rover durchführen.

Tumbleweed: 20 statt 1000 Kilogramm

„Ein weiterer wichtiger Aspekt ist das geringe Gewicht. Curiosity wiegt etwa eine Tonne, der Tumbleweed 20 Kilogramm. Im Weltall, wo Gewicht ein starker Treiber ist, können so Missionskosten massiv gesenkt werden. Unsere Vision ist es ‚Deep Space Exploration‘ für einen großen Personenkreis zu eröffnen. Wir sehen uns hier als Enabler für Forscher, denen wir eine standardisierte Plattform bieten, auf der sie ihre Instrumente implementieren können“, sagt Weiroster.

Dafür ist die Kommunikation ein Schlüsselelement. Da der Tumbleweed sich zufällig bewegt, nutzt das Unternehmen omnidirektionale Antennen, um mit Satelliten im Mars-Orbit zu interagieren.

Test in der Negev-Wüste in Israel im Herbst

Aktuell befindet sich das Startup in der finalen Phase den Erd-Prototypen fertig zu stellen. Dieser soll im Oktober 2020 in der Negev Wüste in Israel im Zuge einer Mars-Analog-Mission getestet werden. Parallel dazu wird bereits seit Ende letzten Jahres am nächsten Prototyp gewerkelt, der schon sehr viel näher an einem „space-grade“-Rover herankommen wird.

Launch ist für 2028 geplant

„Nach Zeitplan werden wir 2026 mit der Entwicklung des Rovers fertig sein. Ab da werden wir uns vorrangig mit Themen wie der Integration von ‚Payloads‘, Integration der Rover in der Rakete und ‚Gound Segment‘ beschäftigen.“, sagt Weiroster. „Im Jahr 2028 werden Tumbleweeds dann launchen. Aktuell ist eine Mission mit etwa 100 Stück geplant. Die genaue Zahl kann man jetzt aber noch nicht abschätzen, das ist völlig nachfragegetrieben. Aber natürlich würde auch eine Mission mit weniger Tumbleweeds einen signifikanten Erkenntnisgewinn bedeuten.“

Die Beschaffung jener Erkenntnisse ist jene Maxime, mit der das Startup seine Philosophie antreibt. Besonders hinsichtlich kommerzieller Nutzung des Roten Planeten. Man sieht sich eigener Definition nach als „Enabler“ für Forschung und Industrie.

„Payload Units verkaufen“

„Grundsätzlich werden wir den Platz in den ‚Payload Units‘ verkaufen, ganz analog zum CubeSat-Modell (Anm. Kleinsatelliten). Es gibt unzählige Anwendungsfelder für den Tumbleweed, viele davon sind im Forschungsbereich und zielen darauf ab das Verständnis über den Planeten zu erweitern. Dadurch erhoffen wir uns Erkenntnisse, die möglicherweise den Weg für den ersten Menschen am Mars ebnen“, sagt Weiroster.

Mars, Marsrover, ESA, NASA, Curiosity, Nicola Weiroster, Inkubator, Incubator, ESA-Incubator
(c) Tumbleweed/ FB – Tumbleweed-Co-Founder Weiroster: „Es geht darum herauszufinden, welche kommerziellen Chancen es am Mars gibt.“.

Kommerzielle Chancen am Mars

Weiters führt Weiroster aus: „Hinsichtlich der Frage nach kommerziellen Use Cases denken wir, dass die Auffindung von Ressourcen und der Test von Materialien besonders interessant sind. Eine kommerzielle Nutzung ist aber noch etwas entfernt. Heute geht es allein darum, herauszufinden, welche kommerziellen Chancen es überhaupt am Mars gibt“.

Die Partner des Projekts

Unterstützt wird das Startup von Voestalpine Böhler mit finanzieller Zuwendung, aber auch mit Titanteilen aus dem 3D-Druck. Weitere Partner sind die FH Wiener Neustadt, Joanneum und das österreichische Weltraum Forum. Das Highlight jedoch ist seit diesem Jahr die Zusammenarbeit mit der ESA (European Space Agency).

ESA-Inkubator

Das „Business Incubation Programm“ der ESA ist ein zweijähriger Prozess, in dem man neben einer Fördersumme auch Beratungsleistung der Weltraum-Agentur und ihren Partnern bekommt. Dafür hat die  supranationale Organisation in jedem ihrer Mitgliedsstaaten Startup-Center eingerichtet, beziehungsweise kooperiert mit Inkubatoren. In Österreich gibt es zwei davon, accent in Wiener Neustadt und SPG in Graz.

„Space Connection“ nötig

„Der Ablauf bei der ESA verhält sich wie bei den meisten Inkubatoren und Förderungen. Zuerst gibt es eine Einreichung mit Businessplan und Pitch. Wichtig ist dabei ein Bezug zum Weltraum, die sogenannte ’space connection‘. Das kann entweder upstream (Entwicklung von Weltraumtechnologie) oder downstream (Weltraumechnologie für Erdanwendungen verwenden) sein“, erklärt Weiroster.

Von Wien bis Palo Alto

Das Studentische Startup hat insgesamt 58 Mitglieder an vier Standorten: Wien, Delft (NL), Palo Alto, Aarhus (DK). Das Team verfügt über unterschiedlichen Kompetenzen. „Die kulturelle Komponente ist hierbei natürlich sehr spannend, man lernt ambitionierte Studenten aus unzähligen Ländern kennen, schließt Freundschaften und lernt voneinander. Der Austausch funktioniert über Videochat – und das war auch schon vor Corona so. Wir haben in Wien gestartet und hier auch dementsprechend das diverseste Team mit einem Großteil der nicht-technischen Gruppen.“, sagt Weinroster. In den Niederlanden sitzen zudem noch Techniker, die an der Rover-Hardware, der Software und Elektronik arbeiten, während sich in Aarhus ein Science-Team mit Anforderungen der Wissenschaft an den Rover beschäftigt.

Silicon Valley und das Weltall

Und auch das Silicon Valley darf in dieser Aufzählung nicht fehlen. Weiroster dazu: „In Palo Alto haben wir auch ein Team aus Software Entwicklern. Und bauen dort Kontakte zur amerikanischen Weltraumindustrie auf.“


⇒ Zur Page

Redaktionstipps
Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag