16.06.2020

Blue Origin: Die heimliche Liebe von Amazon-Gründer Jeff Bezos

Jeff Bezos ist der reichste Mensch der Welt. Dies hat er Amazon zu verdanken - dem Online-Shopping-Giganten, der so erfoglreich agiert wie kaum ein zweiter Konzern. Dennoch ist das Einkaufsportal nicht das Lieblingskind des US-Milliardärs. Diesen Titel hat sich ein Unternehmen gesichert, das seit zwei Jahrzehnten existiert und ins All schielt: Blue Origin.
/artikel/blue-origin-jeff-bezos-amazon
Blue Origin, Jeff Bezos, SpaceX, Space
(c) Blue Origin - Mit Blue Origin möchte Jeff Bezos seinen Urenkeln ein Raumfahrt-Vermächtnis hinterlassen.

Jeff Bezos ist eine Persönlichkeit an der heutzutage niemand vorbeikommt. Der Amazon-Gründer ist regelmäßig in den Medien. Sei es weil seine „Nemesis“ Elon Musk immer wieder mit Angriffen gegen den Online-Händler auffällt, der fragwürdige Umgang seiner Mitarbeiter sich medial verbreitet, sein Vermögen wiederholt geschätzt wird, der Streaming-Dienst in aller Munde ist oder wenn Bezos den Philanthropen hervorholt und große Summen für den guten Zweck spendet. Weitaus seltener liest man von einer weiteren Leidenschaft des Milliardärs, die er bereits seit zwei Jahrzehnten ausübt: von der Space-Company Blue Origin.

+++ Wr. Neustädter Space-Startup Tumbleweed: Von der Garage bis zum Mars +++

Während SpaceX die letzten Wochen die Zukunft der Raumfahrt veränderte und die erste von einem Privatunternehmen gebaute und bemannte Raumfähre seit 39 Jahren (Space Shuttle) ins All sandte – oder damit wirbt, dass man Touristen mittels „ridesharing“ ab einer Million Dollar ins Weltall bringt, hört man von Bezos Space-Company, die Teil von Bezos Expeditions ist,  relativ wenig.

Blue Origin: Zwei Dekaden alt

Und das, obwohl Blue Origin für den Weltraumtourismus erschaffen wurde. Es war der September vor rund 20 Jahren, als das US-Unternehmen seine ersten Schritte tat und Raketenantriebssysteme und Trägerraketen entwickelte. Mit dem Motto „step by step“ ließ man sich drei Jahre Zeit, bis Bezos die Existenz der Firma öffentlich machte. Zehn Jahre später hatte der Amazon-Gründer eine halbe Milliarde US-Dollar in das Unternehmen gesteckt und schlussendlich 2015 den ersten Testflug seines vertikalen Raumgefährts „New Shepard“ vollbracht.

„Verkauf von Amazon-Aktien“ für Blue Origin

Die Rakete erreichte damals eine Geschwindigkeit von Mach 3, wurde bis heute mehrere Male erfolgreich getestet und hat mit „New Glenn“ (nach dem ersten US-Astronauten John Glenn benannt) bereits einen Nachfolger, der „Payloads“ und Personen ins All befördern soll. Seit 2016 arbeitet Blue Origin mit einem Budget von einer Milliarde US-Dollar jährlich, die Bezos mit dem Verkauf von Amazon-Aktien finanziert. Das war auch das Jahr, in dem sich das Unternehmen zum ersten Mal der Öffentlichkeit öffnete und die Produktionsstätte in Kent, Washington, für Journalisten zugänglich machte.

Video: Start und Landung der New Shepard im Jahr 2015

Jeff Bezos: Plan B für die Welt

Damals sagte Bezos, dass der Weltraum voller Ressourcen sei und dass die Erde einen „Plan B“ brauche, wenn etwas Schlimmes passiert. Und führte fort: „Es wird einfach ein unglaublich lustiger und inspirierender Teil der Zukunft der Menschheit sein, das Sonnensystem zu erforschen“.

Ein Jahr später vermeldete Bezos, dass Blue Origin den ersten zahlenden Kunden für Orbital-Satelliten an der Hand habe. Eutelsat wird voraussichtlich 2022 mit dem Start von TV-Satelliten auf den „New Glenn Orbital-Trägerraketen“ beginnen. Mittlerweile gesellten sich auch OneWeb und Mu Space als Kunden dazu.

Jeff Bezos, CEO von Amazon, Blue Origin, SpaceX,
(c) Amazon Photo – Amazon-Gründer Jeff Bezos muss sich viel Kritik – auch ökologische – gefallen lassen.

Buhlen um NASA

Heute kämpft Blue Origin mit Space X und Dynetics um einen NASA-Ausftrag. Die US-Behörde möchte mit ihrem Artemis-Projekt 2024 Menschen auf den Mond schicken (darunter eine Frau) und hat einen Contest unter den drei Unternehmen ausgerufen. Die konkurrierenden Firmen sollen jeweils einen Entwurf für einen „Mondlander“ vorlegen und werden dabei auch finanziell unterstützt: Blue Origin bekommt 579 Millionen US-Dollar, SpaceX 135 Millionen und Dynetics 253 Millionen.

„Mit diesen Auftragsvergaben treibt Amerika den letzten Schritt voran, der erforderlich ist, um Astronauten bis 2024 auf dem Mond zu landen, einschließlich des unglaublichen Moments, in dem die erste Frau die Mondoberfläche betreten wird“, sagt NASA-Administrator Jim Bridenstine.

Blue Origin arbeitet dafür an einem dreistufigen Lander, der seine Motoren auf der Mondoberfläche abstellt, um die Last zu erleichtern, wenn es Zeit ist, zur Erde zurückzukehren. SpaceX möchte dagegen sein Allzweck-Raumschiff „Starship“ verwenden, das angeblich auch für Mars-Missionen verwendet werden kann. Dynetics plant einen innovativen Lander, der mit jeder Rakete gestartet werden kann.

Kostensenkung durch Wiederverwertung

Bei allen drei Anbietern steht Kostensenkung im Vordergrund. Diese soll mit der Wiederverwertung von wichtigen Teilen der Trägerrakete und mit weniger Gewicht geschehen. Während der Transport von einem Pfund Materie (450 Gramm) in der Spaceshuttle-Ära knappe 25.000 US-Dollar kostete, so sind es heutzutage etwas mehr als 1200 US-Dollar, wie die NZZ berichtet.

Suborbitale Raumfahrt

Wie auch immer diese Ausschreibung ausgeht, Blue Origin CEO Bob Smith hat 2020 zu einem „arbeitsreichen Jahr“ erklärt. Axios zitierte den Geschäftsführer noch im Mai mit den Worten, dass es „drei oder mehr Flüge geben wird, bevor wir Leute fliegen“. Smith sagte zudem, der aktuelle Plan sei es, das noch heuer zu schaffen. Der Preis für einen Fluggast ist noch nicht offiziell verkündet worden, kann aber für die suborbitale Raumfahrt mit mehreren Hunderdtausend US-Dollar kalkuliert werden.

Jeff Bezos, Space, New Glenn
(c) Blue Origin – Jeff Bezos beim Testen der Kommunikationssysteme vor einem Raketenstart.

Tot, wenn Erfolg da

Wie erwähnt: Bezos verkauft seit drei Jahren immer wieder Amazon-Anteile, um Blue Origin finanziell zu fördern. Er sagte einst sinngemäß, er werde wohl tot sein, wenn die Früchte seiner Arbeit geerntet werden. Ein äußerst bemerkenswerter Satz, bringt man ihn mit einem schmeichelhaften Portrait der Plattform Medium in Verbindung.

Kritik am Amazon-Gründer

Man darf bei der Lobpreisung des Amazon-Gründers als Visionär nicht vergessen, dass der Milliardär regelmäßig unter starker Kritik steht. Amazons ökologischer Abdruck betrug 2018 44 Millionen Tonnen CO2. Daher hat der „reichste Mann der Welt“ im Frühjahr den „Bezos Earth Fund“ erschaffen und angekündigt, zehn Milliarden US-Dollar darin zu investieren. Allerdings ohne genau zu präzisieren wohin die Summe fließen soll.

Zudem wurden nach dieser Ankündigung kritische Stimmen der eigenen Mitarbeiter laut. Unter der Vereinigung namens „Amazon Employees for Climate Justice“ loben die Kritiker die Humanität von Bezos, fragen aber auch zugleich: „Wann wird Amazon aufhören, Öl- und Gasunternehmen dabei zu helfen, die Erde mit noch mehr Öl- und Gasbohrungen zu verwüsten? Wann wird Amazon die Verantwortung für die Lungen von Kindern in der Nähe seiner Logistikzentren übernehmen, indem man von Diesel- auf vollelektrische Lastwagen umsteigt?“.

Druck auf Amazon-Mitarbeiter

Andere Kritikpunkte umfassen den Umgang mit Lieferanten und Mitarbeitern während der Corona-Krise. Wie es auch die Washington Post schreibt, als zwei Angestellte nach kritischen Äußerungen zur Sicherheit im Job gefeuert wurden. Bereits vorher hatte die New York Post in einem Gespräch mit der ehemaligen Mitarbeiterin Maureen Donnelly aufgedeckt, welchen Verboten man als Amazon-Arbeiter unterliegt. Keine Getränke, außer Flaschen mit Wasser, keine Handys (was für Eltern ein Problem darstellt, da sie keine Notfallnummern an Schulen und dergleichen weitergeben konnten), Druck bei zu vielen Klopausen, 12-Stunden-Schichten, ohne die Möglichkeit der Konversation mit Kollegen.

Vierdimensionaler Blick auf die Zeit

Dies ist eine Seite des Amazon-Herrschers. Die andere Seite – und eher mit einem unternehmerischen Auge angeblickt – ist jene, die Mitte Mai der Autor Michael Simmons auf medium.com entwarf. Auf der Plattform wird behauptet, dass Menschen eines Schlags von Jeff Bezos „Zeit in 4D sehen“, der Rest der Menschheit sie „nur“ eindimensional wahrnimmt. Während die meisten CEOs generell Tage, Wochen oder Monate im Voraus denken, planen Visionäre in Dekaden oder sogar Jahrhunderten, heißt es.

Hohe „failure-Chance“

Nicht bloß das: Menschen wie Bezos stecken ihr Kapital in ihre Ideen hinein, die eine hohe „failure“-Wahrscheinlichkeit haben und dessen Ausgang sie gar nicht miterleben werden. Passend dazu Bezos Aussage: „Ich glaube an einen langen Zeitraum – ich denke dabei an ein paar Hundert Jahre. Ich bin von Jahr zu Jahr überzeugter, dass Blue Origin, die wichtigste Arbeit ist, die ich tue“.

Dieses Zitat, so Medium weiter, übe eine Faszination aus, da Bezos Steckenpferd, Amazon, zu einem der größten Unternehmen der Welt gehört; und weil Blue Origin – auch im Vergleich zu SpaceX – relativ unbekannt ist. Hier soll der US-Amerikaner seine weitsichtige Denkweise, um nicht zu sagen sein „future-mindset“ offenbaren, wenn er sagt: „Ich arbeite daran, weil, wenn wir es nicht tun, enden wir mit einer Zivilisation in Stasis“.

Eine Billion Menschen ins All

Damit spielt er auf die „baldige“ Energiekrise an, die der Welt bevorsteht und appelliert daran, die gesamte Erdoberfläche mit Solarzellen zu bedecken. Dieses „soon“ der Energiekrise beziffert Bezos mit ein paar Hundert Jahren, in denen der Mensch Lösungen für gesteigerte Bedürfnisse finden muss. Denn, wie er sagt: „Nehmen wir das Szenario, in dem wir ins Sonnensystem ziehen. Das Sonnensystem kann leicht eine Billion Menschen vertragen. Und wenn wir eine Billion Menschen hätten, hätten wir tausend Einsteins und tausend Mozarts und unbegrenzte Ressourcen und Solarenergie.“

Bezos plant ein Quartal drei Jahre voraus

Der weitere Text umschreibt, warum Bezos bereit ist Milliarden US-Dollar zu riskieren, bei Projekten dessen ROI Jahre in der Zukunft liegt. Und wie sein long-term-thinking Amazon geschärft hat. Angeblich arbeitet der Gründer – im Gegensatz zu anderen CEOs – nicht am nächsten Quartel, sondern an einem Zeitraum weiter in der Zukunft: „Wenn mir Freunde nach einer vierteljährlichen Gewinnmitteilung gratulieren, sage ich ‚danke‘, aber dieses Quartal wurde vor drei Jahren gebacken‘.  Ich arbeite jetzt an einem Quartal, das im Jahr 2021 stattfinden wird“.

Amazon nur Mittel zum Zweck?

Jeff Bezos wurde als Vieles bezeichnet: Philanthrop, Visionär, gieriger Turbokapitalist. Oft wundern sich Beobachter und Kritiker, warum der „reichste Mensch der Welt“ mit einem der erfolgreichsten Unternehmen der Weltgeschichte Logistikmitarbeiter nicht ausreichend entlohnt, warum er sie ausbeutet und gefährdet. Oder bei Kritik an Arbeitsbedingungen mit Diszplinierungsmaßnahmen droht. Eine Erklärung dafür findet sich vielleicht bei einem Querblick und mündet in einer einzigen Schlussfolgerung: Jeff Bezos ist Amazon egal.

+++ Elon Musk wollte Tesla-Fabrik trotz Lockdown-Verordnung wieder öffnen +++

Vielleicht nicht unbedingt egal, aber scheinbar ist der Online-Shopping-Riese für den Milliardär bloß ein Mittel zum Zweck. Jeff Bezos ist ein „Nerd“. Er steckt unglaublich viel Geld in TV-Fantasy-Produktionen wie „Wheel of Time“ (Das Rad der Zeit) oder einen „Lord of the Rings“-Ableger und gilt als Fan fiktionaler Literatur. Dazu gehört nicht bloß die visuelle Erschaffung mittelalterlicher Gesellschaften mit Magie und Schwert fürs TV, sondern auch der Blick nach oben.

Das Wie ist nicht wichtig?

Wenn Bezos wirklich das 4D-Mindset hat und wie er selbst sagt Blue Origin sein eigentliches Vermächtnis an seine Enkel, Urenkel und der Welt sein soll, dann erweist sich Amazon wohl nur als „Cash-Cow“ für eine größere Sache: Der Eroberung des Alls. In diesem Sinne zählen zweifelhafte Praktiken hinsichtlich Behandlung der Mitarbeiter nicht, die Gefährdung von Leben in einer Pandemie ist nur ein Nebenaspekt ausgerichtet auf ein Ziel, schlechte Entlohnung und Leiharbeiterschaft reihen sich da ebenso mit ein, wie ökologische und weitere Kritikpunkte am Konzern.

„Amazon wird sterben“ – Blue Origin überdauern

„Amazon wird sterben“ hatte Bezos im Laufe der letzten Jahre prophezeit. 2014 sprach er von nur ein paar Dekaden, die große Firmen überstehen, 2017 adressierte er seine Shareholder und sprach von einem schmerzlichen Niedergang und 2018 sagte er laut CNBC „Amazon ist nicht ‚too big to fail‘. Ich kann euch sogar versprechen, dass Amazon eines Tages scheitern wird.“

Bevor das Unternehmen untergeht, wird Bezos es (und alle Beteiligten) solange „ausschlachten“, wie es braucht, um Blue Origin immer wieder und stetig mit Kapital zu versorgen, um die Raumfahrt zu zähmen wie früher Pferde. Und dafür arbeiten, dass seine große Liebe ihn lange überdauert, wenn die Grenzen der Erde längst durchbrochen und er selbst von uns gegangen ist.


⇒ Zur Webpage

Redaktionstipps
Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag