13.05.2022

Crypto Weekly #56: Was der LUNA-Kollaps für den Kryptomarkt bedeutet

Diese Woche überschattete ein Thema alles andere: Der Zusammenbruch von Terras Stablecoin UST und dem LUNA-Token. Wir beleuchten alle Hintergründe - und sehen uns an, welche Folgen der LUNA-Kollaps haben könnte. Außerdem: Was ist jetzt mit Tether?
/artikel/crypto-weekly-56
Der Terra-Gründer meldet sich auf Twitter zu Wort © Foto: Andreas Prott - stock.adobe.com
Der Terra-Gründer meldet sich auf Twitter zu Wort © Foto: Andreas Prott - stock.adobe.com

Im brutkasten Crypto Weekly, das hier per Mail abonniert werden kann, blicken wir jeden Freitag auf die wichtigsten Kursbewegungen und Nachrichten der Krypto-Woche zurück. Wie immer starten wir dabei mit einem Blick auf…


…die Kurstafel:

  • Bitcoin (BTC): 30.300 US-Dollar (-17 % gegenüber Freitagnachmittag der Vorwoche)
  • Ethereum (ETH): 2.075 Dollar (-24 %)
  • Terra (LUNA): 0 Dollar (-100 %)
  • Solana (SOL): 51 Dollar (-38 %)
  • Avalanche (AVAX): 34 Dollar (-40 %)

Wie das Scheitern eines algorithmischer Stablecoin LUNA wertlos machte

Trotz eines Erholungsversuchs am Freitag verlief diese Woche am Kryptomarkt extrem schwach. Dabei hat ein Thema alles andere überschattet: Der Zusammenbruch von Terras LUNA-Token. Dass dieser innerhalb weniger Tage seinen gesamten Wert verloren hat, hat die Kryptowelt erschüttert. Der einzige Grund für die schwache Woche am Markt war dies aber nicht. Doch der Reihe nach: Auslöser des Debakels war der Stablecoin TerraUSD (UST) – oder genauer gesagt: Dass dieser sich vom Dollar entkoppelt hat.

Bei UST handelt es sich um einen sogenannten algorithmischen Stablecoin – seine 1:1-Koppelung an den Dollar soll also automatisiert durch das Protokoll sichergestellt werden. Dadurch unterscheiden sich algorithmische Stablecoins von ihren klassischen Pendants – die meist für sich beanspruchen, den entsprechenden Gegenwert der sich im Umlauf befindlichen Stablecoins in Dollar als Deckung zu halten. 

Klingt zunächst einmal sicherer – das Argument für algorithmische Stablecoins war aber zumeist die theoretisch (!) höhere Dezentralität. Das Protokoll stellt die Koppelung automatisiert sicher, der Stablecoin ist somit in der Theorie nicht darauf angewiesen, dass das Unternehmen dahinter aktiv in den Markt eingreift. Anleger sollten daher weniger abhängig von einer zentralen Entität sein.

Der Mechanismus: Bei UST funktionierte dieser im Wesentlichen so, dass für jeden geschaffenen UST im Gegenzug ein LUNA-Token vernichtet wird und umgekehrt. Dabei soll jederzeit die Möglichkeit bestehen, für 1 UST den Gegenwert von 1 US-Dollar in Form von LUNA erhalten. Fällt der UST-Kurs unter 1 Dollar, etwa auf 90 Cent, könnten UST-Anleger für ihre UST weiterhin LUNA-Token im Wert von 1 Dollar erhalten, diesen verkaufen – und somit letztlich einen Dollar für 90 Cent kaufen. 

In der Theorie sollte diese Arbitrage-Möglichkeit dazu führen, dass Anleger solange UST nachfragen, bis diese höhere Nachfrage den UST-Kurs wieder auf 1 Dollar gepusht hat. Und auch hier wieder die Einschränkung: In der Theorie. 

In der Praxis geriet die Dollar-Koppelung des UST schon am Wochenende zunächst leicht unter Druck. Anfang der Woche nahm dieser dann deutlich zu: In der Nacht auf Dienstag sank der Kurs auf unter 80 Cent. Am Mittwoch brach er dann zwischenzeitlich auf unter 30 Cent ein. Zwischenzeitliche Erholungsversuche scheiterten, am Freitag fiel der UST-Kurs dann unter 20 Cent.

Und die Bitcoin-Reserven? Nun war es so, dass Terra durchaus Vorbereitungen für den Fall getroffen hatte, dass der Mechanismus nicht halten sollte: Terra-Gründer Do Kwon hatte, wie auch mehrfach im Crypto Weekly berichtet, Anfang des Jahres begonnen, massive Bitcoin-Reserven im Gegenwert von rund 1 Mrd. Dollar aufzubauen. Die sollten im Krisenfall auf den Markt geworfen werden, um die UST-Koppelung zu stützen.

Ob dies im Ernstfall tatsächlich funktionieren würde, werde sich erst weisen müssen, stand erst vor drei Wochen an dieser Stelle im Crypto Weekly. Nun ist dieser Fall schneller eingetreten als viele gedacht haben – und wir kennen die Antwort: Nope, hat nicht funktioniert. 

Kwon dürfte seine Bitcoin-Reserven tatsächlich vollständig eingesetzt haben (zumindest lässt sich öffentlich nachvollziehen, dass sie aus einer bekannten Terra-Wallet auf eine Börse transferiert worden waren). Die UST-Koppelung konnte er damit aber nicht aufrecht erhalten. Und auch der mit UST verbundene LUNA-Token stürzte ins Bodenlose und erreichte in der Nacht auf Freitag einen Kurs von de facto null. 

Auf Social Media machten rasch Gerüchte die Runde, wonach die beiden US-Finanzriesen Citadel und BlockRock den Terra-Kollaps herbeigeführt hätten. Beide Unternehmen dementierten. Entscheidend ist das aber ohnehin nicht. Tatsache bleibt: Das Protokoll war eben nicht robust genug, um Angriffen stattzuhalten. Am Donnerstagabend wurde die Terra-Blockchain für rund neun Stunden gestoppt. Am Freitag gab die weltgrößte Kryptobörse Binance bekannt, UST und LUNA aus dem Handelsangebot zu nehmen. 

Warum der LUNA-Kollaps die Kryptowelt besonders trifft

Soweit einmal die Fakten. Aber wie stark hat der LUNA-Kollaps die Kryptowelt wirklich getroffen? Wer in die Szene reinhört, stellt schnell fest: Doch ziemlich stark. Klar, dass irgendwelche Coins auf 0 gehen, das hat es immer wieder gegeben. Scams, Hacks, Rug Pulls – das steht im Krypto-Bereich praktisch auf der Tagesordnung. Im vergangenen Juni gab es beispielsweise einen Kollaps eines anderen algorithmischen Stablecoin-Projekts (Iron Finance/Titan), der auch deswegen Aufsehen erregte, weil der US-Milliardär Mark Cuban den Token zuvor noch beworben hatte. Allerdings war dies dennoch ein vergleichsweise unbedeutendes Projekt, das keine große Rolle in der Kryptowelt gespielt hat. Selbst kryptoaffinen Personen war es nicht unbedingt ein Begriff.

Völlig anders die Situation bei Terra: Um das Projekt war im vergangenen halben Jahr ein massiver Hype entstanden. Der LUNA-Token schaffte es in die Top 10 der größten Kryptowährungen nach Marktkapitalisierung – und stieg von 6 Dollar im vergangenen Sommer zwischenzeitlich bis auf knapp 120 Dollar Anfang April. Er trotzte dabei auch dem in den vergangenen Monaten äußerst schwierigen Marktumfeld – und konnte als einziger großer Coin 2022 ein Rekordhoch erreichen. 

Auch der im Jänner angekündigte Aufbau von Bitcoin-Reserven für UST wurde von vielen am Markt positiv aufgenommen – Kwon galt manchen damit sogar als Hoffnungsträger, der in einem schwachen Marktumfeld einen Impuls für Kursanstiege liefern könnte. Sogar einige Bitcoin-Maximalisten äußerten sich positiv über Kwons Bitcoin-Investments. 

Gleichzeitig muss man jedoch auch festhalten: Es gab auch genug kritische Stimmen – sowohl am Konzept algorithmischer Stablecoins per se, als auch an Terra und Kwon im Speziellen. Insbesondere das Anchor Protocol, in dem man UST parken konnte und dafür bis zu 20 Prozent Zinsen im Jahr in Aussicht gestellt bekam, wurde vielfach als “Ponzi-Scheme”, also als Schneeballsystem, kritisiert. 

Ein Kryptoanalyst, der unter dem Namen Freddie Raynolds twittert, hatte sogar in einem Twitter-Thread vom November detailliert beschrieben, wie Angreifer mit genug Finanzkraft das Terra-System sprengen könnten. Do Kwon war diese Analyse übrigens bekannt – er bezeichnete sie als den “dümmsten Thread”, den er in diesem Jahrzehnt gelesen habe. Auf Social Media kursierten immer wieder auch andere Analysen, die Schwachstellen des Terra-System herausarbeiteten.

Welche Folgen der LUNA-Kollaps haben wird:

  • das Konzept algorithmischer Stablecoins wird es in Zukunft sehr, sehr schwer haben. Die vermeintlich höhere Dezentralität ist nichts wert, wenn in Krisensituationen erst recht wieder zentrale Einheiten eingreifen müssen, um die Koppelung aufrecht zu erhalten (und noch weniger, wenn diese dann auch noch damit scheitern)
  • die Angelegenheit wird das Thema Stablecoins – und zwar Stablecoins generell und nicht nur algorithmische Stablecoins – noch einmal stärker ins Visier der Regulierungsbehörden bringen. US-Finanzministerin Janet Yellen hat bei einer Anhörung vor dem US-Senat diese Woche die Sache bereits thematisiert und eine stärkere Regulierung von Stablecoins gefordert.
  • hoffentlich wird die Skepsis von Kleinanlegern gegenüber extrem hohen Zinsversprechen steigen. Dass eine hohe Rendite notwendigerweise mit einem hohen Risiko einhergehen muss, sollte eigentlich klar sein. Ist der Zins extrem hoch, ist das Risiko ebenfalls extrem hoch. Es wäre zumindest etwas gewonnen, wenn sich Kleinanleger nach diesem Debakel künftig stärker fragen: Woher kommt der versprochene Zins und wie kann er so hoch sein? Welche Risiko nehme ich dafür in Kauf?
  • die Anzahl großspuriger Tweets von Do Kwon wird sinken – möglicherweise in Richtung des aktuellen Marktwerts von LUNA. Hoffentlich.

Und was ist mit Tether?

Eine weitere unmittelbare Folge des UST-Zusammenbruchs ist, dass Spekulanten nun auch die Robustheit anderer Stablecoins testen. Besonders relevant dabei: Tether (USDT). Mit einer Marktkapitalisierung von rund 80 Mrd. Dollar ist Tether weiterhin der größte Stablecoin – und anders als UST wird die Koppelung an den Dollar nicht über einen Algorithmus sichergestellt, sondern über 1:1 vorhandene Reserven an Dollar und Dollar-Äquivalenten. So wird es zumindest von Tether selbst behauptet.

Seit Jahren gibt es jedoch Zweifel, ob die behauptete 1:1-Deckung tatsächlich in vollem Umfang existiert. Unter anderem hat beispielsweise der bekannte Shortseller Hindenburg Research im vergangenen Oktober 1 Mio. Dollar Belohnung für noch nicht bekannte Hinweise zu Tethers Dollar-Deckung ausgeschrieben.

So war es auch wenig überraschend, dass diese Woche nun auch versucht wurde, die Tether-Koppelung zu brechen. Am Donnerstag rutschte der USDT-Kurs tatsächlich zwischenzeitlich von 1 Dollar auf knapp unter 95 Cent ab. Es war die stärkste Abweichung seit 2020. Weiter abwärts ging es dann jedoch zumindest vorerst nicht mehr, der USDT-Kurs näherte sich rasch wieder der 1-Dollar-Marke. Am Freitag stand er zuletzt geringfügig darunter.

Über einen möglichen Tether-Kollaps und dessen Auswirkungen auf den gesamten Kryptomarkt wird schon seit Jahren spekuliert. Gerade in Kombination mit dem Terra-Zusammenbruch wäre es wohl äußerst ungemütlich geworden. Dies wurde nun – zumindest bisher – nicht schlagend. Dass das Thema damit jedoch ausgestanden ist, darf bezweifelt werden.

Bitcoin zwischenzeitlich bis auf 26.350 Dollar gefallen, Erholungsversuch am Freitag

Sehen wir uns abschließend noch die sonstigen Kursbewegungen am Kryptomarkt an. Bitcoin fiel am Dienstag erstmals seit Juli 2021 wieder unter die Marke von 30.000 Dollar. Am Donnerstag ging es dann sogar bis auf rund 26.350 Dollar abwärts – der tiefste Stand seit Ende 2020. Ethereum geriet ebenfalls deutlich unter Druck und rasselte unter die 2.000-Dollar-Marke. Andere große Coins verzeichneten noch stärkere Kursverluste.

Am Freitag startete der Kryptomarkt einen Erholungsversuch. Bitcoin schaffe es dabei wieder über die 30.000-Dollar-Schwelle. Der Ether-Kurs kämpfte sich über die 2.000 Dollar zurück. Auf 7-Tagessicht liegt das Minus bei Bitcoin bei 17 Prozent – womit sich BTC deutlich besser hielt als so gut wie alle anderen großen Coins. Die Token der Smart-Contract-Blockchains fielen teilweise um die 40 Prozent – so etwa Solana (SOL) und Avalanche (AVAX).

Die dieswöchige Kursschwäche ist jedoch keineswegs nur auf den LUNA-Kollaps zurückzuführen. Auch der US-Aktienmarkt geriet diese Woche mehrfach stark unter Druck – und seit Monaten hängen die Kurse am Kryptomarkt an der Wall Street. Mit den steigenden Zinsen in den USA und den Auswirkungen des Ukraine-Kriegs ist die Situation auf der Makro-Ebene weiterhin sehr angespannt. Dazu kommt weiterhin die Covid-Situation in China und ihre Auswirkungen auf die globalen Lieferketten. Diesem schwierigen Umfeld wird sich auch der Kryptomarkt in nächster Zeit kaum entziehen können.


Hier geht’s zu allen Folgen des brutkasten Crypto Weekly


Disclaimer: Dieser Text sowie die Hinweise und Informationen stellen keine Steuerberatung, Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar. Sie dienen lediglich der persönlichen Information. Es wird keine Empfehlung für eine bestimmte Anlagestrategie abgegeben. Die Inhalte von brutkasten.com richten sich ausschließlich an natürliche Personen.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag