08.04.2022

Crypto Weekly #51: Warum Bitcoin diese Woche gefallen ist – und Dogecoin gestiegen

Ergibt es irgendeinen Sinn, dass der DOGE-Kurs auf Elon Musks Einstieg bei Twitter reagiert? Außerdem: Robinhoods neue Krypto-Wallet, wie ein neues Lightning-Protokoll zur "Bitcoinisierung des Dollar" beitragen will - und die 200-Millionen-Runde von Binance.US.
/artikel/crypto-weekly-51
A picture of Bitcoin, Dogecoin and Ethereum coins
Foto: Adobe Stock

Im brutkasten Crypto Weekly, das hier per Mail abonniert werden kann, blicken wir jeden Freitag auf die wichtigsten Kursbewegungen und Nachrichten der Krypto-Woche zurück.


Die Kurstafel:

  • Bitcoin (BTC): 43.500 US-Dollar (-4 % gegenüber Freitagnachmittag der Vorwoche)
  • Ethereum (ETH): 3.200 Dollar (-1 %)
  • Cardano (ADA): 1,08 Dollar (-5 %)
  • Solana (SOL): 124 Dollar (-7 %)
  • Terra (LUNA): 102 Dollar (-3 %)

Bitcoin sinkt auf unter 44.000 Dollar

Die Ausgangslage: Trotz einer ungünstigen Situation auf der Makroebene – Krieg in der Ukraine, steigende Zinsen in den USA – hat sich der Kryptomarkt in den vergangenen Wochen recht gut entwickelt. Klar war jedoch immer: In einem solchen Umfeld kann es schnell auch wieder in die andere Richtung gehen. Sei es aufgrund der Entwicklungen rund um den Krieg in der Ukraine, sei auch bloß, weil wieder ein US-Notenbanker Aussagen getätigt hat, welche die Risikofreude an den Märkten dämpfen. Zweiteres war nun diese Woche der Fall.

Der Hintergrund: US-Notenbankerin Lael Brainard sagte auf einer Konferenz, dass der Bekämpfung der Inflation “größte Bedeutung” zukomme und kündigte eine Reihe von Zinserhöhungen an. Außerdem werde die Notenbank ihre Bilanz schon ab Mai in hoher Geschwindigkeit abbauen, führte Brainard weiter aus. Ob diese Aussagen wirklich einen wahnsinnigen Neuigkeitswert hatten, darüber kann man diskutieren. Aber Fakt ist: Am US-Aktienmarkt wurden sie von vielen Investoren zum Anlass genommen zu verkaufen. Der techlastige Aktienindex Nasdaq-100 fiel um mehr als 2 Prozent. Und wie so oft in den vergangenen Monaten wurde der Kryptomarkt in Mitleidenschaft gezogen.

Es war wieder einmal das selbe Spiel, das wir mittlerweile nur allzu kennen: Die traditionellen Finanzmärkte schalten auf “risk off” – und auch für Bitcoin (BTC) und alle anderen Kryptowährungen geht es abwärts. In Zahlen gegossen hieß das diese Woche etwa für Bitcoin: Von etwas über 47.100 Dollar am Mittwoch sank der Kurs am Donnerstag bis auf unter 43.200 Dollar. 

Aber was heißt das jetzt? Die Zahlen zeigen es bereits: Von einem massiven Abverkauf kann hier keine Rede sein. Vor allem, wenn man es im Kontext sieht. Wir haben seit Mitte März eine deutliche Aufwärtsbewegung am Kryptomarkt erlebt. Der Bitcoin-Kurs ist von rund 37.000 Dollar bis auf 48.000 Dollar gestiegen. Und das alles im erwähnten schwierigen Marktumfeld. Dass es hier auch einmal in die andere Richtung gehen muss, ist nicht überraschend. 

Dogecoin profitiert von Musk-Einstieg bei Twitter – warum?

Die beste 7-Tages-Performance unter den größten Kryptowährungen legte eine hin, die über starke Fundamentaldaten, eine riesige Entwickler-Community und eine überzeugende Roadmap verfügt. Nein, nur Spaß – in Wirklichkeit war es Dogecoin (DOGE). Der Memecoin entzog sich dem schwachen Marktumfeld und der Grund dafür ist klar zu bestimmen: Elon Musk. 

Die Fakten: Dass der Tesla- und SpaceX-CEO bei Twitter eingestiegen ist, dürften die meisten mitbekommen haben. Musk hält nun über 9 Prozent an dem Unternehmen und mittlerweile auch einen Sitz im Board. Als Musks Einstieg bei Twitter – zunächst als passiver Investor – am Montag öffentlich wurde, schoss die Aktie des Unternehmens um rund 25 Prozent nach oben. Und auch am Kryptomarkt gab es eine Kursreaktion: Dogecoin zog stark an. Die DOGE-Gewinne vom Montag waren rasch wieder weg. Als am Dienstag dann bekannt wurde, dass Musk auch einen Sitz im Board bekommen würde, stieg der Dogecoin-Kurs aber noch einmal deutlich.

Der Hintergrund: Will Musk dafür sorgen, dass DOGE-Zahlungen bei Twitter integriert werden? Nichts dergleichen ist derzeit bekannt. Aber Musk ist eben großer Dogecoin-Fan und hat den Memecoin immer wieder gepusht – über seinen Twitter-Account. Und das reicht dann schon für eine Kursreaktion.

Ergibt das irgendeinen Sinn? Am ersten Blick nicht. Am zweiten auch nicht. Und am dritten erst recht nicht. Aber der hauptsächliche – gut, der nahezu ausschließliche – Use Case von Dogecoin ist eben, dass es ein Spekulationsobjekt ist für Leute, die DOGE lustig finden. Und wenn eine Meldung reinkommt, die die Worte “Elon Musk” und “Twitter” an prominenter Stelle beinhaltet, heißt das dann eben: Kaufen! Hat das irgendetwas mit seriösen Investmententscheidungen zu tun? Nein. Ist es trotzdem die Realität? Ja.

Man kann es auch aus folgender Perspektive betrachten: Der einzige Weg, wie Dogecoin einen Nutzen in der realen Welt erlangen könnte, wäre, dass viele Menschen (wie Musk) DOGE lustig finden und damit dann irgendwelche kleinen Zahlungen tätigen – einfach zum Spaß. Solche Zahlungen könnten eines Tages auch auf Twitter stattfinden. Mit einem Elon Musk bei Twitter ist ein solches Szenario zumindest ein kleines bisschen wahrscheinlich wie ohne Musk bei Twitter. 

Insofern ließe sich argumentieren, dass der DOGE-Kurs mit einem Musk bei Twitter zumindest ein kleines bisschen höher stehen sollte als ohne Musk bei Twitter. Die Realität ist aber derzeit noch immer die folgende: Die Marktkapitalisierung von Dogecoin liegt bei 20 Mrd. Dollar, der reale Nutzen leicht über null. Der DOGE-Kurs liegt weiterhin etwas höher als am vergangenen Freitag – gleichzeitig aber wieder weit unter seinem dieswöchigen Höchststand vom Dienstagabend.

Robinhood startet mit Krypto-Wallet, plant Lightning-Integration

Während eine mögliche DOGE-Integration bei Twitter also noch reine Spekulation ist, können Robinhood-User Dogecoin schon länger kaufen. Diese Woche ist der US-Neobroker nun auch mit einer eigenen Wallet gestartet. Diese ist am Donnerstag freigeschalten worden, hat Chief Product Officer (CPO) Aparna Chennapragada bei der Bitcoin-Konferenz in Miami mitgeteilt. 

Der nur am US-Markt aktive Neobroker hatte im vierten Quartal 2021 über 17 Mio. monatlich aktive Nutzer. Nicht alle haben jedoch Zugang zu Wallet – sondern nur jene 2 Mio., die sich einerseits dafür vormerken haben lassen und andererseits nicht in den Bundesstaaten Nevada, New York oder Hawaii beheimatet sind. Dort sprechen die regulatorischen Vorgaben dagegen.

Die Wallet hat jedoch eine ganze Reihe von Einschränkungen, wie CoinDesk berichtet:

  • sie unterstützt keine NFTs, keine ERC-20-Token und generell keine Assets, die Robinhood nicht anbietet
  • Airdrops und Forks werden ebensowenig unterstützt
  • Staking ist derzeit auch nicht möglich

Die Schlussfolgerung: Die Wallet ist ganz klar ein Einsteigerprodukt. Für Krypto-Erfahrene ist sie nicht besonders attraktiv. Unabhängig von den genannten Einschränkungen wird diese Gruppe ihre Assets aber ohnehin lieber in den eigenen selbstverwaltenden Wallets verwahren und nicht bei Robinhood liegen lassen.+

Und noch was: Robinhood möchte seinen Nutzern künftig Bitcoin-Zahlungen über das Lightning-Netzwerk ermöglichen. Der Vorteil von Lightning-Transaktionen ist, dass diese schneller und kostengünstiger sind als Transaktionen, die direkt auf der Bitcoin-Blockchain stattfinden – weshalb sie vor allem im Zahlungsbereich attraktiv sind.

Lightning Labs holt Investment und kündigte Stablecoin-Protokoll Taro an

Apropos Lightning. Da gab’s diese Woche weitere News: Lightning Labs hat 70 Mio. Dollar Investment aufgenommen. Beteiligt haben sich an der Series-B-Runde unter anderem die Investoren Valor, Baillie Gifford, Goldcrest, Kingsway und Stillmark. Gleichzeitig mit der Finanzierungsrunde wurde jedoch auch noch etwas anderes angekündigt: Und zwar die Entwicklung des Taro-Protokolls. 

Der Hintergrund: Mit dem Taro-Protokolls sollen kündigt unterschiedliche Assets über das Lightning-Netzwerk transferiert werden können – beispielsweise Stablecoins. Mit Taro werde die Sicherheit und Stablitität des Bitcoin-Netzwerks mit der Geschwindigkeit, der Skalierbarkeit und den geringen Gebühren des Lightning-Netzwerks kombiniert, heißt es in der Ankündigung des Unternehmens. Taro sei damit „ein wichtiger Schritt in der Bitcoinisierung des Dollar“. Möglich wurde die Entwicklung des Protokolls übrigens durch das vergangenen Herbst live gegangen Taproot-Upgrade von Bitcoin.

Binance.US holt 200 Mio. Dollar Investment zu 4,5 Mrd. Dollar Bewertung

Zum Abschluss noch kurz eine weitere Investmentmeldung: Binance.US hat diese Woche eine Finanzierungsrunde kommuniziert. Der US-Ableger der größten Kryptobörse der Welt hat 200 Mio. US-Dollar zu einer Bewertung von 4,5 Mrd. Dollar aufgenommen. Als Investoren beteiligt haben sich RRE Ventures, Foundation Capital, Original Capital, VanEck, Circle Ventures, Gaingels und Gold House. Mit dem Kapital soll nun die Produktpalette erweitert und neue Angebote geschaffen werden.

Der Kontext: Die eigentliche Handelsplattform von Binance ist am US-Markt nicht verfügbar – aus regulatorischen Gründen. Weil man den Markt aber nicht völlig anderen Anbietern wie Coinbase oder Gemini überlassen wollte, hat Binance bereits 2019 für den US-Markt ein eigenes, deutlich eingeschränktes – Angebot gestartet. 

Ähnlich geht auch der Konkurrent FTX vor, dessen US-Ableger im Jänner eine 400 Mio. Dollar schwere Series-A-Runde zu einer Bewertung von 8 Mrd. Dollar kommuniziert hatte.

Nach Angaben von The Block weist Binance.US hat im vergangenen Monat ein Handelsvolumen von 9 Mrd. Dollar erreicht – mehr als die 5 Mrd. Dollar von FTX US, aber deutlich hinter den 81 Mrd. Dollar der in den USA dominierenden Börse Coinbase. Diese ist im Vorjahr ja selbst an die Börse gegangen – und dort will auch Binance.US hin. In den nächsten zwei bis drei Jahren sei ein Börsengang geplant, sagte Binance.US-CEO Brian Shroder gegenüber TechCrunch.

Weitere News diese Woche:

  • Das zunächst in “Libra” und später “Diem” genannte Stablecoin-Projekt des nun im Meta umbenannten Facebook-Konzerns ist vor wenigen Monaten eingestellt worden. Das Unternehmen arbeitet jedoch weiter an eigenen Token, die im Metaverse eingesetzt werden können. Mehr Details hier.   
  • Beim NFT-Marktplatz und OpenSea-Konkurrenten LooksRare ist Handelsvolumen überraschend schnell gewachsen – allerdings offenbar vor allem aufgrund von „Wash Trades“. Zu unserem Artikel dazu geht es hier.   
  • Die britische Regierung will das Land zu einem globalen Krypto-Zentrum machen und plant entsprechende Regulierungsmaßnahmen. Die Details dazu gibt’s in unserem Artikel.

Hier geht’s zu allen Folgen des brutkasten Crypto Weekly


Disclaimer: Dieser Text sowie die Hinweise und Informationen stellen keine Steuerberatung, Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar. Sie dienen lediglich der persönlichen Information. Es wird keine Empfehlung für eine bestimmte Anlagestrategie abgegeben. Die Inhalte von brutkasten.com richten sich ausschließlich an natürliche Personen.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag