01.04.2022

Crypto Weekly #50: Bitcoin-Jahreshoch, LUNA-Allzeithoch – und der 625-Mio.-Dollar-Hack

Trotz fallender Kurse am Freitag hielt die Erholung am Kryptomarkt diese Woche an. Außerdem: Was hinter dem Solana-Kursanstieg steckt. Was der Beschluss des EU-Parlaments zu selbstverwalteten Wallets bedeutet. Und warum der Axie-Inifity-Hack besonders brisant ist.
/artikel/crypto-weekly-50
Axie Infinity
Foto: Adobe Stock

Im brutkasten Crypto Weekly, das hier per Mail abonniert werden kann, blicken wir jeden Freitag auf die wichtigsten Kursbewegungen und Nachrichten der Krypto-Woche zurück. Wie immer starten wir dabei mit einem Blick auf…


..die Kurstafel:

  • Bitcoin (BTC): 45.100 US-Dollar (+1 % gegenüber Freitagnachmittag der Vorwoche)
  • Ethereum (ETH): 3.300 Dollar (+4 %)
  • Binance Coin (BNB): 431 Dollar (+3 %)
  • Cardano (ADA): 1,13 Dollar (+/-0 %)
  • Solana (SOL): 124 Dollar (+20 %)
  • Terra (LUNA): 102 Dollar (+9 %)

Bitcoin fällt von 48.000 Dollar wieder zurück, LUNA mit Allzeithoch

Zum Wochenausklang fielen zwar die Kurse, insgesamt hat sich die Erholung am Kryptomarkt in den vergangenen sieben Tagen jedoch fortgesetzt. Nach mehreren schwierigen Monaten sind die Anleger wieder etwas zuversichtlicher geworden. Die bestimmenden Themen der vergangenen Wochen waren eindeutig auf der Makroebene angesiedelt – einerseits der Ukraine-Krieg, andererseits die steigenden Zinsen in den USA. Und beigelegt ist beides nicht. Dennoch hat sich die Aufmerksamkeit am Markt zuletzt etwas wegverlagert – was sich in steigenden Kursen niederschlug.

Sehen wir uns etwa Bitcoin an: Hier stieg der Kurs am Montag auf über 48.000 Dollar. Diese Marke war davor zuletzt am 31. Dezember 2021 überschritten worden – womit der Kurs also für 2022 einen Höchststand erreicht hat. Noch besser verlief die Woche für den Terra-Token LUNA: Er stieg am Mittwoch bis auf 110 Dollar und erreichte damit überhaupt ein neues Allzeithoch.

Und damit sind wir auch schon beim Thema. Denn kaum etwas wurde zuletzt am Markt intensiver diskutiert als die Bitcoin-Investitionen der Luna Foundation Guard (LFG). Hintergrund: Schon länger ist bekannt (und wurde auch hier im Crypto Weekly berichtet), dass der größe Stablecoin des Terra-Ökosystems, UST, zum Teil mit Bitcoin-Reserven hinterlegt werden soll. Terra-Gründer Do Kwon – sowohl CEO der LFG als auch von Terraform Labs – bestätigte diese Woche gegenüber Bloomberg, dass LFG seit Ende Jänner bereits über 1 Mrd. US-Dollar in Bitcoin gesteckt hat. Alleine am vergangenen Monat wurden 135 Mio. Dollar investiert. 

Den jüngsten Kursanstieg alleine auf Kwons Käufe zurückzuführen, wäre angesichts der Relation der Investitionen zu den täglichen Bitcoin-Handelsvolumina übertrieben. Aber die Signalwirkung hat sicherlich zur aufgehellten Stimmung am Markt beigetragen. Zumal Kwon nun auch gesagt hat, dass die Bitcoin-Reserven von UST langfristig bis auf 10 Mrd. Dollar steigen könnten.

Ein anderer alter Bekannter hat diese Woche übrigens auch weitere Bitcoin-Investments angekündigt: Michael Saylor, dessen Unternehmen MicroStrategy mehr Bitcoin hält als jedes andere. Laut Zahlen der Plattform bitcointreasuries.net sind es aktuell 125.000 Bitcoin – nach aktuellem Marktwert also fast 6 Mrd. Dollar. Saylor will mit MicroStrategy nun weitere 205 Mio. Dollar aufnehmen, um diese wieder in Bitcoin zu investieren.

Solana mit starker 7-Tages-Performance

Die stärkste 7-Tages-Performance unter den größten Coins wiesen aber weder Bitcoin noch LUNA auf – sondern Solana. Um satte 20 Prozent ging es seit vergangenem Freitag nach oben. In er Vorwoche war der Kurs erstmals seit Anfang März wieder über die 100-Dollar-Marke gestiegen. Nun ging es weiter nach oben. Mit 124 Dollar steht der SOL-Token aber noch immer weit unter dem Rekordhoch von 260 Dollar – das im vergangenen November erreicht worden war.

Positiv ausgewirkt haben dürfte sich eine Ankündigung von OpenSea: Der führende NFT-Handelsplatz gab diese Woche bekannt, im April Solana-basierte NFTs auf seine Plattform aufzunehmen. Dass es dazu kommen würde, war schon seit Monaten gemutmaßt worden – nicht umsonst betitelte OpenSea die Ankündung ironisch als “the best kept secret in web”.

EU-Parlament stimmt für Identitätsprüfung bei privat verwalteten Wallets

Von der regulatorischen Seite kam diese Woche dagegen Gegenwind. Am Donnerstag haben zwei Ausschüsse im EU-Parlament für einen umstrittenen Vorschlag gestimmt, der starke Einschränkungen für selbstverwaltete Wallets bringen soll. 

Die Fakten: Konkret sollen Anbieter von Krypto-Dienstleistungen – etwa Börsen – verpflichtet werden zu prüfen, wer hinter einer selbstverwalteten Wallet steht, wenn auf diese oder von dieser überwiesen wird. Ist eine solche Prüfung nicht möglich, dürften dann keine Überweisungen durchgeführt werden.

Der Kontext: Nicht betroffen ist klarerweise jeder, der Krypto-Assets beispielsweise bei Bitpanda oder Coinbase kauft und sie dort liegen lässt. Die Anbieter kennen die Identität der Person ja bereits. Klar ist aber auch: Wer sich ernsthaft mit Krypto-Assets beschäftigt, macht genau dies nicht. Sondern kauft die Coins bei einer Börse und verlagert sie dann umgehend in die eigene Wallet. Ob eine solche Wallet aber tatsächlich die eigene ist oder die von jemand ganz anderen, ist für die Börse ohne weitere Prüfung natürlich nicht nachvollziehbar. Und genau das soll die neue Regulierung nun ändern. 

Wie das in der Praxis genau umgesetzt werden soll, ist noch offen. Eine Befürchtung dabei: Manche Anbieter könnten zum Schluss kommen, dass solche Prüfungen zu aufwendig sind und deshalb gleich gar keine Transaktionen zu selbstverwalteten Wallets mehr erlauben. Das wäre natürlich ein massiver Einschnitt. 

Allerdings: Durch ist die Sache noch nicht. Zwar hat das Parlament nun einen Entwurf beschlossen – aber eben nur das Parlament. Jetzt starten erst noch die Verhandlungen mit zwei weiteren wichtigen EU-Institutionen, der Kommission und dem Ministerrat. 

Der bekannt Bitcoin-freundliche deutsche Bundestagsabgeordnete Frank Schäffler von der Regierungspartei FDP setzt etwa darauf, dass sein Parteifreund Finanzminister Christian Lindner “diesen Unsinn im Trilog mit EP und Kommission noch verhindern kann”, wie er auf Twitter schrieb.

625 Mio. Dollar bei Hack von Axie-Infinity-Blockchain erbeutet

Doch nicht von regulatorischer Seite gab es diese Woche Unerfreuliches zu berichten: Es gab leider auch wieder einen massiven Hack im Kryptobereich – und zwar im Bereich des Krypto-Gamings. 

Die Fakten: Spricht man vom Themenbereich Krypto und Gaming, fällt ein Name mit an Sicherheit grenzender Wahrscheinlichkeit: Axie Infinity. Das NFT-Game hat wie kaum ein anderes zur Popularität des – in der Gaming-Community durchaus umstrittenen – “Play to earn”-Modells beigetragen. In die Schlagzeilen kam Axie Infinity diese Woche aber aus einem anderen Grund – und zwar wegen eines massiven Hacks.

Dazu muss man Folgendes wissen: Axie Infinity läuft auf der Ronin-Blockchain, einer Sidechain des Ethereum-Netzwerks. Mittels einer Bridge können Assets von anderen Blockchains auf die Ronin-Chain übertragen werden. So transferiert man etwa Ether (ETH) oder den Stablecoin USDC auf das Ronin-Netzwerk und kann dann etwa NFT-basierte In-Game-Items von Axie Infinity kaufen. 

Genau diese Bridge hat sich nun als Schwachstelle erwiesen: Ein Hacker konnte 173.600 Ether (aktuell ungefähr rund 600 Mio. Dollar) sowie rund 25 Mio. USDC von der Blockchain abziehen.

Der Kontext: Der Hack ist aus mehreren Gründen besonders brisant: Einerseits ist natürlich die Summe enorm. Es handelt sich dabei um einen der größten Krypto-Hacks überhaupt. Das Portal Rekt, das Hacks aus dem DeFi-Bereich dokumentiert, weist ihn nun auf der unrühmlichen Spitzenposition aus – vor dem Poly-Network-Hack im Oktober und dem Wormhole-Hack im Februar, bei denen allerdings die erbeuteten Beträge großteils entweder wiederhergestellt oder ersetzt wurden.

Apropos Wormhole. Da sind wir gleich beim zweiten brisanten Aspekt. Denn wie schon beim Wormhole-Hack war wieder eine Cross-Chain-Bridge betroffen. Und die stehen schon länger in der Kritik – als potenzielle Sicherheitslücken. Ethereum-Gründer Vitalik Buterin hatte dies beispielsweise im Jänner in einem längeren Reddit-Posting thematisiert. 

Seine Schlussfolgerung: Wir steuern zwar auf eine “Multi-Chain”-Welt zu, nicht aber auf eine “Cross-Chain”-Welt. Heißt: Mehrere große Blockchains werden nebeneinander existieren, aber eben nebeneinander und nicht ineinander verwoben. An diese Stelle sollte man aber erwähnen, dass sich beim Wormhole-Hack dann herausgestellt hat, dass das Problem ein Smart-Contract-Bug war und nicht die Sicherheitsarchitektur per se. Dass wir nun aber wieder einen massiven Hack in Zusammenhang mit einer Bridge erlebt haben, wird die Diskussion sicherlich weiter anheizen. 

Weitere News diese Woche:

  • Die Krypto-Startups Blockpit und TMIA (NodeVenture), sowie die Blockchain-Company Akarion bilden gemeinsam den „Danube Blockchain Hub“ in der Linzer Tabakfabrik. Zum Artikel geht’s hier.   
  • Blockchain.com ist nach einer Series-D-Finanzierungsrunde mit einer Bewertung von 14 Mrd. Dollar jetzt ein „Decacorn“. Zu unserem Artikel dazu geht es hier.
  • Das Wiener Krypto-Startup Riddle&Code hat gemeinsam mit Wien Energie das Joint Venture Riddle&Code Energy Solutions gegründet und mit Kai Siefert dafür nun einen neuen Leiter gefunden. Alle Details dazu gibt’s in unserem Artikel.

Hier geht’s zu allen Folgen des brutkasten Crypto Weekly


Disclaimer: Dieser Text sowie die Hinweise und Informationen stellen keine Steuerberatung, Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar. Sie dienen lediglich der persönlichen Information. Es wird keine Empfehlung für eine bestimmte Anlagestrategie abgegeben. Die Inhalte von brutkasten.com richten sich ausschließlich an natürliche Personen.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag