23.04.2021

Darum ist der hohe Stromverbrauch ein existenzielles Problem für Bitcoin

Blockchain-Experte Andreas Freitag beleuchtet in diesem Gastbeitrag, wie sich der Energieverbrauch von Bitcoin entwickeln wird - und warum das auch für die Kryptowährung selbst zum großen Problem werden könnte.
/artikel/bitcoin-mining-energieverbrauch
Andreas Freitag ist Blockchain-Berater bei Accenture.
Andreas Freitag ist Blockchain-Berater bei Accenture. | © Andreas Freitag
Andreas Freitag ist Blockchain-Berater bei Accenture und hat in den letzten Jahren diesen Bereich bei Accenture maßgeblich mit aufgebaut. Seine Themenschwerpunkte sind Self Sovereign Identity, digitales Zentralbankgeld und Crypto Custody. 2018 hat der brutkasten mit Andreas eine mehrteilige Videoserie zum Thema Blockchain gemacht. Alle Folgen sind am Ende dieses Artikels verlinkt.

Der Bitcoin-Kurs geht seit Ende 2020 wieder nach oben – und seitdem wird auch der Energieverbrauch der Kryptowährung wieder kontrovers diskutiert. Mein Beitrag fokussiert sich auf den Energieverbrauch für das sogenannte Mining, nicht auf finanz-, regulative, geldpolitische, soziale oder/und politische Aspekte von Bitcoin. Ich habe – so weit es geht – verfügbare, belastbare Zahlen verwendet und Vergleiche gewählt, um die Dimensionen greifbarer zu machen. Alle Zahlen und Annahmen kann man natürlich im Detail diskutieren, aber die Größenordnungen sind korrekt.

Vorweg: Bitcoin ist eine großartige „Erfindung“ und sie fasziniert mich immer wieder aufs Neue. Bitcoin zeigte, dass es möglich ist, ohne eine zentrale Stelle einen Konsens über Informationen (Transaktionen) zu erzielen und Daten defacto unveränderlich abzuspeichern. Dennoch muss die Diskussion über den Energieverbrauch geführt werden.

Aber wieso braucht Bitcoin überhaupt soviel Energie?

Um die Transaktionen unveränderlich abzuspeichern, wurde das Protokoll Proof of Work (PoW) entwickelt. Dies ist das sogenannte mining. Das Mining besteht darin Transaktionen zu prüfen, in einen Datenblock zu schreiben und einen gültigen Hash-Wert zu finden. Mehr Information dazu findet sich zum Beispiel hier „Blockchain Web Series: Teil 1 – Bitcoin und wie alles begann“.

Den Energieverbrauch verursacht das Finden eines gültigen Hash-Wertes. Das Bitcoin-Protokoll legt fest, dass ein Hash-Wert unter einem bestimmten Wert liegen muss. Da ein Hash-Wert eine rein zufällige Zahl ist, kann man einen gültigen Hash-Wert nur durch probieren finden. Im Moment werden in der Sekunde 170.000.000.000.000.000.000 Hash-Werte berechnet. Diese Zahl ist ca. 20 Mal die Anzahl der gesamten Sandkörner auf der Welt.

Wieso steigt der Energieverbrauch?

Das Mining ist ein Rennen zwischen verschiedenen Minern. Je mehr Hash-Leistung ein Miner hat, desto wahrscheinlicher ist es als erster einen neuen gültigen Hash-Wert findet. Jeder Block bringt zurzeit 6.25 Bitcoins und die Transaktionsgebühren. Wenn der Kurs von Bitcoin steigt, ist ein Block mehr wert und die Miner investieren in zusätzliche Hardware, um ihre Chancen zu erhöhen. Leider macht es dadurch das Rennen für alle schwerer. Das Bitcoin-Protokoll berechnet die Schwierigkeit des Hash-Wertes ca. alle 2 Wochen neu – mit dem Ziel, ein Blockzeit von 10 Minuten einzuhalten.

Wie hoch ist der Energieverbrauch jetzt?

Um das zu berechnen, brauchen wir die gesamte Hash-Leistung des Bitocin-Netzwerkes. Das sind zurzeit ca. 170 Mio. TeraHash pro Sekunde, die zuvor genannte Zahl mit den Sandkörnern. Als nächstes benötigt man für die Berechnung die Hash-Leistung der Mining-Hardware.

Anbei eine Liste von beliebter Mining-Hardware mit der Hashleistung (TH/s, Terahash pro Sekunde) und der Leistungsaufnahme. Daraus errechnet sich, wieviel Leistung für ein Terahash notwendig ist. Für die Berechnung verwende ich 60 Watt pro TH/s. Damit kommt man auf 89 Terawatt (TW) pro Jahr. Das entspricht ca. dem Stromverbrauch von Belgien oder Finnland. Bitcoin-Mining benötigt 33 bis 45 Prozent der Energie von allen Rechenzentren auf der Welt kombiniert.

TypWattTH/sW/THs
Antminer S1932509534,21052632
Antminer T1931508835,79545455
Antminer S913201494,28571429
Antminer S712934,73273,3615222
Antminer S55601,155484,8484848
Quelle: Miners.eu

Die Berechnung stellt nur eine Größenordnung dar und kann je nach Annahmen durchaus um 25% abweichen.

Wo wird die Energie verbraucht?

Auf Basis von IP-Adressen kann man feststellen wo das Mining betrieben wird. Der größte Teil entfällt auf China. Man sieht im Anteil am Gesamtenergieverbrauch des Landes, dass in einigen Ländern ein substantieller Anteil auf das Bitcoin-Mining verwendet wird:

LandAnteil am globalen Bitcoin-MiningEnergieverbrauch Land
(Terawattstunden/Jahr)
Energieverbrauch Mining
(TWh/Jahr)
Anteil Energieverbrauch
durch Mining am Gesamtenergieverbrauch
des Landes
China63,25%7.22656,520,78%
USA7,24%3.9906,470,16%
Russia6,90%9656,170,64%
Kasachstan6,17%925,515,99%
Malaysia4,33%1473,872,63%
Iran3,82%2553,411,34%
Kanada0,82%5490,730,13%
Deutschland0,56%5240,500,10%
Norwegen0,48%1240,430,35%
Venezuela0,42%60,386,25%
andere Staaten6,01%   
Quellen: Statista, Cambridge Bitcoin Electricity Consumption Index

Wie geht es mit dem Verbrauch weiter?

Diese Frage ist schwer zu beantworten. Betrachten wir trotzdem folgendes Szenario:

  • der Bitcoin-Preis steigt auf 1 Mio. Euro pro Bitcoin, was eine Steigerung um das ca. 20-fache wäre
  • es gibt ein unlimitiertes Angebot an Mining-Hardware
  • die Energiekosten bleiben gleich

Das beschriebene Szenario würde zu einer 20-fach höheren Belohnung je Block führen und auch zu einem 20-fachen Anstieg der Hash-Leistung und Energieaufwandes. In der Berechnung nehme ich einen 15-fachen Anstieg an, um auf der konservativen Seite zu sein. Das wären 1.340 TW/h und damit rund 6 Prozent des globalen Energieverbrauches!

LandAnteil am globalen Bitcoin-MiningEnergieverbrauch Land (TWh/Jahr)Energieverbrauch Mining (TWh/Jahr)Energieverbrauch des
Bitcoin-Minings am Gesamtenergieverbrauch
des Landes
China63,25%7.226847,7311,73%
USA7,24%3.99097,042,43%
Russia6,90%96592,489,58%
Kasachstan6,17%9282,7089,89%
Malaysia4,33%14758,0339,48%
Iran3,82%25551,2020,08%
Kanada0,82%54910,992,00%
Deutschland0,56%5247,511,43%
Norwegen0,48%1246,435,19%
Venezuela0,42%65,6393,82%
andere Staaten6,01%   
Energieverbrauch in TWh/Jahr / Berechnung beruht auf der realistischen Annahme, dass sich die Verteilung nach Ländern nicht ändert

Wann müssen die Länder den Stecker ziehen?

Ab einem bestimmten Punkt muss ein Land den Stecker ziehen und Bitcoin-Mining verbieten. Ein Land kann nicht zulassen, dass 5 Prozent oder sogar mehr als 10 Prozent seines Stromverbrauchs auf Mining entfällt. Die chinesische Führung beispielsweise bekennt sich dazu, den CO2-Ausstoß einzuschränken und die Anzahl der Kohlekraftwerke zu reduzieren. Ich gehe davon aus, dass der derzeitige Energieverbrauch bereits diskutiert wird. Ab wann zum China Einschränkungen vornehmen wird, kann man nicht sagen. Ich persönlich glaube, das China etwas unternehmen wird, sobald der Verbrauch auf über 1 Prozent des Gesamtverbrauchs ansteigt.

Bitcoin-Miner würden dann in andere Länder ausweichen und diese würden vor demselben Problem stehen. In Europa ist der Stromverbrauch durch Bitcoin-Mining im Moment noch kein großes Problem. Hier würde man aber aus Klimagründen sehr viel früher Einschränkungen durchführen. Eine Ausnahme bei dieser Überlegung sind Länder, die selbst Bitcoin-Mining betreiben – zum Beispiel, um an Devisen zu kommen wie in Venezuela.

Aber wird Bitcoin-Mining nicht mit Überschussenergie aus Wasserkraftwerken betrieben?

In seltenen Ausnahmefällen vielleicht, aber sicher nicht in einem großen Umfang. Es wird eher “Überschussenergie” aus Kohlekraftwerken verwendet. Miner interessiert nur billige Energie und nicht wo sie herkommt. Nur mit billiger Energie sind sie konkurrenzfähig und verdienen Geld. Die folgende Tabelle zeigt die Verteilung der Mining-Power auf die verschiedenen chinesischen Provinzen und die Zusammensetzung der Quellen für elektrischen Strom in den Provinzen:

LandAnteil BTC-MiningEnergieverbrauch Mining (TWh/Jahr)Thermal
(58,45)
Wasser
(19,47)
Solar
(1,38)
Wind
(5,62
)
Atom
(4,43)
Xinjiang35,76%31,9582%5%2%11% 
Sichuan9,66%8,6312%86% 2% 
Nei Mongol8,07%7,2185% 3%12% 
Yunnan 5,42%4,844%91% 5% 
Beijing1,73%1,5595%5%   
Zhejiang0,92%0,8276%5% 1%18%
Shanxi0,67%0,6092%3% 5% 
Gansu0,51%0,4662%22%4%12% 
Qinghai0,26%0,2320%60%18%2% 
Ningxia0,25%0,2282%2%3%13% 
CHINA63,25%56,52     
Quellen: Resources, Conservation and Recycling, Lawrence Berkeley National Laboratory, FT

Man sieht, dass in der Provinz mit der meisten Miningaktivität, Xinjiang, der Strom zu 82 Prozent aus thermalen Quellen kommt, d.h. von fossilen Brennstoffen. Dabei handelt es sich zumeist um Kohle, da in China in den letzten 10 Jahren sehr viele Kohlekraftwerke gebaut wurden, um den Hunger nach billigem Strom zu stillen.

Der Strombedarf kann auch direkte Auswirkungen auf den Bitcoin-Kurs haben, wie sich beim Kurseinbruch vergangenenes Wochenende gezeigt hat. Es wird darüber spekuliert,  dass ein “Blackout” in Xinjiang dafür verantwortlich war. Dort mussten Kohlekraftwerke aufgrund von Überschwemmungen abgeschaltet werden. Wie in der vorigen Tabelle ersichtlich, konzentrieren sich In Xinjiang ca. 36 Prozent der globalen Bitcoin-Mining-Kapazitäten und 82 Prozent des Stroms in der Provinz wird aus fossilen Energieträgern hergestellt.

Quelle: BitInfoCharts

An der globalen Bitcoin-Hash-Leistung kann man den Blackout sehr gut sehen. Die Hash-Leistung ist um 37 Prozent gefallen – das entspricht ungefähr der kalkulierten Mining-Kapazität in Xinjiang. Das legt den Schluss nahe, dass der überwiegende Anteil des Stroms für das Mining in Xinjiang aus Kohlekraftwerken kommt.

Und verbraucht Bitcoin nicht weniger Strom als Visa oder andere Zahlungsdienste?

Falsch. Andere Zahlungsmöglichkeiten brauchen kein Mining und wir betrachten in der Energiediskussion nur Mining. Wenn das so wäre, würde die Welt bildlich gesprochen brennen. Der globale Energieverbrauch durch Rechenzentren ist 200 bis 250 TWh, Bitcoin-Mining alleine liegt bei ca. 90 TWh!

Wie kann man Bitcoin „retten“?

Bitcoin ist „nur“ eine Software. Das heißt: Man kann sie anpassen. Der Nachteil bei Bitcoin ist, dass alle Gruppen, die aktiv im Bitcoin-Netzwerk beteiligt sind, freiwillig updaten müssen. Und hier wird es schwierig: Miner investieren hohe Beträge und das Geschäftsmodell ist auf das derzeitige Protokoll ausgerichtet.

Es geht aber auch anders: Zum Beispiel wurde Ethereum mit dem Ziel entwickelt, den Proof-of-Work-Ansatz durch das sogenannte Proof of Stake (PoS) zu ersetzen. Derzeit wird versucht, den Übergang von PoW zu PoS zu schaffen. Aber auch hier hat man derzeit enorme Widerstände aus dem Netzwerk, da bestehende Geschäftsmodelle gefährdet sind.

Es geht also wieder um das Geld. Meiner Meinung wird es nur zu Änderungen kommen, wenn Bitcoin massiv unter Druck kommt – zum Beispiel durch Mining-Verbote.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag