20.12.2017

Bitcoin: 8 Probleme der bekanntesten Kryptowährung

Analysten der Raiffeisen Research haben acht Kritikpunkte an Bitcoin niedergeschrieben. Wir haben sie um unsere Anmerkungen ergänzt.
/artikel/bitcoin-8-nachteile-der-bekanntesten-kryptowaehrung
8 Probleme von Bitcoin
(c) fotolia.com - AA+W

Bitcoin wird als derzeit bekanntester konkreter Anwendungsfall der Blockchain-Technologie von einigen als “Zahlungsmittel der Zukunft” propagiert. Tatsächlich weist die Kryptowährung jedoch einige beträchtliche Nachteile als potenzielles Zahlungsmittel auf. Dies gilt auch im Vergleich zu einigen anderen Kryptowährungen, die manche dieser Probleme bereits jetzt besser lösen. Auch abseits der Zahlungsmittel-Frage sind bei Bitcoin noch einige große Themen offen. Analysten der Raiffeisen Research haben innerhalb einer größeren Bitcoin-Analyse acht große Schmerz-Punkte herausgearbeitet. Der Brutkasten hat einige davon um kritische Anmerkungen ergänzt.

+++ Umfrage: 31 Prozent der Österreicher für Bitcoin-Verbot +++

1. Extrem hohe Volatilität

Es ist fraglich, wie weit sich ein Zahlungsmittel durchsetzen kann, das innerhalb eines Tages Wertschwankungen von 10 bis 20 Prozent aufweist. Wer würde es im Tausch gegen Waren hergeben, wenn der Preis für Bitcoin in wenigen Stunden schon 20 Prozent höher sein könnte? (Und man damit in Euro umgerechnet um 20 Prozent zu viel für die Ware gezahlt hätte?) Und wer würde es im Tausch gegen eine Ware akzeptieren, wenn er befürchten muss, dass der Kurs in kürzester Zeit auch 20 Prozent tiefer sein könnte?

Anmerkung der Redaktion: Es könnte sich hierbei auch um ein Henne-Ei-Problem handeln. Die Volatilität würde theoretisch drastisch zurückgehen, wenn Bitcoin flächendeckend als Zahlungsmittel genutzt wird. Denn dann würden Preise für Waren und Dienstleistungen, wie derzeit in Euro, in Bitcoin definiert. Und diese würden nicht ununterbrochen geändert. Entsprechend wäre dann zwar eine Volatilität zu anderen Währungen, nicht aber in der Kaufkraft gegeben. Die Volatilität in der Kaufkraft ist aber jene, die für die Eignung als Zahlungsmittel entscheidend ist.

2. Kann ein reines Spekulationsobjekt langfristig werthaltig sein?

Die Frage hängt natürlich mit Punkt 1 zusammen. Der bisher verzeichnete starke Kursanstieg macht Bitcoin eher zu einem Spekulationsobjekt. Etwas, das man für Kursanstiege hortet, aber nicht zum Bezahlen verwendet. Die Verwendung als großflächiges Zahlungsmittel wäre aber die Voraussetzung dafür, dass Bitcoin langfristig überhaupt werthaltig ist.

Anmerkung der Redaktion: Erstens ist ein Ausschluss als Zahlungsmittel aufgrund der oben genannten Gründe noch nicht gegeben. Zweitens steht hier das wohl älteste aller Spekulationsobjekte als Gegenbeispiel: Gold. Das Edelmetall hat in den vergangenen Jahrzehnten tatsächlich einen Nutzbarkeits-Wert als wichtiger Rohstoff in der Elektronik-Industrie erhalten. Bis dahin hatte sich sein Wert jedoch über Jahrtausende nur durch seine Eigenschaft als Spekulationsobjekt generiert.

3. Rückabwicklung von Zahlungen nicht möglich.

Irrtümliche/ fehlerhafte Transaktionen können nicht rückgängig gemacht werden, da es keine zentrale Instanz gibt, an die man appellieren und die in die Transaktionen eingreifen könnte.

4. Begrenzte Vermehrbarkeit von Bitcoin

Hängt mit Punkt 2 zusammen. Bitcoin ist so programmiert, dass maximal 21 Mio Stück produziert werden können (mit Unterteilbarkeit bis zu 1/100.000.000 Bitcoin [= 1 Satoshi] für kleinere Zahlungen). 16 Millionen davon sind bereits produziert. Für spekulative Kursanstiege ist diese begrenzte Vermehrbarkeit ein Vorteil, weil durch die künstliche Knappheit die Kursfantasie beflügelt wird. Als breitflächig verwendetes Zahlungsmittel würde es aber kontinuierliche Deflation für Güter und Warenpreise bedeuten (in Bitcoin ausgedrückt müssen
Güterpreise fallen, weil deren Menge zunimmt (Wirtschaftswachstum), die Anzahl an Zahlungsmittel aber (in Kürze) nicht mehr vermehrbar ist. In den letzten 200 Jahren hat man aber mit einem deflationären Umfeld eher schlechte Erfahrungen gemacht, weshalb die meisten Notenbank eine leicht positive Inflation anstreben.

Anmerkung der Redaktion: Die Bemerkung “in Kürze” stimmt nicht ganz. Aufgrund des Algorithmus dauert es noch mehrere Jahrzehnte, bis alle Bitcoins ausgegeben sind. Allerdings verringert sich auch die ausgegebene Menge kontinuierlich. Ein weiteres Problem bei dieser Thematik ist die hohe Konzentration der Kryptowährung auf einige Groß-Eigentümer. Erst kürzlich brachte die Nachrichtenagentur Bloomberg eine Schätzung, wonach sich 40 Prozent der Bitcoins im Besitz von nur 1000 Personen befinden. Ungleiche Vermögensverteilung ist natürlich auch bei den derzeitigen Standard-Währungen gegeben. Eine gar nicht wachsende Geldmenge und damit verbundene Deflation macht eine Änderung dieses Zustands aber noch schwieriger.

5. Relativ hohe Transaktionskosten

Aufgrund des hohen dahinterliegenden Rechenaufwands sind die Transaktionskosten für Bitcoin relativ hoch (aktuell mehrere USD /Zahlung), was es für kleine Zahlungen des täglichen Bedarfes in der derzeitigen Form uninteressant macht.

Anmerkung der Redaktion: Die Transaktionskosten funktionieren nach einer Art Auktionssystem. Man kann auch geringere Transaktionskosten zahlen, wird dann aber hinter jene User gereiht, die mehr bezahlen. Es kann dann sogar mehrere Tage dauern, bis eine Transaktion durchgeführt wird. Die “Warteschlange” wird aufgrund der langsamen Abwicklung (siehe Punkt 6) immer länger.

6. Relativ langsam bei der Abwicklung

Zwar wird als ein Vorteil genannt, dass bei Kryptowährungen keine externe Abwicklung (Settlement) benötigt wird, die im Bankbereich oft
Tage dauern kann. Insofern beschleunigt und vereinfacht die Blockchain den Zahlungsverkehr. Bis aber bei einer konkreten Bitcoin-Zahlung beide Vertragsparteien Gewissheit haben, dass die Zahlung wirklich durchgeführt wurde, können derzeit Stunden vergehen (während bei einer Bankomatzahlung diesbezüglich binnen Sekunden Rechtsklarheit herrscht. Auch hier gibt es also noch gravierenden Verbesserungsbedarf.

Anmerkung der Redaktion: Bei Bitcoin können theoretisch (momentan) weltweit nur bis zu sieben Transaktionen pro Sekunde abgewickelt werden. Tatsächlich liegt die Zahl darunter. Zum Vergleich: Kreditkarten-Unternehmen kommen da auf eine sechstellige Zahl. Mit einer weiteren Ausbreitung wird sich die Transaktions-Warteschlange bei Bitcoin noch weiter verschärfen. Allerdings wird auch an einer Verbesserung des Systems gearbeitet. Das führte zu den “Soft Forks” der letzten Monate – das sind Updates im System. Auch die Abspaltungen (“Hard Forks”) von Bitcoin Cash und Bitcoin Gold wurden teilweise mit einer Erhöhung der Transaktionszahl begründet.

7. Keine öffentliche Instanz, die bei Problemen intervenieren kann

Eng verwandt mit Punkt 3. Bedeutet aber auch, dass bei größeren Problemen oder Änderungsbedarf im Zahlungsnetzwerk keine Möglichkeit besteht, zentral einzugreifen. Für Weiterentwicklungen müssten sich vielmehr alle involvierten Computer-Betreiber einigen. Das führt in der Praxis dazu, dass es oft keinen Konsens gibt, und sich die Währung in zwei Klone aufspaltet (“Hard Fork” genannt), die als alte und neue Version von Bitcoin nebeneinander bestehen bleiben (z.B. Bitcoin vs. Bitcoin Cash).

Anmerkung: Dass kein zentraler Player eingreifen kann, ist andererseits auch eines der größten Argumente für Kryptowährungen. Genau die Kontrolle durch zentrale Instanzen soll ja durch die Nutzung der Blockchain-Technologie ausgeschaltet werden. Ein Vorteil ist etwa, dass Korruption innerhalb des Systems verunmöglicht wird.

8. Extrem hoher Elektrizitätsverbrauch für die Abwicklung von Zahlungen (Proof of work)

Der Rechenprozess, der hinter der Abwicklung von Transaktionen via Bitcoin steht, ist bewusst sehr aufwendig gestaltet, um Manipulationen zu verhindern. Das führt zu einem hohen Stromverbrauch der beteiligten Rechner. Dementsprechend müssen die “Miner” (längst große spezialisierte Server-Farmen, ein großer Teil von ihnen in China mit Zugang zu billigem Strom), die ihre Computer für den Rechenprozess zur Verfügung stellen, auch für ihren Rechenaufwand mit (während des “Minings”, also dem Prozess des Abwickelns der Transaktionen) neu geschaffenen Bitcoins und Transaktionskosten entlohnt werden. Dieser Elektrizitätsverbrauch ist inzwischen ein beträchtlicher Kostenfaktor: Laut digiconomist.net verbraucht das Bitcoin-Zahlungssystem (inklusive seines Klons Bitcoin Cash) in seiner aktuellen Dimension annualisiert bereits über 30 TWh Strom /Jahr – das ist mehr als der Stromverbrauch Irlands. Eine einzelne Bitcoin-Transaktion verschlingt in der derzeitigen Form Elektrizität, mit der der Tagesbedarf von 9 US-Haushalten abgedeckt werden könnte.

Anders dargestellt: Das Zahlungsnetzwerk von VISA wickelte letztes Jahr 82 Mrd. Transaktionen ab (gegenüber derzeit annualisiert rund 100 Millionen Transaktionen bei Bitcoin). Seine Rechenzentren verbrauchten dafür eine Strommenge, die dem Jahresbedarf von 50.000 US-Haushalten entspricht. Das Computer-Netzwerk von Bitcoin verschlingt dagegen bereits in seiner derzeitigen rudimentären Form annualisiert den Stromverbrauch von knapp 3 Millionen (!) US-Haushalten, und der Verbrauch steigt mit dem Wachstum des Transaktionsvolumens bzw. dem Wert von Bitcoin weiter an. Um andere Zahlungsmittel abzulösen ist dieser Ansatz kaum realistisch, die Technik müsste dazu weiterentwickelt werden – entweder innerhalb Bitcoins, oder in Form einer anderen Kryptowährung (für die Profis: z.B. Proof-of-Stake anstelle von Proof-of-Work Protokoll).

Anmerkung: Tatsächlich arbeitet man gerade etwa bei Ethereum an einer schrittweisen Umsetzung des Proof of Stake-Konzepts. Andere Kryptowährungen, wie zuletzt auch Neuzugang Cardano nutzen ausschließlich das deutlich energiesparendere Konzept. Zudem werden momentan laufend weitere Distributed Ledger Technologies vorgestellt, die wieder andere (energieeffizientere) Systeme nutzen. Wenn sich Proof of Stake oder eines dieser Systeme durchsetzt, bedeutet das auch das Ende des Krypto-Minings.

+++ Bitcoin knackt die 10.000 Dollar-Marke – eine Analyse +++


⇒ Zur Page von Raiffeisen Research

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag