27.10.2023

Krypto-Forscher über DeFi: „Würde von De-facto-Centralized-Finance sprechen“

Bernhard Haslhofer forscht am Complexity Science Hub Vienna zum Thema Decentralized Finance (DeFi) und ist einer der Cofounder des Wiener Blockchain-Datenanalyseunternehmens Iknaio. Im brutkasten-Interview spricht er über eine neue Studie zum Thema Krypto-Kriminalität, über die Frage, wie dezentral DeFi wirklich ist und wie sich Iknaio von Konkurrenten abhebt.
/artikel/bernhard-haslhofer-defi-zentralisierung
DeFi-Forscher Bernhard Haslhofer
Bernhard Haslhofer | Foto: Anja Böck/Complexity Science Hub

Ein dezentrales Finanzsystem ohne Mittelsmänner aufzubauen – das ist die Idee hinter Decentralized Finance (DeFi). Und dabei gab es durchaus Achtungserfolge: Protokolle wie die dezentrale Börse Uniswap oder die auf den Verleih von Kryptowährungen spezialiserte Anwendung Aave konnten sich in den vergangenen Jahren am Markt etablieren. In den beiden genannten Protokollen sind aktuell etwa Krypto-Assets im Gegenwert von mehreren Milliarden US-Dollar hinterlegt.

Gleichzeitig kam es im DeFi-Bereich aber auch immer wieder zu Hacks, Diebstählen und Betrügereien. Für großes Aufsehen in der Szene sorgte zuletzt etwa im August ein Hack des Protkolls Curve (brutkasten berichtete). Es war aber bei weitem nicht der erste. Ein kürzlich auf der Plattform ArXiv veröffentlichter Preprint einer Studie des Complexity Science Hub Vienna und der Universität Montreal liefert nun konkrete Zahlen zu Kriminalität im Krypto-Bereich.

Studie sieht 30 Mrd. Dollar Schaden durch Krypto-Kriminalfälle

Die Ergebnisse: 2017 und 2022 kam es mindestens zu 1.155 Straftaten im Kryptobereich. Durch diese entstand kombiniert ein Schaden von mindestens 30 Mrd. US-Dollar. Die Studie nennt durchwegs nur Mindestwerte – weil sie sich ausschließlich auf nachweisbare Zahlen stützt. Das bedeutet aber auch: Der tatsächliche Schaden liegt sicher noch höher.

Bei der Hälfte der Taten kam es zu einem Schaden von über 356.000 US-Dollar. Den größten verursachte ein Fall rund um die Plattform Africrypt, bei dem 3,6 Mrd. US-Dollar verschwanden. Africrypt wurde in der Studie in den Bereich Centralized Finance (CeFi) eingeordnet. Dabei handelt sich um Krypto-Plattformen, die über ein zentralisiertes Verwaltungssystem verfügen.

Zwei Drittel der Fälle im CeFi-Bereich, ein Drittel bei DeFi

Bei der Hälfe der Angriffe betrug der Schaden mehr als 356.000 Dollar, wobei sich der kleinste „Hack“ auf nur 158 US-Dollar belief, während beim größten 3,6 Milliarden US-Dollar verschwanden. Dieser enorme Verlust stand im Zusammenhang mit Africrypt, einer zentralisierten Finanzplattform (CeFi) aus Südafrika. 20 Mrd. der gesamten Schadenssumme von 30 Mrd. Dollar, also zwei Drittel, entfallen auf CeFi-Plattformen und Anwendugen. Den Rest machen DeFi-Anwendungen aus.

Einer der Autoren der Studie ist Bernhard Haslhofer. Er leitet die Forschungsgruppe Cryptofinance am Complexity Science Hub und das kürzlich gestartete Forschungsprojekt „DeFi Trace“. Außerdem ist er Cofounder des Wiener Blockchain-Analyseunternehmens Iknaio. Haslhofer erläutert im brutkasten-Interview die Hintergründe zur Studie, spricht über die Frage, wie dezentral DeFi tatsächlich ist und erläutert, wie sich Inkaio von Konkurrenten differenziert.


brutkasten: Welchen Anspruch habt ihr mit der neuen Studie verfolgt?

Das Allerwichtigste ist, dass wir jetzt ein empirisch fundiertes Zahlenwerk zum Schadensvolumen haben. Bis dato schwirren vor allem Zahlen herum, die von Security-Firmen publiziert wurden. Da weiß man aber nie genau, welche Daten verwendet wurden und nach welcher Methode die Zahlen berechnet wurden.

Der Anspruch unserer Studie war, dass wir uns empirisch fundiert mit dem Thema DeFi und Kriminalität auseinandersetzen und analysieren, in welchen Zusammenhängen DeFi für illegale Zwecke verwendet wird.

Die von euch genannten Schadensvolumen sind immer Mindestwerte. Kann man abschätzen, wie hoch die Dunkelziffer ist – also um wie viel höher der tatsächliche Schaden liegt?

Ich habe schon an mehreren Studien zu diesem Themenbereich gearbeitet – etwa zu Ransomware oder Sextortion. Wir berichten immer nur über messbare Beobachtungen, also Mindestwerte. Schätzungen zu nicht beobachteten Ereignissen wären aus wissenschaftlicher Sicht wenig seriös.

Wie habt ihr die Vorfälle gesammelt, die in die Studie eingeflossen sind?

Es gibt Datenbanken, in denen globale Communities Vorfälle im Zusammenhang mit Krypto systematisch erfassen. Unsere Studie stützt sich auf drei solche Datenbanken, aus denen wir über Schnittstellen sogenannte Crime Events heruntergeladen haben. Gemeinsam mit der Economic Crime Group der University of Montreal sind wir 1.155 solcher Ereignisse manuell durchgegangen. Die Kolleginnen in Montreal sind auf Wirtschaftskriminalität spezialisiert.

Wir haben die Vorfälle kategorisiert: Stehen sie in einem Zusammenhang mit Centralized Finance (CeFi) – wurde zum Beispiel eine Exchange gehackt? Oder war es ein Rugpull mit einem Token? Das war manuelle Knochenarbeit. Dafür ist die Datenbasis aus unserer Sicht relativ solide. Nachdem es aber durchaus noch Vorfälle geben kann, die nicht in diesen Datenbanken erfasst wurden, handelt es sich bei den Zahlen in unserer Studie, wie erwähnt, immer nur um Mindestwerte.

In der Studie unterscheidet ihr zwischen CeFi und DeFi. Wie definiert ihr CeFi und wie grenzt es sich von DeFi ab?

Unter Centralized Finance versteht man Services, die  einen zentralisierten Aspekt haben – beispielsweise Kryptowährungsbörsen. Da kann es durchaus vorkommen, dass diese gehackt werden, oder dass Gelder verschwinden, manchmal auch die CEOs gleich dazu.

Von den 30 Mrd. Dollar, die wir in unserer Studie nennen, entfallen 10 Mrd. auf DeFi und 20 auf CeFi. Und von diesen 20 macht der bekannte AfriCrypt-Vorfall alleine 3,6 Mrd. aus. Da sind die beiden CEOs, die damals noch Teenager waren, abgetaucht – und das Geld ist verschwunden. Das ist ein Beispiel für CeFi.

Dagegen sind Uniswap oder Sushiswap genauso wie Compound oder Aave klassische DeFi-Protokolle. Da stehen keine klassischen Organisationen, wie zum Beispiel Firmen dahinter, die diese Services betreiben – zumindest nicht explizit. 

Allerdings wird in der Kryptoszene auch bei DeFi-Protokollen immer wieder kontrovers diskutiert, wie dezentral unterschiedliche Anwendungen wirklich sind. Wie blickst du auf diese Diskussion?

Dazu muss ich etwas ausholen. Ich bin seit zehn Jahren in dem Bereich wissenschaftlich unterwegs und wenn ich die wichtigsten Erkenntnisse aus dieser Zeit zusammenfassen müsste, würde ich drei Punkte nennen – ausgehend von der ursprünglichen Idee von Krypto-Assets bis hin zur heutigen Realität.

Der erste Punkt ist, dass es die ursprüngliche Idee von Crypto Assets war, weitestgehend anonyme Zahlungen zu ermöglichen. Das ist heute definitiv nicht der Fall. Vielmehr haben wir eines der transparentesten Finanzsysteme, das jemals geschaffen wurde. Aus Privacy-Sicht ist es eine Dystopie. Würde  man Blockchain-Daten und Exchange-Daten zusammenführen, wäre ein großer Teil der Transaktionsdaten komplett offen und transparent.

Eine zweite ursprüngliche Idee war es, globale Zahlungen zu ermöglichen. Da sehen wir, dass Blockchain Technologie per se nicht ausreichend skaliert.

Der dritte Punkt ist dann die Idee der Dezentralisierung. In der Forschung sprechen wir eigentlich heutzutage von einer De-facto-Zentralisierung – auf allen technischen Ebenen. Das betrifft die Peer-to-Peer-Ebene, das betrifft das Mining und auch die Governance-Strukturen von dezentralen Protokollen.

Alleine die Diskussion, was wirklich DeFi ist, in einem System, das eigentlich dezentral sein sollte, zeigte schon, dass die Grundidee in ihrer ursprünglichen Form nicht realisiert wurde. Es gibt ja mittlerweile auch im Krypto-Bereich zentralisierte Institutionen, die Funktionen übernommen haben, die klassischen Finanzdienstleistern sehr ähnlich sind. Das beste Beispiel sind zentrale Krypto-Exchanges.

Ist der Begriff Decentralized Finance in diesem Sinn Etikettenschwindel?

Ich würde von De-facto-Centralized-Finance sprechen. Man sieht das beispielsweise auf der Ebene der Governance-Token. Es gibt wissenschaftliche Studien, die zeigen, dass die Governance-Strukturen vieler DeFi-Protokolle oft sehr zentralisiert sind.

Das heißt nicht unbedingt, dass sie in der Hand einer einzigen Person sind. Aber häufig ist es eine relativ kleine Gruppe von Governance-Token Besitzern, deren Identität man in der Regel nicht kennt. Daher würde ich nicht von einer tatsächlichen Dezentralisierung sprechen.

Hat DeFi dann überhaupt eine Berechtigung?

Ich sehe das mit der Innovationsbrille – und die technische Innovation, die im Kontext von DeFi stattfindet, ist unheimlich spannend, etwa das System von Automated Market Makers. Es ist häufig so, dass bestimmte Innovationen dezentral beginnen und es später zu starken Zentralisierungstendenzen kommt. Am Ende des Tages werden dann ähnliche Services doch auch wieder von Institutionen betrieben.

Auch im Bereich der Krypto-Assets gibt es mittlerweile Unternehmen, die zentrale Rollen im Ökosystem einnehmen. Wenn ein durchschnittlicher Benutzer Bitcoin über eine Börse kauft und dort in einer Custodial Wallet hält, interagiert er ja nicht mehr mit der Blockchain selbst, sondern mit einem Service, das von Unternehmen zur Verfügung gestellt wird.

Du hast auch bereits die Transparenz von blockchain-basierten Systemen angesprochen. Bei diesem Punkt setzt dann ja auch das von mitgegründete Unternehmen Iknaio an. Welchen Anspruch verfolgt ihr hier genau?

Wir bauen maßgeschneiderte Analysemethoden für Forensik im Bereich Krypto-Assets und andere Fragestellungen im Zusammenhang mit Krypto-Assets. Im DeFi-Bereich stehen aktuell alle vor der Herausforderung, dass die Geldflüsse nicht mehr ganz so einfach und ganz so straightforward analysierbar sind.

Bei Bitcoin konnte man einen Geldfluss noch schön über ein User-Interface nachvollziehen. Aber im DeFi-Bereich nimmt die Komplexität und das Datenvolumen enorm zu. Da braucht es komplett neue Zugänge.

Wie differenziert ihr euch mit Iknaio von den führenden Marktakteuren im Bereich Blockchain-Datenanalyse – etwa Chainalysis?

Wir stürzen uns auf die Nischen. Wir haben mittlerweile sehr interessante große Kunden, für die wir Probleme lösen. Das ist aus unserer Sicht die einzige Chance, die man als europäischer Player in dem Feld hat, weil es am Ende des Tages eine Kapitalfrage ist und es auf der anderen Seite des Ozeans Player gibt, die hier weit besser ausgestattet sind. Wir haben jedoch schon einige Nischen gefunden und das funktioniert bis jetzt ganz gut.

Mit Iknaio betreiben jetzt seit zweieinhalb Jahren Bootstrapping. Wir sind weiterhin ein kleines Unternehmen, aber wir stellen Leute ein, während alle anderen Jobs abbauen. Obwohl wir auch eine aws-Förderung bekommen haben (brutkasten berichtete), sind wir trotzdem ganz weit weg vom Kapitalpolster der US-Anbieter. Es macht keinen Sinn, dem direkt nachzulaufen. Stattdessen stürzen wir uns auf Nischen und bauen dort Expertise auf.

Ihr arbeitet unter anderem mit dem Finanzministerium, dem Justizministerium, dem Innenministerium, der Finanzmarktaufsicht (FMA) und in Deutschland der Zentralstelle Cybercrime Bayern (ZCB) zusammen. Wie muss man sich die Zusammenarbeit mit den Behörden vorstellen?

In jedem Ministerium und auch bei der Staatsanwaltschaft gibt es Expertinnen und Experten, die an dem Thema arbeiten. Diese stoßen dann in ihrem täglichen Tätigkeitsgebiet auf Probleme, verstehen diese im Lauf der Zeit sehr gut und sprechen mit uns Forscher:innen über Lösungsmöglichkeiten.

Das beste Beispiel ist die Zentralstelle Cybercrime Bayern – die dortigen Staatsanwälte und Staatsanwältinnen sind  seit Jahren unsere engsten Kooperationspartner. Die Betrugsfälle im Zusammenhang mit Krypto Assets häufen sich massiv und stellen die Staatsanwaltschaft vor eine Ressourcen-technische Herausforderung. Wir reden hier von tausenden Fällen, die alleine in Bayern aufschlagen. Deutschlandweit entsteht durch solche Fälle ein Milliardenschaden.

Wir haben uns dann gemeinsam mit der Staatsanwaltschaft die Daten angesehen und festgestellt, dass viele Fälle eigentlich zusammenhängen: das liegt daran, dass Cybercrime als globales Phänomen keine Grenzen kennt, die Opfer aber in der Regel zur lokalen Polizei gehen, um dort eine Anzeige zu machen. Dadurch entstehen dann viele Fallakten, die aber eigentlich im Zusammenhang mit demselben Cybercrime-Delikt, sei es Betrug oder Erpressung, stehen. In der Praxis führt das dann dazu, dass viele Ermittler am selben Problem arbeiten, ohne voneinander zu wissen. Gemeinsam mit der ZCB versuchen wir gerade, diese Fälle zusammenzuführen.

Das ist so ein klassisches Beispiel. Die Vermutung, dass es Fall-Zusammenhänge gibt, kam von der Behörde. Dann kommen wir dazu und sehen uns die konkreten Daten an und prüfen das. Gemeinsam überlegen wir uns dann eine Lösung und setzen diese auch um.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag