15.06.2020

Das Ende der Globalisierung…

... wie wir sie kannten. Michael Hirschbrich schreibt in seiner Kolumne über die Kräfte der Globalisierungskritik und darüber, wie diese durch Corona neuen Rückenwind bekommen.
/artikel/ende-der-globalisierung
Mic Hirschbrich über Globalisierung
Bei "Mic am Montag" geht es diese Woche um die Gegner und Befürworter der Globalisierung. (c) Adobe Stock / tampatra /beigestellt

Vieles deutet darauf hin, dass die Globalisierung der letzten Jahrzehnte zu Ende geht. Da hilft es nichts, dass sie die Armut von Milliarden von Menschen beendet hat. Sie hat auch unseren Wohlstand gesichert und eines der aufwendigsten Sozialsysteme der Welt. Die Globalisierung ist begrifflich keine Zustandsbeschreibung. Wie die „Digitalisierung“, trägt sie eine aktive Veränderung in sich. Konkret meint sie, dass die globalen Verflechtungen, gesellschaftlich wie wirtschaftlich, stetig zunehmen. Diese Globalisierung hat starke Gegner bekommen.

+++Diese Grenzen öffnet Österreich ab dem 16. Juni wieder+++

Fünf Kräfte stemmen sich gegen die Globalisierung. Ihre Motive könnten unterschiedlicher nicht sein:

  • Die Anti-Globalisierungs Bewegung und Globalisierungskritik
  • Der „America First“-Trumpismus
  • Das Reziprozität-Dilemma mit China
  • Die globale System-Inkompatibilität
  • Die bi-polare Tech-Hegemonie

Die Globalisierungskritik im Wandel

Die Globalisierungskritiker sind in allen politischen Lagern zu finden. Eine starke Strömung entstammt der Kapitalismuskritik. Interessanter Weise vertreten diese Kritik nicht nur die Verlierer der Globalisierung, sondern sie wurde auch zum Mainstream von Bevölkerungsgruppen vieler reicher Länder.

Zunächst ging es vor allem um die Kritik, das globale, kapitalistische System sei sozial ungerecht, würde Menschen ausbeuten oder multinationalen Konzernen mehr Macht gewähren als Nationalstaaten. In den letzten Jahren aber wurde die Klimawandel-Strömung unter den Globalisierungskritikern immer stärker. Ihr Motiv liegt in der Ressourcenverschwendung des globalen Handels.

Trumpismus als Anti-Globalisierungs-Bewegung?

Diese Gruppe erhielt nun einen Mitspieler, den sie politisch wohl mehrheitlich ablehnt. Der Multi-Milliardär Donald Trump entwickelte mit seinem „Trumpismus“ einen immer stärkeren, protektionistische Eifer, um seiner „America First“-Bewegung mehr Rückenwind zu geben. Man kann es dabei belassen und darin eine populistische Spielart eines narzisstischen Machtmenschen erkennen, so wie uns das die meisten Kommentatoren erklären. Muss man aber nicht, denn es ist nur die halbe Wahrheit.

Die Welt verlor, so eigenartig das auch klingen mag, Stabilität, Übersichtlichkeit und ein Stück weit auch Kontrolle, als zum Ende des Kalten Krieges, das bi-polare System endgültig kippte. Europa war noch zu wenig integriert und vor allem außenpolitisch uneins. China nutzte das politische Vakuum und den Fokus des Westens nach höheren Margen und stärkerem Wachstum und zeigte der Welt, dass auch ein Land mit 1-Parteien-Diktatur ausgezeichnet wachsen kann. Nur 40 Jahre nachdem Deng Xiaoping die Volksrepublik wirtschaftlich neu ausrichtete, kletterte die Differenz im Handel zwischen China und den USA auf das 4,5-fache. 2018 exportierten die USA Waren im Wert von 120 Milliarden $ nach China und importierten welche um 540 Milliarden. Gleichzeitig setzte China ausgerechnet in jener Industrie schon frühzeitig auf Unabhängigkeit, in der die USA lange Zeit dominierend waren: Die immer wichtiger werdende Internet- und Softwareindustrie. Globalisierung gerne, aber keine Abhängigkeit in solch strategisch wichtigen Bereichen, lautete das chinesische Credo.

+++Digitaler Aktionsplan Austria: Schramböck präsentiert weitere Ausgestaltung+++

Europa war hier deutlich naiver, wenn nicht strategisch ahnungslos und sah sehr lange zu, wie ein Deep-Tech-Player nach dem anderen abwanderte, verkauft wurde oder zusperrte. Und schließlich begann Trump seinen Anti-Globalisierungs-Spin und kündigte ein internationales Abkommen nach dem anderen auf. Doch, dass das immer größer werdende Ungleichgewicht in den internationalen Handelsbilanzen vor allem auf US-Seite Nervosität auslöste, war keine Überraschung. In den USA kann man politisch haarsträubende Skandale überleben. Eine schwächelnde Wirtschaft und sinkenden Wohlstand verzeihen die amerikanischen Wähler nicht. Demokratische Präsidenten hätten den neuen Protektionismus wohl nicht „America First“ genannt, sie hätten vielleicht auch noch multi-lateraler agiert. Aber verzichtet hätten sich auch nicht darauf.

Von Reziprozität noch immer weit entfernt

Große Teile der westlichen Welt dachten, mit der Globalisierung und dem Wohlstand würden sich in China auch Demokratie und westliche Werte durchsetzen. So argumentierten die Konservativen, die Liberalen aber auch die führenden Sozialdemokraten. Das ging leider daneben. Die nächste Anspruchsstufe war jene der Reziprozität, also die Forderung nach „gleich fairen Bedingungen“ für alle. Doch auch das gelang nicht, zumindest nicht ausreichend.

+++EU-Politikerin Eva Kaili über Startups und Digitalisierung: „Aggressive Politik der Ökosysteme“+++

Seit Jahrzehnten klagen westliche Unternehmer über bürokratische Hürden, unfaire Gerichte und Probleme beim IP-Schutz in China. Zeitgleich machte ausgerechnet die aus China stammende Pandemie Europa klar, dass etwas aus dem Ruder geriet. Denn wir bemerkten, dass wir massenhaft benötigte Medikamente, Infrastrukturgüter und wichtige Industriegüter nur mehr aus China beziehen können und uns zu abhängig machten.

Haben die meisten Länder wie die USA, Kanada oder Deutschland schon länger sogenannte Investitionskontrollgesetze, die genau das verhindern sollen, fordert die EU erst jetzt ihre Nationalstaaten auf, diese endlich zu schaffen oder zu verschärfen.

Sind die globalen Sozial-, Rechts- und Wettbewerbsstandards kompatibel genug?

Womit wir bei der vierten, inhaltlich verwandten Kraft wären, die sich der Globalisierung entgegenstemmt: Die inkompatiblen globalen Systeme. Sogar innerhalb der EU, einem Zusammenschluss ausschließlich klar deklarierter Demokratien, gelang die Harmonisierung im gemeinsamen Markt nur in bestimmten Bereichen und ist auch nach Jahrzehnten noch immer „work in progress“. Und da besteht große kulturelle Nähe alter Nachbarn.

Globalisierung ist eben weitaus mehr als nur ein abstrakter, weltweit zunehmender  „Handel“. Es ist nicht das bloße Versenden einer Ware von A nach B. Es braucht Rechtssicherheit in der Zusammenarbeit, Vertrauen in die gegenseitige Integrität, wechselseitige Investitionen, ein Mindestmaß an kulturellem und auch sprachlichem Verständnis, Transparenz in den Prozessen und vor allem Respekt.

Globalisierung ist immer auch eine Sache der Menschen, die beginnen zu reisen, sich mit Firmen oder alleine in fremden Welten anzusiedeln, aus beschränkten Visa werden dauerhafte Misch-Familien, neue Arbeits- und Lebensverhältnisse. Diese Vernetzung braucht ein Mindestmaß an System-Kompatibilität, die in den bisherigen Übereinkünften nicht ausreichend abgebildet sind.

Von alter zu neuer Bi-Polarität

Dazu kommt, dass aus einer bi-polaren Welt von Kommunismus und Demokratie eine bi-polare Welt der Technologie-Führerschaft wurde, die fünfte Kraft. So wie das Römische Reich von seiner fruchtbaren Lage, modernen Verwaltung und militärischen Stärke profitierte, so wie die USA seit Rockefeller mit ihrer Öl, Dollar- und Militärpolitik das letzte Jahrhundert global dominierten, so wird gerade eine neue bi-polare Weltordnung von den USA und China im Technologie-Bereich hergestellt.

Wenngleich die Regierung in Washington D.C. daran keinen Verdienst hat. Diese Ungleichheit und technologische Dominanz werden die kommenden Jahre die Globalisierung bremsen, weil sich die anderen Nationen in einen neuen Protektionismus flüchten werden. Diese Dynamik hat bereits begonnen, wird sich über 5G- und (KI-) Datencenter-Konflikte ausweiten und spätestens in 2-3 Jahren in fulminanter Re-Nationalisierungen kritischer Tech-Infrastruktur münden.

Was also tun mit der Globalisierung?

Wer mal versucht, die eigene ideologische Brille abzulegen, wird erkennen, dass sowohl die Anhänger der Globalisierung als auch die 5 Kräfte, die ihr entgegenwirken, mitunter gute Argumente haben. Dies lädt ein, voneinander zu lernen. Die Globalisierungskritiker könnten lernen, dass ihre oft fundamentalistische Ablehnung gegen internationalen Handel und Wachstum per se, kontraproduktiv sind. Stets soziale Gerechtigkeit und Transfers zu den Ärmeren zu fordern, dabei aber völlig auszublenden, wie man diese nachhaltig finanziert, zeugt nicht von hohem Verantwortungsgefühl und Realitätssinn. Wir erinnern uns, selbst neue Handelsabkommen mit dem ur-demokratischen Kanada sind politisch kaum mehr durchzubringen.

Die Globalisierungsbefürworter sollten umgekehrt lernen, die Kritik an Ausbeutung und grober sozialer Ungerechtigkeit ernst zu nehmen. Da waren die Fortschritte in etlichen Bereichen bislang einfach zu gering. Eine zukunftsweisende Globalisierung darf keinen Nutzen daraus ziehen, denn da geht es nicht um „systemische Unterschiede als legitimen Wettbewerbsvorteil“ sondern um grobe Verletzungen der Menschlichkeit, die immer noch stattfinden in einigen Branchen. Und unseren globalen Handel in Einklang mit dem Klima zu bringen, steht ebenfalls ganz oben auf der Agenda und nicht zur Disposition.

+++Investitionskontrolle: Schramböck klärt Startup-Szene nach Kritik auf+++

Alle zusammen müssen wir anerkennen, dass nur das Berücksichtigen und Lösen offensichtlicher, globaler Probleme dieser Globalisierung die Anerkennung breiter Bevölkerungsgruppen bringen wird. Harmonisierte Mindeststandards bei Verträgen, im IP-Schutz, im Arbeits- ,Sozial- sowie im Umweltbereich zählen vorrangig dazu.

Das alles sind politische Mammut-Aufgaben. Bis wir diese Ziele werden erreichen können, werden noch etliche protektionistische Alleingänge zu vernehmen sein. Zwei Schritte vor, einer zurück. Am Ende aber wird diese Welt eine klug ausbalancierte Form der Globalisierung brauchen, um Wohlstand, Frieden und soziale Sicherheit für immer mehr Menschen bereitstellen zu können.


Über den Autor

Mic Hirschbrich ist CEO des KI-Unternehmens Apollo.AI, beriet führende Politiker in digitalen Fragen und leitete den digitalen Think-Tank von Sebastian Kurz. Seine beruflichen Aufenthalte in Südostasien, Indien und den USA haben ihn nachhaltig geprägt und dazu gebracht, die eigene Sichtweise stets erweitern zu wollen. Im Jahr 2018 veröffentlichte Hirschbrich das Buch „Schöne Neue Welt 4.0 – Chancen und Risiken der Vierten Industriellen Revolution“, in dem er sich unter anderem mit den gesellschaftspolitischen Implikationen durch künstliche Intelligenz auseinandersetzt.

Redaktionstipps
Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag