18.05.2020

Können Sie das Wort „Digitalisierung“ noch hören?

In Österreich wird unter "Digitalisierung" oft verstanden, dass man analoge Prozesse schlichtweg digital abbildet. Daran hat auch Corona leider nichts geändert.
/artikel/digitalisierung-corona
(c) Adobe Stock / NicoElNino / beigestellt

Ich starte diesen Artikel mit einer persönlichen Anmerkung und entschuldige mich auch gleich dafür, aber ich kann es nicht mehr hören. Mir hängt das Wort „Digitalisierung“ ein wenig zum Hals heraus. Vor ein paar Tagen – es ging wiedermal um das nicht gerade innovationsfreundlichste Thema des Landes, nämlich die Bildung – sagte eine in der ZIB1 befragte Expertin: „Die Digitalisierung in den Schulen ist eine wichtige Zukunftskompetenz.“ „Aha, ist das so“, dachte ich mir. In einem Bericht etwas später wurde ein weiterer Experte befragt, der meinte: „Die Corona-Krise wird branchenübergreifend zu einem Digitalisierungsschub führen“ – ein Statement, das man mittlerweile täglich liest.

Digitalisierung: Was neu klingt, ist ein alter Hut

„E-Learning“, das jetzt in aller Munde ist, gibt es seit 25 Jahren. Die E-Mail, die heute wegen Corona häufig verwendet wird, um Hausaufgaben mit dem Lehrer auszutauschen, seit 1973, als Teil des WWW seit den frühen 90er Jahren. Die Schul-Plattform „Moodle“ erblickte 1999 das Licht der Welt und ganz frisch wirkt sie heute nicht mehr.

Es ist schwer nachzuvollziehen, dass führende Bildungsexperten „Digitalisierung“ als eine Kompetenz einordnen, die man für die Zukunft brauche. Sie ist kein selbstverständlicher Bestandteil der Schule, auf höchstem Niveau integriert und selbstverständlich im Einsatz, in einem Land, das von Humankapital und Innovation lebt und nicht von Erdöl oder seltenen Erden. Auch wenn wir in den Staat blicken und in etliche Unternehmen, stehen viel zu viele immer noch vor oder mitten in der Digitalisierung. In Geschäftsberichten liest man dann, man wolle sich jetzt kraftvoll „der Digitalisierung“ widmen.

Ist Corona ein Digitalisierungsturbo?

Corona hat, was unsere Arbeit betrifft, vor allem zu einer „Remote-Revolution“ geführt. Ich glaube, das ist nicht übertrieben. Und wenn es etwas Gutes an dieser Seuche gibt, dann das Entdecken, dass Mitarbeiter, die von zuhause aus arbeiten, auch längerfristig produktiv sein können und wollen. Persönlich halte ich das für sehr wertvoll, für den Klimaschutz, die Lebensqualität und die Arbeitsmotivation vieler. Nur mit der Digitalisierung oder digitaler Transformation hat das womöglich weniger zu tun, als wir glauben.

+++Der brutkasten startet neuen Schwerpunkt „Deine Welt“+++

Skype und andere Video-Telefonie gibt es seit 17 Jahren, WhatsApp seit elf. Man könnte zurecht argumentieren, besonders moderne Lösungen wie Grape, Eyeson (zwei österreichische Anbieter), Teams oder Zoom für Gruppen-Calls, seien etwas jüngeren Datums. Geschenkt. Zoom ist dank Corona mit einer neuen Bewertung von 47 Milliarden $ übrigens so wertvoll, wie die sieben größten Airlines zusammen. Dennoch: Die Tools für dieses Arbeiten, die Office- und Systemprogramme, sie alle sind schon länger da und für viele tech-affine Firmen völlig selbstverständlich im Alltag integriert; eben mit Ausnahme der Remote-Kultur.

Das Neue seit Corona ist also zunächst mal eine veränderte Arbeitskultur. Dann, dass wir die vorhandene Technologie zuhause und intensiver einsetzen, Meetings online statt im selben Raum machen und sicher etliche Unternehmens-Prozesse den Umständen anpassen. Aber führt Corona, wie behauptet, zu einem Digitalisierungsschub oder beschleunigt sie sogar eine tiefergehende Transformation? Greift sie also in die Kernkompetenz, den Produktnutzen und die Wertschöpfung ein?

Unser Denken ist oft noch analog

Weshalb ist diese Differenzierung wichtig? Weil es einen Unterschied macht. Sehr viel Digitales, das wir in Unternehmen einsetzen oder selbst entwickeln, hat eigentlich eine analoge Referenz, also ein analoges Vorbild. Das heißt, wir digitalisieren etwas nach einem analogen Vorbild. Nehmen wir das Möbelgeschäft, das beginnt, seine Möbel auch online zu präsentieren und zu verkaufen. Die Tageszeitung, die Artikel über eine App elektronisch abrufbar macht. Oder einer Restaurant-Kette, die in Social-Media investiert und mit ihren Kunden in Interaktionen eintritt. All diese Beispiele haben analoge Referenzen. Es sind immer digitale Nachbauten von etwas lange Etabliertem. Und es kommt uns modern vor und wir nennen es „Digitalisierung“ und das meint: „Das Umwandeln von analogen Werten in digitale Formate und ihre Verarbeitung oder Speicherung in einem digitaltechnischen System“, so Wikpedia dazu etwas sperrig.

Das Konzept der Digitalisierung ist dabei nicht neu und schon 50, in Verbindung mit dem Internet ist sie etwa 25 Jahre alt. Das Nachbauen von analogen Geschäften in Websites oder Shops zählt technologisch zu Web 1.0, also der ersten Generation des World Wide Web. Die begann 1991 und verbreitete sich ab 1995 stark. Das Web 2.0, das sogenannte „soziale Internet“, das für die Digitalisierung von Kommunikation mit Kunden und Usern zuständig wurde, sowie Social Media, das begann 1999 und nahm 2004 Fahrt auf.

Das Web versteht und wird intelligent

Die letzte Evolutionsstufe des Internets ist das Web 3.0, die haben wir 2001 begonnen und kaum jemand außerhalb der Tech-Bubble kann etwas damit anfangen, obwohl sie wesentlich ist. Haben Sie vielleicht Lust auf einen Selbsttest, bevor Sie weiterlesen? Wissen Sie was Web 3.0 bedeutet und seit 20 Jahren das Internet völlig auf den Kopf stellt? Wir nennen es das „semantische Web“, ein Internet das „verstehen lernt“. Es hat mit der ersten und zweiten Generation technologisch wenig zu tun.

Seit 20 Jahren forschen die führenden Köpfe daran, Intelligenz ins Web zu bringen und wir merken es als Kunden und Nutzer nur in der Art, wie unsere Zufriedenheit steigt. Die Architektur dahinter bleibt uns meist verborgen. Amazon, das ich nenne, weil es die meisten kennen, ist für viele User einfach ein gut gemachter Online-Shop. Es ist aber mehr als das. Amazon entwickelt bereits die x-te Generation KI-gestützter Retail-Architektur. Die hat mit dem „Shop, der halt online ging“, aus der Web1.0 Ära, nichts mehr zu tun.

Oberflächlich mag Ihnen auffallen, dass die Plattform die Wahrscheinlichkeit berechnet, welches Produkt Sie als nächstes kaufen wollen oder andere Kunden empfehlen. Beeindruckender sind aber die logistic prediction algorithms im Hintergrund, die Ihre Produkte schon in das nächste Zwischenlager liefern lassen, noch bevor Sie diese überhaupt bestellt haben. Die neuronalen Netze, mit denen heute gearbeitet wird, sind tausendfach mächtiger als noch vor wenigen Jahren, die Vorhersagemodelle werden monatlich präziser, sie machen den entscheidenden Wettbewerbsvorteil aus. Manche Test-Shops im Silicon Valley liefern Produkte ab Bestellung in unter 50 Minuten nach hause.

Die Accuracy-Rate, so etwas wie ein Gradmesser der technischen Perfektion im Vergleich zum Menschen, z.B. bei Sprachbefehlen, stieg von anfänglich 5% auf mittlerweile 96% bei Geräten wie Alexa. Ähnlich rasant entwickelt sich die Übersetzungs-Domäne, sie digitalisieren schon lange nicht mehr in unserem Sinne. Sie entwickeln als Kernkompetenz die x-te Generation digital intelligenter Referenzen, in unterschiedlichsten Produkten und Industrien. Die Intelligenz darin stiftet den Nutzen und liefert den Wettbewerbsvorteil, nicht mehr die eigentliche Handlung, die man mal digitalisierte.

Ist Digitalisierung nicht Zeitverschwendung?

Wenn manche Experten eine „Digitalisierung“ einfordern und so tun, als hätten sie damit etwas Fortschrittliches gesagt, dann ist das eigentlich Vergangenheitsbewältigung. Aus dem Papierkram bei den Gerichten und Anwälten macht man eben PDFs, die man elektronisch durch die Gegend schickt, aus analogen Prozessen wird ein digitales Äquivalent. Das E-Learning an Schulen und Unis ist technologisch enden wollend komplex, man schickt sich digitalisiertes Papier zu oder nimmt bestenfalls an Online-Vorträgen teil. Jeder, der schulpflichtige Kinder hat, weiß das.

Digitalisierung heißt nicht selten, die alten Overhead-Folien elektronisch zu machen, vielleicht Multiple-Choice-Tests online auswerten zu lassen und eine PowerPoint per Beamer zu präsentieren. Keiner analysiert die Stärken und Schwächen der Schüler mit neuronalen Netzen und bietet maßgeschneiderte Erklärungen an. Kein Programm fasst Studien-Literatur automatisiert zusammen, gestaltet sie nach den Interessen der Schüler und auch die Informatik fristet selbst 2020 noch ein Schattendasein und ist didaktisch aufgebaut wie vor 30 Jahren.

Die Steuerberatungssoftware der letzten Generation scannt Papier-Belege mit dem Smartphone und übermittelt sie automatisch in eine Saldenliste. Wow. Dass wir 2020 immer noch Milliarden an (Papier-) Rechnungen sammeln, analog oder digitalisiert… Es scheint kaum jemanden zu animieren, ein Buchhaltungssystem, das 500 Jahre alt ist, digital intelligent zu designen. Wir scannen lieber und digitalisieren alte Konzepte.

Meine Lieblings-Funktion einer Banken-App ist der Scan des Erlagscheines. Ich muss ihn nicht lesen und eine hundsgemein-lange IBAN eintippen, sondern ich fotografiere ihn. Das ist schon praktisch, aber für die alte Welt. Es ist analoges Denken und Handeln, das wir eben digitalisieren. Und wir machen uns vor, fortschrittlich zu sein. Wir sind noch nicht wirklich in der Daten- und Entscheidungsökonomie angekommen, nutzen sie aber zunehmend als Konsumenten einiger weniger Anbieter: Die Gesichts-Erkennung, die unsere Smartphones sicher macht, die Bezahlfunktion mit nur einem Klick, Suchalgorithmen die Antworten schon vorbereitet halten, bevor wir das Suchwort überhaupt eingetippt haben und Algorithmen die Verbrechen, Krebsgeschwüre und Lawinen schneller identifizieren können, als alle menschlichen Experten zusammengenommen.

Seien Sie mutig!

Wenn also ein Experte bei Ihrem Unternehmen anklopft und Ihnen „Digitalisierung“ verkaufen möchte, geben Sie ihm gerne diesen „Der Brutkasten“ -Artikel in die Hand.

Seien Sie mutig und suchen Sie sich Köpfe, mit der Sie die über-gehypte Digitalisierung einfach auslassen. Bauen Sie gleich intelligente digitale Prozesse. Überlegen Sie, wie Sie die Nutzenstiftung für Ihre Kunden digital maximieren können und nicht wie Sie alte analoge Prozesse digitalisieren. Und wenn das bedeutet, dass sie Ihre Organisation damit strukturell und personell verändern müssen, dann sind Sie wahrscheinlich schon in einer echten Transformation angekommen. Und es gibt noch mehr gute Nachrichten. Wir haben mittlerweile viele kluge Köpfe im Land, die Ihnen dabei helfen können und, weil wir zu oft nur von den USA lesen, viel mehr ausgezeichnete Technologie „Made in Austria“, als wir oft wissen. Unsere hidden champions sind oft ziemlich „hidden“, wenn Sie die saloppe Formulierung erlauben, aber sie sind da. „Kaufen Sie regional“ hat unser Kanzler uns kürzlich zu recht aufgetragen. Das stimmt auch für intelligente Web-Technologie.


Über den Autor

Mic Hirschbrich ist CEO des KI-Unternehmens Apollo.AI, beriet führende Politiker in digitalen Fragen und leitete den digitalen Think-Tank von Sebastian Kurz. Seine beruflichen Aufenthalte in Südostasien, Indien und den USA haben ihn nachhaltig geprägt und dazu gebracht, die eigene Sichtweise stets erweitern zu wollen. Im Jahr 2018 veröffentlichte Hirschbrich das Buch „Schöne Neue Welt 4.0 – Chancen und Risiken der Vierten Industriellen Revolution“, in dem er sich unter anderem mit den gesellschaftspolitischen Implikationen durch künstliche Intelligenz auseinandersetzt.

Redaktionstipps
Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag