23.12.2024
FOLGE 2 | NACHLESE

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren“

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
Diskussionsrunde der Folge 2: Harald Herzog, Moritz Mitterer, Carina Zehetmaier, Bernd Konnerth, Markus Fallenböck (c) brutkasten

„No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.


Gut zwei Jahre ist es her, dass ChatGPT einen Hype rund um generative KI-Modelle auslöste. Doch es stellen sich auch viele kritische Fragen beim Einsatz von KI – besonders in sensiblen Bereichen. Klar ist: Künstliche Intelligenz bietet viele Vorteile und vereinfacht komplexe Prozesse. Gleichzeitig wirft sie jedoch auch Herausforderungen und Ängste auf, mit denen man sich kritisch auseinandersetzen muss.

Was KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten kann, diskutierten in der zweiten Folge „No Hype KI“:

  • Bernd Konnerth (Microsoft Österreich | Public Sector Lead)
  • Carina Zehetmaier (Women in AI Austria | Präsidentin)
  • Harald Herzog (Österreichische Gesundheitskasse | Leiter Digitalisierung und Innovation)
  • Moritz Mitterer (ITSV | Aufsichtsratsvorsitzender)
  • Markus Fallenböck (Universität Graz | Vizerektor für Personal und Digitalisierung).
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Menschenzentrierter Ansatz im Mittelpunkt

Künstliche Intelligenz ist schon längst Teil unseres Alltags – ob bewusst oder unbewusst. Und obwohl KI bereits in vielen Lebensbereichen der Österreicher:innen präsent ist, bleibt die Skepsis bei vielen groß. Laut Carina Zehetmaier ist es daher ein besonders wichtiger Faktor, dass man jeder einzelnen Person KI näher bringt, sodass mehr Vertrauen in die Technologie entsteht: „Derzeit gibt es noch viele Ängste rund um KI. Aber es gibt auch noch gewisse Schwachstellen wie zum Beispiel das Halluzinieren, oder auch Vorurteile, die in den Systemen drinnen sind und widergespiegelt werden können. Es ist relevant, dass man sich hier von Anfang an mit den kritischen Fragenstellungen auseinandersetzt“.

Hierbei müsse an vorderster Stelle die öffentliche Hand hohe Standards setzen – vor allem aus menschenrechtlicher Sicht. Zehetmaier befürwortet in diesem Zusammenhang den AI Act, der klare gesetzliche Rahmenbedingungen schafft. „Die öffentliche Hand ist der direkte Adressat der Grund- und Menschenrechte“, sagt sie.

Ein weiterer wichtiger Punkt von Zehetmaier ist die Notwendigkeit, marginalisierte Gruppen nicht zu übersehen. Man müsse sich bemühen, geschlechtsspezifische und andere Vorurteile in Datensätzen zu vermeiden. „Wir wissen auch, dass Automatisierung den Gender-Pay-Gap öffnet anstatt schließt, das heißt, da müssen wir aktiv und gezielt gegensteuern“.

Verantwortungsvolle KI bedeute, aktiv an den Daten und Algorithmen zu arbeiten. Nur so könne sichergestellt werden, dass KI-Anwendungen nicht nur technologisch effizient, sondern auch ethisch und gesellschaftlich verantwortungsvoll gestaltet werden.

Responsible AI: Inklusivität, Fairness, Datenschutz

Dass die Anwendung von generativer KI nicht bloß Kosten senken soll, sondern den Menschen Nutzen bringen muss, ist auch für Bernd Konnerth von Microsoft klar. „Wir setzen auf Responsible-AI-Standards, bei denen es um Inklusivität, Fairness, Datenschutz und all diese Themen geht. Das sind Leitplanken in unserer Produktentwicklung“, sagt der Public Sector Lead von Microsoft Österreich.

Von der Unternehmenstransformation bis hin zum öffentlichen Dienst sei ein breites Umschulungsprogramm notwendig, um Ängste abzubauen: Es sei wichtig, „Umgebungen zu schaffen, die es Mitarbeiterinnen und Mitarbeiter möglich machen, mit der Technologie zu interagieren, um den Berührungsängsten entgegen zu wirken“.

Universität Graz startete UniGPT für Mitarbeitende

Was Bildung angeht, betont Markus Fallenböck von der Universität Graz die Bedeutung einer breiten Wissensvermittlung. Es gehe nicht nur um Spezialist:innen für KI, sondern vor allem um die große Masse an Mitarbeitenden, die einen „sinnvollen Umgang mit KI erlernen“ müssen: „Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr können wir Chancen nutzen und Risiken minimieren“.

Die Universität Graz hat dazu eine eigene Micro-Credential-KI gestartet, um Studierenden ein Grundwissen zu KI zu vermitteln: „Das ist ein abgeschlossenes Studienpaket, das man in jedes Studium integrieren kann und das gerade in einer Pilotphase ist“, erläutert Fallenböck. Das Paket lasse sich in jedes Studium integrieren. „Da ist die Idee, dass in ein paar Jahren jeder Bachelor-Studierende, der in Graz einen Abschluss macht, ein Grundwissen hat zu KI-Bereich, Technik, Wirtschaft, Recht, Ethik“.

Für die eigenen Mitarbeiter:innen hat die Universität Graz im Mai 2024 außerdem den Chatbot UniGPT gestartet. Bereits mehrere hundert Mitarbeiter:innen wurden dafür bereits eingeschult. „Da sitzt die Universitätsprofessorin neben der Sekretariatskraft und beide interessieren sich für KI und werden es in ihrem Arbeitsalltag gut einsetzen“, schildert Fallenböck seine Eindrücke.

Über die eigenen Mitarbeitenden will die Universität Graz Wissensvermittlung aber auch in die Bevölkerung tragen. Dazu hat sie im Oktober etwa erstmals den Technology Impact Summit zum Thema KI in Graz veranstaltet. „Weil natürlich auch wichtig ist, dass wir die breite Öffentlichkeit mit dem Thema erreichen. Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr, können wir auch das Chancennutzen und Risikominimieren wirklich schaffen“, erläutert Fallenböck.

ITSV: Künstliche Intelligenz im Gesundheitssystem

 Die ITSV wiederum steuert und koordiniert die IT-Aktivitäten der österreichischen Sozialversicherung – und beschäftigt sich schon länger mit dem KI-Thema. Aufsichtsratsvorsitzender Moritz Mitterer erzählt im Talk, dass das Unternehmen bereits 2018 mit der Erprobung von KI-Lösungen begonnen habe. In einem geschützten Umfeld wurden dabei erste Erfahrungen gesammelt, bevor die Systeme in den Echtbetrieb übergingen. Dieser schrittweise Ansatz habe wesentlich dazu beigetragen, das Vertrauen in KI-Modelle im Unternehmen zu stärken.

Besonders bei sensiblen Daten, wie etwa Gesundheitsdaten, ist die Gefahr von Missbrauch ein zentraler Risikofaktor. Mitterer erläutert die Bedeutung von Transparenz und Nachvollziehbarkeit: „Man muss Patientinnen und Patienten mitnehmen, indem man entsprechend strenge Regeln hat und Compliance hat. Und indem man offen damit umgeht, falls doch was sein sollte“.

KI schafft Abhilfe bei steigendem Leistungsaufkommen bei ÖGK

Die ITSV arbeitet dabei unter anderem für die Österreichische Gesundheitskasse (ÖGK). Harald Herzog von der ÖGK erläutert, dass das steigende Leistungsaufkommen – etwa wachsende Fallzahlen, steigende Lebenserwartung, mehr Konsultationen – nach neuen Wegen verlangt: „Würden wir die Prozesse so weiterspielen wie bisher, bräuchten wir mehr Personal“, so Herzog. „Unsere Aufgabe ist es effizient zu arbeiten und alle technischen Möglichkeiten der KI auszunutzen“.

KI könne hier unterstützen, etwa bei der Wahlarztkostenerstattung. Ziel sei es, einen Großteil der Fälle automatisiert abwickeln zu können. Laut Herzog geht es aber nicht darum, den persönlichen Kontakt zu ersetzen, sondern lediglich zu ergänzen.

Zusätzliches Wirtschaftswachstum von bis zu 18 Prozent durch KI-Nutzung

Auch die öffentliche Verwaltung steht vor Herausforderungen, etwa aufgrund der Pensionierungswelle oder des Fachkräftemangels. Künstliche Intelligenz könnte dabei eine Rolle spielen. Bernd Konnerth von Microsoft Österreich sagt: „Künstliche Intelligenz kann eine Antwort sein – vielleicht nicht die Einzige, aber sie hat sehr viel Potenzial durch die Automatisierung wiederkehrender Tätigkeiten, viel Nutzen zu stiften“.

Aktuell befinde sich Österreich erst am Anfang, dieses Potenzial auszuschöpfen. Konnerth verweist auf eine Studie, dass Österreich ein Wirtschaftswachstum von bis zu 18 Prozent erzielen könnte, wenn das ganze Potenzial von KI ausgeschöpft werde.

Ausblick: KI-Nutzung in fünf Jahren

Wo steht der Einsatz von Künstlicher Intelligenz in fünf Jahren? „Ich hoffe, dass wir nicht mehr über die Technologie reden müssen, so wie wir heute auch nicht mehr über Strom sprechen, sondern dass sie einfach da ist“, so Microsoft-Experte Konnerth.

Carina Zehetmaier wiederum blickt auf die EU als Werteunion. In fünf Jahren solle man sehen, dass Österreich und Europa es geschafft haben, einen wertebasierten, menschengerechten KI-Einsatz umzusetzen. Für Österreich könne sich hier eine besondere Chance bieten, so Zehetmaier. Das Land könne sich als Vorreiter für einen vertrauenswürdigen, menschenzentrierten Umgang mit KI etablieren. Es gehe darum, „den menschenzentrierten Ansatz im Einklang mit Werten und Grundrechten umzusetzen“.

KI birgt enormes Potenzial

Die Diskussionsrunde ist sich einig, dass KI in sensiblen Arbeitsfeldern längst keine ferne Zukunftsvision mehr ist, sondern bereits eine zentrale Rolle darstellt. Die Chancen sind enorm – von effizienteren Verwaltungsprozessen über eine präzisere Gesundheitsversorgung bis hin zu einer gerechteren Bildung. Doch um diese Möglichkeiten zu nutzen, braucht es breites Verständnis, klare Regeln, vertrauenswürdige Technik und einen sensiblen Umgang mit Daten.


Folge nachsehen: No Hype KI – Was kann KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten?

Hier gehts es zur Nachlese von Folge 1: „No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?“


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

Die Partner von No Hype KI
Die Partner von No Hype KI

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag