22.03.2023

KI ist die Zukunft, doch wo bleibt die Diversität?

Carina Zehetmaier und Olivia Pfeiler haben die internationalen Frauennetzwerke “Women in AI” und “Women in Data Science” nach Österreich geholt, um aktiv an einer Zukunft zu arbeiten, in der künstliche Intelligenz (KI) fair und gerecht eingesetzt wird. Im brutkasten-Interview erklären die beiden Botschafterinnen, warum Diversität und Inklusion in diesen Bereichen wichtig sind.
/artikel/ki-diversitaet
Olivia Pfeiler und Carina Zehetmaier haben die internationalen Frauennetzwerke “Women in Data Science” und “Women in AI” nach Österreich geholt. (c) Valerie Woop und Golden Hour Pictures. Montage: brutkasten

Mit dem Einsatz der künstlichen Intelligenz (KI) bildet die Menschheit eine bessere, intelligentere und rationalere Zukunft. Künstliche Intelligenz basiert auf Algorithmen. Diese brauchen Daten, um zu funktionieren. Jedoch werden Algorithmen (überwiegend) mit unbereinigten Datensätzen trainiert, die negative Diskriminierungsstrukturen zwischen Mann und Frau oder gegenüber Minderheiten aufweisen.

Nach wie vor bekommen Frauen für die gleiche Arbeit weniger bezahlt als Männer, müssen mehr Sorgearbeit leisten und werden dennoch vor, nach und während der Schwangerschaft diskriminiert. Diese Probleme prägen weiterhin unseren Alltag und spiegeln sich sowohl in den Algorithmen, als auch in den erfassten Daten wider. KI-Systeme sind voreingenommen, weil sie von Menschen entwickelt werden. Developer:innen und Team-Mitglieder, welche die Entscheidungen für Algorithmen treffen, beeinflussen deren Erkenntnis.

Die Wahrscheinlichkeit, dass zukünftige KI-Entwicklungen weiterhin das bestehende Ungleichgewicht widerspiegeln, ist groß. Laut einer Studie aus dem Jahr 2021 sind nur 22 Prozent der Beschäftigten in der KI- und Data-Science-Branche Frauen. Somit trifft eine überwiegend männliche Belegschaft die Entscheidungen für die KI-Systeme der Zukunft, was wiederum eine Herausforderung für eine geschlechtergerechte Zukunft darstellt.

Um dem entgegenzuwirken, haben die Botschafterinnen Carina Zehetmaier (Präsidentin von Women in AI Austria) und Olivia Pfeiler (Gründerin von Women in Data Science Villach) in Österreich zwei internationale Frauennetzwerke etabliert, die die Förderung von Diversität und Inklusion in der KI- und Data-Science-Branche zum Ziel haben. Der Fokus liegt darauf, Expertinnen aus diesen Bereichen vor den Vorhang zu holen und somit auf die Geschlechterkluft und Ungleichheiten aufmerksam zu machen, die in einem eintönigen System versteckt sind.

Women in AI Austria

Der gemeinnützige Verein Women in AI (WAI) ist ein internationaler Do-Tank und seit November 2020 als lokaler Verein auch in Wien, Oberösterreich und Kärnten vertreten. Unter der Leitung von Carina Zehetmaier (Präsidentin) und Gabriele Bolek-Fügl (Vize-Präsidentin) bietet Women in AI Austria diverse Veranstaltungen, Weiterbildungs- und Mitgestaltungsmöglichkeiten für gleichgesinnte Frauen und Männer an.

Mit dem breiten Angebot bestrebt das Netzwerk, mehr Mädchen und Frauen für das Thema künstliche Intelligenz zu begeistern, unabhängig davon, ob sie technisch oder nicht-technisch engagiert sind. Das von Microsoft gesponsorte globale Frauennetzwerk WAI hat über 8.000 Mitglieder in 140 Ländern. Mit dem Hauptziel, Diversität in der KI-Branche voranzutreiben, möchte der Verein sich dafür einsetzen, dass KI-Lösungen für alle Menschen geschaffen werden und funktionieren – nicht nur für eine bestimmte Bevölkerungsgruppe oder ein Geschlecht. “Es darf nicht vergessen werden, dass die Hälfte der Weltbevölkerung aus Frauen besteht”, sagt die Präsidentin von Women in AI Austria.

“Wir finden keine weiblichen Talente”- dieser Satz werde von vielen Unternehmen oftmals dafür genutzt, um All-Male-Panels oder niedrige Frauenquoten in ihrem Unternehmen zu begründen. Aus diesem Grund möchte WAI-Austria-Präsidentin Zehetmaier die Suche für viele Betriebe erleichtern, indem sie auf Anfrage Expertinnen und Sprecherinnen zu diversen AI-Themen nennt. “Wir sind sehr interdisziplinär und haben für fast alle Fachbereiche Expertinnen. Viele talentierte Frauen sind in den Bereichen Technik, Ethik und Recht tätig und wir haben die Freude, sie zu unterstützen”, erklärt Zehetmaier.

Women in Data Science Villach

Diese Absicht verfolgt auch die österreichische Botschafterin des Women in Data Science (WiDS) Vereins, Olivia Pfeiler. Seit 2020 leitet sie gemeinsam mit Anita Kloss-Brandstätter in Zusammenarbeit mit AI Carinthia den regionalen Absetzer der Stanford-Initiative Women in Data Science in Villach. Als studierte Mathematikerin arbeitet Pfeiler seit 15 Jahren im Data-Science-Bereich und hat regelmäßig bemerkt, dass sie eine von wenigen Frauen in der Branche war. Vor allem in Führungspositionen sei das auffälig. “Im Studium habe ich das nicht stark bemerkt. Aber besonders in Leitungspositionen wird die Luft für Frauen sehr dünn. Da wird die Kluft immer größer”, sagt die Botschafterin.

Vor ungefähr vier Jahren stolperte Pfeiler über die Stanford-Initiative, die von drei Professorinnen gegründet wurde, um den Gender-Gap im Data-Science-Bereich zu bekämpfen. Auch Pfeiler hat es sich zum Anliegen gemacht, mehr Role Models für junge Mädchen und Frauen sichtbar zu machen und ihnen eine Bühne zu bieten.

“Oft nehmen sich Frauen zurück, wenn es um Präsentationen in Konferenzen handelt. Wir bei Women in Data Science Villach laden alle dazu ein, über Daten und Projekte zu diskutieren. Niemand wird ausgeschlossen. Aber bei unseren Veranstaltungen haben nur Frauen die Möglichkeit, auf die Bühne zu treten”, erklärt die Datenwissenschafterin. Ziel sei es, Frauen dazu zu motivieren, selbstbewusst ihre Kompetenzen zu präsentieren.

Aktuell zählt das Frauennetzwerk WiDS in Villach 250 Mitglieder. Der globale Verein organisiert jährlich rund 200 regionale Veranstaltungen in mehr als 50 Ländern. Dazu zählen Konferenzen, Datathons, Podcasts, Programme für die nächste Generation, Workshops als Inspiration, sowie Bildungs- und Netzwerkmöglichkeiten.

Ihren Ursprung hat die Women in Data Science Initiative in Stanford, wo die jährliche WiDS Worldwide Konferenz stattfindet und Mitgliedern aus aller Welt hybrid die Teilnahme ermöglicht. Neben der jährlichen Stanford-Versammlung organisieren Pfeiler und Kloss-Brandstätter auch die regionale „Women in Data Science Villach“-Konferenz für ihre 250 Mitglieder in Österreich, welche dieses Jahr am 25. Mai stattfindet.

Künstliche Intelligenz korrigiert die Menschheit

Die Verwendung von unbereinigten Datensätzen kann zu diskriminierenden Ergebnissen führen, was einen wichtigen Diskussionspunkt in Bezug auf den Einsatz von künstlicher Intelligenz darstellt. In diesem Zusammenhang wird oft betont, dass Unternehmen, die Algorithmen entwickeln, sicherstellen müssen, dass ihre Datensätze repräsentativ sind und potenzielle Verzerrungen vermeiden.

Laut der „Women in Data Science Villach“-Botschafterin, Olivia Pfeiler, sei das vor allem dann wichtig, wenn die Entscheidung der künstlichen Intelligenz Konsequenzen für einen Menschen hat. Die Präsidentin von „Women in AI Austria“, Carina Zehetmaier, appelliert an die Gesellschaft, dass man KI-Technologien dennoch als Enabler sieht und die Angst rund um ihren Einsatz und möglichen Schäden, die dadurch eventuell verursacht werden, bewältigt. “Oft ist der Mensch für den Fehler verantwortlich, wenn eine KI-Lösung eine ethisch inkorrekte Entscheidung trifft. Oder auch die historischen Daten, die Frauen entweder benachteiligt oder nicht berücksichtigt haben. Nun haben wir eine Datenbasis, die dasselbe Problem wiedergibt. Auch dann gilt es, die Fehler als Chance zu sehen, um die Fehlentscheidungen der Vergangenheit zu korrigieren und gemeinsam eine faire Zukunft für alle zu gestalten”, erklärt Zehetmaier.

Laut Pfeiler muss man zudem darauf achten, dass die langjährige Unterrepräsentation von Frauen in den Medien, Konferenzen und Publikationen sowie das aktuelle Streben nach Gleichstellung nicht zu unrealistischen Erwartungen führen. “Wenn nur 25 Prozent der Computer-Science-Studierenden weiblich sind, darf man nicht erwarten, dass 50 Prozent der Publikationen in diesem Bereich von Frauen kommen”, erklärt die WiDS-Botschafterin.

Gerechter Einsatz von künstlicher Intelligenz durch Diversität

Nach Ansicht der Expertinnen wird die Weiterentwicklung von künstlicher Intelligenz nur mit menschlicher Interaktion, Eingriff und Korrektur gelingen. Menschen stehen sowohl bei der Entwicklung, als auch bei der Nutzung dieser Algorithmen im Vordergrund. Für den Erfolg von künstlicher Intelligenz ist eine Vielfalt an Perspektiven und Erfahrungen entscheidend.

Der angehende Diskurs über die Ungerechtigkeit zwischen den Geschlechtern ist das eine Thema. Eine weitere Herausforderung ist die Unterrepräsentation von Minderheiten. Historisch vernachlässigte oder diskriminierte Gruppen werden bei Entscheidungen, die auf Algorithmen basieren, oft nicht ausreichend berücksichtigt. Um Fairness in der Zukunft zu gewährleisten, trägt das Thema der Intersektionalität eine gleichwertige Rolle wie die Bekämpfung der Geschlechterkluft.

“Es gibt keinen perfekten Algorithmus”, sagt Zehetmaier, während Pfeiler erklärt, dass “die Vostellung, alle Bevölkerungsgruppen bei der Entwicklung der Algorithmen zu berücksichtigen, utopisch ist”. Es sollte der Fokus darauf liegen, diverse Teams zusammenzustellen, die in der Lage sind, während der Entwicklungsphase vielfältige Aspekte in ihre Entscheidungen zu integrieren und dadurch erfolgreicher zu sein. Abschließend betont Zehetmaier, dass bei Gesprächen zum Thema Geschlechtergerechtigkeit und Diskriminierung Frauen oftmals als Minderheiten beschrieben werden. “Frauen sind keine Minderheiten. Es leben mehr Frauen auf der Welt als Männer und es ist unerlässlich, dass dies verstanden wird”, sagt die Präsidentin von Women in AI Austria.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag