19.03.2025
HEALTH

Österreich und seine Medizin – ein Land am KI-Strome

Künstliche Intelligenz ist zwar in aller Munde, aber noch nicht in allen Praxen angekommen. Während bei manchen die zukünftige Gesundenuntersuchung wilde Science-Fiction-Vorfreude auslöst, herrscht bei anderen noch vorsichtige Skepsis – sowohl auf der Seite der Patient:innen als auch auf jener der Mediziner:innen. Eines jedoch ist nicht zu leugnen: Es tut sich was im Staate Österreich, die Medizin wandelt ihr Gesicht langsam, aber stetig. Ein Blick in die heimische Beziehung zwischen KI und Heilkunst.
/artikel/oesterreich-und-seine-medizin-ein-land-am-ki-strome
KI, KI in Medizin, Imagebiopsy Lab, KI Ambulanz, Symptoma
© Symptoma/ IBL - Nateqi, Founder Symptoma und Richard Ljuhar, Founder ImageBiopsy Lab.

Dieser Artikel erschien in der März-Ausgabe unseres Printmagazins. Ein Link zum Download der Digitalversion findet sich am Ende des Artikels.


„1277 221235, korrekt?“ Man nickt und bestätigt seinen Namen. Trotz der heftigen Schmerzen, die man verspürt, erinnert man sich an seine Sozialversicherungsnummer wie an die Geburtstage seiner Liebsten. In diesem Alter nicht verwunderlich, denkt man, denn ein Arztbesuch ist mittlerweile mehr wiederkehrender Alltag als ein Treffen mit manchen Freunden. „Bitte nehmen Sie Platz. Sie werden in neun Minuten 33 Sekunden bis neun Minuten 54 Sekunden aufgerufen“, sagt die künstliche Intelligenz, die in Form eines weiblichen Avatars am Empfang sitzt, tatsächlich Aida genannt wird und freundlich dreinblickt. Man fragt sich, ob man künstlichen Intelligenzen wirklich menschliche Namen geben sollte oder es doch lieber wie bei Hund und Katz hält – doch man verwirft den Gedanken schnell, denn der stechende Schmerz im Rücken zieht sich bis in den Oberschenkel hinab. Solche Fragen sollen andere klären!

Nach exakt neun Minuten und 39 Sekunden wird man in den Praxisraum gebeten, wo sich die Ärztin bereits alte Röntgenbilder, das letzte MRT und die aktuelle Diagnose auf einem riesigen Bildschirm ansieht. Sie scrollt weiter und findet Verletzungen aus den Teenagerjahren und sogar die eine Verstauchung aus Volksschulzeiten, die man beinahe vergessen hätte. Man stimmt erneut zu, diesmal dem Einsatz einer zweiten künstlichen Intelligenz, die den Körper von oben bis unten mit Sensoren scannt. Ein digitaler Zwilling wird in den Raum geworfen und die Ärztin zeigt auf genau jene Stelle, die die Pein in Rücken und Bein verursacht. Wenige Augenblicke vergehen und sie sagt: „Es sind die Bandscheiben.“

Zugegeben, wir reden hier von einer möglichen Zukunft eines Arztbesuchs, die noch Jahrzehnte entfernt sein könnte oder womöglich gar nicht derart eintritt. Doch solche Vorstellungen dürfen heutzutage erlaubt sein, sieht man sich die Entwicklung der künstlichen Intelligenz in den vergangenen Jahren an.

Univ. Prof. Dr. Markus Müller, Rektor der MedUni Wien, hat am 5. November des Vorjahrs im Gesundheitsmagazin „MedMedia“ kompakt zusammengefasst, wie die „Mensch-Maschine-Interaktion auf Basis künstlicher Intelligenz“ die Medizin bereits heute verändert. Ihm zufolge hat die KI historisch ihre Wurzeln in der Naturwissenschaft und ebbte als Forschungsgegenstand nach einem kurzen Hoch in den 1940ern wieder ab. Erst 40 Jahre später hat man den Faden wieder aufgenommen und festgestellt, dass neuronale Netze (ein Ansatz im maschinellen Lernen) für die Lösung komplexer Aufgaben trainiert werden können.

Als die Verfügbarkeit von Datenmengen zunahm und die Worte „Deep Learning“ und „Big Data“ erstmals ins kollektive Bewusstsein Einzug hielten, gab es in diesem Bereich einen großen Fortschritt, was zu „schnellerer Rechenleistung und verbesserten Algorithmen“ führte. Dies geschah in den 2000er Jahren und bildet die Grundsteine für heutige KI-Entwicklungen, die teilweise seit dem Aufkommen von OpenAIs ChatGPT einen nahezu popkulturellen Status innerhalb der Gesellschaft erreicht haben.

Angewandte Bildgebung bereits KI geneigt

Richard Ljuhar, Gründer des österreichischen KI-Medtechs ImageBiopsy Lab, sieht unterschiedliche Anwendungsbereiche der künstlichen Intelligenz in der heimischen Ärzteschaft: der Pathologie etwa. „Bei uns sprechen wir aber bei KI in der Medizin von angewandter Bildgebung“, sagt er. „Da hat sich in letzter Zeit viel getan. 2018 war die künstliche Intelligenz in den Anfangsstadien und bereits in der Radiologie etabliert. Radiologen sind technisch affin und haben großes Interesse, den Workflow optimal zu gestalten; bei gleichzeitiger Verbesserung der diagnostischen Genauigkeit. Es war Standard. Jetzt ist KI auch außerhalb dieses Bereichs omnipräsent und beginnt zu wachsen. Orthopäden etwa, wo die KI immer wichtiger wird, sind jetzt dort, wo Radiologen vor einigen Jahren waren. Wir sind an dem Punkt angekommen, wo die Akzeptanz bereits da ist.“

Eine Akzeptanz-Einschätzung, die Jama Nateqi, Founder des Healthtech-Startups Symptoma, durchaus teilt. Er sieht die Anwendungsbereiche von künstlicher Intelligenz in der umfassenden Unterstützung von administrativen und klinischen Prozessen im Krankenhaus und in den Arztpraxen – und startete mit dem Bezirkskrankenhaus St. Johann in Tirol ein Projekt, um die „erste KI gestützte Ambulanz Europas“ ins Leben zu rufen.

„Dies zeigt wunderbar, wie KI in der Medizin helfen kann“, sagt Nateqi. „Dabei steht jeweils unsere Kerntechnologie, an der wir seit 19 Jahren arbeiten, im Mittelpunkt – nämlich die Einschätzung von Krankheitswahrscheinlichkeiten. Das geht auch in Arztpraxen. Wir werden sehr bald eine komplette Transformation sehen.“

Diese zwei Einschätzungen beider Founder decken sich mit den Aussagen von MedUni Rektor Markus Müller, der im Vorjahr ähnliche Entwicklungen erkannt hat: „Aktuell sehen wir noch einen Großteil der KI-Anwendungen im Bereich der Administration und bei wiederkehrenden Prozessen – vor allem, wenn es um die Mustererkennung geht. Die große Domäne in der Medizin ist aktuell die Diagnostik, und hier vor allem die Radiologie, die Dermatologie, die Augenheilkunde oder die Pathologie sowie die Labormedizin“, wird er in „MedMedia“ zitiert.

Das KI-Repertoire der Republik

In Österreich entdecken heute KI-Algorithmen bereits Läsionen, schätzen Krebsrisiken ein, helfen bei der Diagnose von Erkrankungen mit komplexen Erscheinungsbildern oder dienen der Frühwarnung. Auch die Identifizierung von Krankheitsmerkmalen in Bildern, die man – ohne explizit danach zu suchen – gar nicht sehen würde, gehört zum aktuellen Repertoire. Nateqi weiß in diesem Sinne, dass hierzulande Ärztinnen und Ärzte sowie Pflegekräfte ein großes Versprechen in KI sehen, nämlich jenes, dass ihnen die enorme administrative Last abgenommen wird. „Die brennen darauf, das umzusetzen“, sagt er.

Ljuhar nach hätten Medizinerinnen und Mediziner mittlerweile auch verstanden, dass die KI niemanden ersetzen werde, sondern dabei unterstützen soll, Kranke und Verletzte richtig zu diagnostizieren. „ChatGPT hat dabei sehr geholfen“, meint der Founder. „Ein bekannter US Radiologe hat 2016 gemeint, in zehn Jahren werde es keine Radiologen geben, die KI nicht als Standard einsetzen. Jene, die sich nicht darauf einließen, würden vom Markt verschwinden. Heute sind wir in Österreich schon ein Jahr früher dort.“

Dazu betont der ImageBiopsy-Founder, dass speziell Radiologie-Mitarbeiterinnen und -Mitarbeiter den Drang hätten, noch genauer zu werden, ebenso effizienter und zudem noch „gute Rechner“ seien: Sie würden KI als Teil der Infrastrukturkosten sehen und von Natur aus mit „sündhaft teuren“ Geräten arbeiten. „Wenn die sagen, ‚KI ergibt Sinn‘, dann sind wir an dem Punkt angekommen, wo künstliche Intelligenz Standard ist“, sagt er – und umreißt die allgemeine Richtung, in die wir uns bewegen.

Bei der Blutuntersuchung würde sich die Wartezeit auf den Befund drastisch verkürze (von Wochen auf Sekunden), Radiolog:innen würden sich nur noch ausgewiesene Werte außerhalb der Norm ansehen, Orthopäd:innen könnten Fehlstellungen schneller erfassen; in der Lungendiagnostik könnte die KI nach einem Scan auf mögliche Lungenherde hinweisen – mit der Bitte um genauere Betrachtung der Stelle. Ljuhar ist überzeugt, dass die KI in der medizinischen Bildgebung „der Standard“ werden wird: „Die Ärzte, die diese Technologie nicht wollen, werden verdrängt werden.“

Während seiner Erfahrung nach vor zwei bis drei Jahren kaum Interesse an KI bestand, habe sich das bei Ärzt:innen geändert. Die Akzeptanz würde dort „im Laufschritt mit dem Reifegrad der Software“ stark zunehmen – eine Stärke allerdings, die sich unter den Patient:innen erst noch herausbilden muss, wie man nicht nur zwischen den Zeilen beider Experten heraushört.

Für Nateqi muss die Entscheidung zum Einsatz von KI bei den Patient:innen bleiben. Er weiß, dass der wichtigste Vorbehalt die sensible Frage der Souveränität des Menschen (Datenschutz) ist – und sieht es als ethische Verantwortung, die technologische und finanzielle Herausforderung zu meistern, um die Gesundheit der Menschen zu verbessern, ohne ihre Souveränität anzutasten.

Daher verfolgt er mit seinem Unternehmen den Ansatz, dass Daten beim Leistungserbringer verbleiben und lokal verarbeitet werden. Hierzu muss jeweils in eine eigene KI-Infrastruktur investiert werden. „Bald wird es als Kunstfehler gelten, wenn man KI nicht einsetzt“, ist der Symptoma-Gründer überzeugt.

Die „einfache“ Lösung wäre, die Daten einfach in eine Cloud zu schieben und dort zentral mit KI verarbeiten zu lassen. „Ich warne jedoch davor, von US-Firmen Cloud-Lösungen anzunehmen, auch wenn sie hybrid sind. Cloud ist Cloud und Daten sollten erst gar nicht rausgehen“, sagt Nateqi. Ljuhar indes hat neben der großen Frage des Schutzes eigener Daten etwas anderes bemerkt: Patient:innen seien in letzter Zeit viel „selbstbewusster“ geworden und forderten bei der orthopädischen Bildgebung den Einsatz von KI aktiv ein, sobald sie sie einmal gesehen hätten.

Explainable AI

„Sie werden schon sehr wohl aufmerksam“, präzisiert er, „aber es wird noch eine Weile dauern, bis es flächendeckend ausgerollt wird.“ Wir seien noch nicht in der Phase, es als Verantwortung von Patientinnen und Patienten zu sehen, sondern man müsse Medizinerinnen und Medizinern die Tools in die Hand geben, um Patienten und Patientinnen in die neuen Möglichkeiten einzubinden.

Heutzutage gebe es Befunde mit lateinischen Begriffen, die Betroffene nicht verstehen. Da könnte eine „explainable AI“ die Lösung sein. „Im Augenblick kämpft man mit mancher Skepsis, aber wir befinden uns auf einem guten Weg“, so Ljuhar. Er wirft Anreize für Patientinnen und Patienten ins Feld und spricht von einer „Infrastruktur, die man bieten müsse, um den Menschen die Sorge Stück für Stück zu nehmen“. „Der Gesetzgeber hat auch verstanden, dass etwas gemacht werden muss, um ‚explainable AI‘ zum Patienten zu bringen. Man muss ‚Anbieter mit Ärzten mit Patienten‘ verbinden. Es braucht den Willen. Die Jungen fragen alle bereits danach.“

In diesem Sinne schlägt Nateqi in eine ähnliche Kerbe, was die nächsten Schritte betrifft: „Man sollte vonseiten der Politik die Sorgen und Bedenken der Menschen ernst nehmen und Datenschutz priorisieren – und nicht KI langsamer, sondern nachhaltiger gestalten. Ansonsten wird man auf Widerstand in der Bevölkerung treffen.“

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag