29.04.2021

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

Die Begutachtungsphase für den Entwurf der EU-Kommission zur Regulierung von künstlicher Intelligenz hat begonnen. Clemens Wasner von AI Austria sieht noch einige kritische Punkte.
/artikel/ai-regulierung
EU-Kommission
Die US-Kommission arbeitet an einem Regelwerk für künstliche Intelligenz. | Foto: Guillaume Périgois/Unsplash

Die Europäische Union will, wie berichtet, ein umfassendes Regelwerk für künstliche Intelligenz ausarbeiten. Ein erster Entwurf dazu war in der Vorwoche veröffentlicht worden. Am Mittwoch hat nun das European AI Forum – ein Zusammenschluss von AI-Verbänden aus unterschiedlichen EU-Mitgliedsstaaten – die EU-Kommission zur Diskussion darüber gealden. An der Debatte mit Kilian Gross, dem Leiter der Artificial Intelligence Policy Development and Coordination Unit der Kommission, war auch AI Austria beteiligt. 

Der heimische Verband sieht bei den geplanten Regeln noch einigen Änderungsbedarf, wie Clemens Wasner von AI Austria gegenüber dem brutkasten erklärte. Das ist durchaus nach Plan: In der nun beginnenden Begutachtungsphase können und sollen Stellungnahmen unterschiedlicher Stakeholder eingebracht werden. Vor 2024 ist nicht damit zu rechnen, dass der Entwurf in Kraft tritt.

Hohe Kosten könnten Hemmschuh für Startups werden

“Kilian Gross hat die Absichten der Kommission grundsätzlich schlüssig erklärt”, sagt Wasner. Nicht alles habe ihn jedoch überzeugt: So hofft die EU-Kommission etwa, dass regulierte, EU-zertifizierte AI-Unternehmen künftig einen Wettbewerbsvorteil haben werden. In der Realität könnte das Regelwerk jedoch zum Hemmschuh für Startups werden – dann nämlich, wenn die mit der Zertifizierung verbundenen Kosten zu hoch seien. Im Vorfeld der Diskussion seien Kosten in der Höhe von 170.000 Euro kolportiert worden: “Aus Startup-Sicht wäre das ein K.O.-Kriterium, denn der Betrag fehlt dann in der Produktentwicklung”, sagt der AI-Experte. Dies betreffe nicht nur Startups, sondern auch viele andere Unternehmen mit beschränkten Ressourcen. 

Anders sieht es bei den großen Playern aus: Diese haben die juristischen Möglichkeiten, um sich zu arrangieren. Wasner verweist dazu auf die Datenschutz-Grundverordnung (DSGVO): Einer Statistik zufolge hätten 85 Prozent der deutschen Unternehmen von bestimmten Projekten mit Partnern Abstand genommen, weil sie befürchtet hatten, in einer rechtlichen Grauzone zu agieren. “Es könnte eine Situation entstehen, in der Unternehmen sagen: Bevor wir Probleme kriegen, verwenden wir keine künstliche Intelligenz – und der Firmenfokus könnte sich verschieben”, erläutert Wasner.

Nur 20 Prozent der AI-Anwendungen betroffen

Grundsätzlich sieht der Entwurf vor, dass nicht alle Anwendungen von künstlicher Intelligenz reguliert werden – sondern nur jene, die mit einem möglichen Risiko verbunden sind. 80 Prozent der Anwendungen dürften gar nicht unter die Regulierung fallen – etwa Applikationen im Bereich Predictive Maintenance, die in der Industrie prognostizieren, wann bei einer Maschine Instandhaltungsarbeiten durchgeführt werden sollen. Bereiche, die potenziell riskant sein könnte, aber bereits anderweitig reguliert sind – etwa autonomes Fahren oder Anwendungen im medizinischen Bereich – werden ebenfalls von geplanten Regeln nicht umfasst.

Wer entscheidet, ob ein Unternehmen reguliert wird oder nicht, ist noch offen. Den Vorstellungen der EU-Kommission zufolge könnte dies auf Eigeneinschätzungen basieren, die dann von bestimmten Institutionen – etwa den Digital Innovation Hubs der EU – abgesegnet werden müssen. Nicht reguliert wird ein Unternehmen nach jetzigem Stand auch, wenn es keine der im Entwurf definierten AI-Technologien einsetzt. Wasner sieht darin ein mögliches Schlupfloch: “Die Regulierung sollte auf den Anwendungsfall abziehen, die zugrundeliegende Technologie darf keine Rolle spielen”. Konkret heißt das: Ein Modell, das etwa die Kreditwürdigkeit einer Person mittels maschinellem Lernen prognostiziert, würde unter die Regulierung fallen. Würde man jedoch die selbe Anwendung mit anderen Methoden – etwa über ein regelbasiertes System – umsetzen, wäre es nicht betroffen. “Das ist unverständlich, innerhalb des Sachverhaltes sollte man konsistent sein”, sagt Wasner.

Keine Ausnahmen für Staaten bei Deep Fakes

Trotz der Kritikpunkte sieht AI Austria das Vorhaben grundsätzlich aber positiv: “Es wird überall auf der Welt vergleichbare Regulierungen geben und viele Punkten im Entwurf sind reparierbar”, sagt Wasner. Gegenüber dem im Vorfeld geleakten Papier hält er etwa für positiv, dass der tatsächliche Entwurf bei Deep Fakes nun keine Ausnahmen mehr für Staaten vorsieht, solche zu verbreiten, wenn es im öffentlichen Interesse ist: “So eine Szenario gibt es eigentlich nicht, daher ist das aus bürgerrechtlicher Perspektive die wichtigste Änderung gegenüber der geleakten Version”, erläutert der AI-Experte.

Auch würden die Regulierung Themen wie etwa Bias in Datensätzen erst griffig: “Durch die Zertifizierung wird eine intensivere Auseinandersetzung mit dem Thema entstehen”. Der Mehrwert für die Bürger sei gegeben, aber es sei wichtig, dass es flankierende Maßnahmen gebe – etwa, dass Datensätze ohne Bias zur Verfügung gestellt werden. Die Kommission hat angekündigt, mittels Public-Private-Partnerships (PPP) 20 Mrd. Euro in künstliche Intelligenz investieren zu wollen: “Dieses Geld könnte man unter anderem auch dafür verwenden”, schlägt Wasner vor.

Deine ungelesenen Artikel:
vor 31 Minuten

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
vor 31 Minuten

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
Diskussionsrunde der Folge 2: Harald Herzog, Moritz Mitterer, Carina Zehetmaier, Bernd Konnerth, Markus Fallenböck (c) brutkasten

„No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.


Gut zwei Jahre ist es her, dass ChatGPT einen Hype rund um generative KI-Modelle auslöste. Doch es stellen sich auch viele kritische Fragen beim Einsatz von KI – besonders in sensiblen Bereichen. Klar ist: Künstliche Intelligenz bietet viele Vorteile und vereinfacht komplexe Prozesse. Gleichzeitig wirft sie jedoch auch Herausforderungen und Ängste auf, mit denen man sich kritisch auseinandersetzen muss.

Was KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten kann, diskutierten in der zweiten Folge „No Hype KI”:

  • Bernd Konnerth (Microsoft Österreich | Public Sector Lead)
  • Carina Zehetmaier (Women in AI Austria | Präsidentin)
  • Harald Herzog (Österreichische Gesundheitskasse | Leiter Digitalisierung und Innovation)
  • Moritz Mitterer (ITSV | Aufsichtsratsvorsitzender)
  • Markus Fallenböck (Universität Graz | Vizerektor für Personal und Digitalisierung).
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Menschenzentrierter Ansatz im Mittelpunkt

Künstliche Intelligenz ist schon längst Teil unseres Alltags – ob bewusst oder unbewusst. Und obwohl KI bereits in vielen Lebensbereichen der Österreicher:innen präsent ist, bleibt die Skepsis bei vielen groß. Laut Carina Zehetmaier ist es daher ein besonders wichtiger Faktor, dass man jeder einzelnen Person KI näher bringt, sodass mehr Vertrauen in die Technologie entsteht: „Derzeit gibt es noch viele Ängste rund um KI. Aber es gibt auch noch gewisse Schwachstellen wie zum Beispiel das Halluzinieren, oder auch Vorurteile, die in den Systemen drinnen sind und widergespiegelt werden können. Es ist relevant, dass man sich hier von Anfang an mit den kritischen Fragenstellungen auseinandersetzt“.

Hierbei müsse an vorderster Stelle die öffentliche Hand hohe Standards setzen – vor allem aus menschenrechtlicher Sicht. Zehetmaier befürwortet in diesem Zusammenhang den AI Act, der klare gesetzliche Rahmenbedingungen schafft. „Die öffentliche Hand ist der direkte Adressat der Grund- und Menschenrechte“, sagt sie.

Ein weiterer wichtiger Punkt von Zehetmaier ist die Notwendigkeit, marginalisierte Gruppen nicht zu übersehen. Man müsse sich bemühen, geschlechtsspezifische und andere Vorurteile in Datensätzen zu vermeiden. „Wir wissen auch, dass Automatisierung den Gender-Pay-Gap öffnet anstatt schließt, das heißt, da müssen wir aktiv und gezielt gegensteuern“.

Verantwortungsvolle KI bedeute, aktiv an den Daten und Algorithmen zu arbeiten. Nur so könne sichergestellt werden, dass KI-Anwendungen nicht nur technologisch effizient, sondern auch ethisch und gesellschaftlich verantwortungsvoll gestaltet werden.

Responsible AI: Inklusivität, Fairness, Datenschutz

Dass die Anwendung von generativer KI nicht bloß Kosten senken soll, sondern den Menschen Nutzen bringen muss, ist auch für Bernd Konnerth von Microsoft klar. „Wir setzen auf Responsible-AI-Standards, bei denen es um Inklusivität, Fairness, Datenschutz und all diese Themen geht. Das sind Leitplanken in unserer Produktentwicklung“, sagt der Public Sector Lead von Microsoft Österreich.

Von der Unternehmenstransformation bis hin zum öffentlichen Dienst sei ein breites Umschulungsprogramm notwendig, um Ängste abzubauen: Es sei wichtig, „Umgebungen zu schaffen, die es Mitarbeiterinnen und Mitarbeiter möglich machen, mit der Technologie zu interagieren, um den Berührungsängsten entgegen zu wirken”.

Universität Graz startete UniGPT für Mitarbeitende

Was Bildung angeht, betont Markus Fallenböck von der Universität Graz die Bedeutung einer breiten Wissensvermittlung. Es gehe nicht nur um Spezialist:innen für KI, sondern vor allem um die große Masse an Mitarbeitenden, die einen “sinnvollen Umgang mit KI erlernen” müssen: „Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr können wir Chancen nutzen und Risiken minimieren“.

Die Universität Graz hat dazu eine eigene Micro-Credential-KI gestartet, um Studierenden ein Grundwissen zu KI zu vermitteln: “Das ist ein abgeschlossenes Studienpaket, das man in jedes Studium integrieren kann und das gerade in einer Pilotphase ist”, erläutert Fallenböck. Das Paket lasse sich in jedes Studium integrieren. “Da ist die Idee, dass in ein paar Jahren jeder Bachelor-Studierende, der in Graz einen Abschluss macht, ein Grundwissen hat zu KI-Bereich, Technik, Wirtschaft, Recht, Ethik”.

Für die eigenen Mitarbeiter:innen hat die Universität Graz im Mai 2024 außerdem den Chatbot UniGPT gestartet. Bereits mehrere hundert Mitarbeiter:innen wurden dafür bereits eingeschult. “Da sitzt die Universitätsprofessorin neben der Sekretariatskraft und beide interessieren sich für KI und werden es in ihrem Arbeitsalltag gut einsetzen”, schildert Fallenböck seine Eindrücke.

Über die eigenen Mitarbeitenden will die Universität Graz Wissensvermittlung aber auch in die Bevölkerung tragen. Dazu hat sie im Oktober etwa erstmals den Technology Impact Summit zum Thema KI in Graz veranstaltet. “Weil natürlich auch wichtig ist, dass wir die breite Öffentlichkeit mit dem Thema erreichen. Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr, können wir auch das Chancennutzen und Risikominimieren wirklich schaffen”, erläutert Fallenböck.

ITSV: Künstliche Intelligenz im Gesundheitssystem

 Die ITSV wiederum steuert und koordiniert die IT-Aktivitäten der österreichischen Sozialversicherung – und beschäftigt sich schon länger mit dem KI-Thema. Aufsichtsratsvorsitzender Moritz Mitterer erzählt im Talk, dass das Unternehmen bereits 2018 mit der Erprobung von KI-Lösungen begonnen habe. In einem geschützten Umfeld wurden dabei erste Erfahrungen gesammelt, bevor die Systeme in den Echtbetrieb übergingen. Dieser schrittweise Ansatz habe wesentlich dazu beigetragen, das Vertrauen in KI-Modelle im Unternehmen zu stärken.

Besonders bei sensiblen Daten, wie etwa Gesundheitsdaten, ist die Gefahr von Missbrauch ein zentraler Risikofaktor. Mitterer erläutert die Bedeutung von Transparenz und Nachvollziehbarkeit: „Man muss Patientinnen und Patienten mitnehmen, indem man entsprechend strenge Regeln hat und Compliance hat. Und indem man offen damit umgeht, falls doch was sein sollte“.

KI schafft Abhilfe bei steigendem Leistungsaufkommen bei ÖGK

Die ITSV arbeitet dabei unter anderem für die Österreichische Gesundheitskasse (ÖGK). Harald Herzog von der ÖGK erläutert, dass das steigende Leistungsaufkommen – etwa wachsende Fallzahlen, steigende Lebenserwartung, mehr Konsultationen – nach neuen Wegen verlangt: „Würden wir die Prozesse so weiterspielen wie bisher, bräuchten wir mehr Personal“, so Herzog. „Unsere Aufgabe ist es effizient zu arbeiten und alle technischen Möglichkeiten der KI auszunutzen“.

KI könne hier unterstützen, etwa bei der Wahlarztkostenerstattung. Ziel sei es, einen Großteil der Fälle automatisiert abwickeln zu können. Laut Herzog geht es aber nicht darum, den persönlichen Kontakt zu ersetzen, sondern lediglich zu ergänzen.

Zusätzliches Wirtschaftswachstum von bis zu 18 Prozent durch KI-Nutzung

Auch die öffentliche Verwaltung steht vor Herausforderungen, etwa aufgrund der Pensionierungswelle oder des Fachkräftemangels. Künstliche Intelligenz könnte dabei eine Rolle spielen. Bernd Konnerth von Microsoft Österreich sagt: „Künstliche Intelligenz kann eine Antwort sein – vielleicht nicht die Einzige, aber sie hat sehr viel Potenzial durch die Automatisierung wiederkehrender Tätigkeiten, viel Nutzen zu stiften“.

Aktuell befinde sich Österreich erst am Anfang, dieses Potenzial auszuschöpfen. Konnerth verweist auf eine Studie, dass Österreich ein Wirtschaftswachstum von bis zu 18 Prozent erzielen könnte, wenn das ganze Potenzial von KI ausgeschöpft werde.

Ausblick: KI-Nutzung in fünf Jahren

Wo steht der Einsatz von Künstlicher Intelligenz in fünf Jahren? „Ich hoffe, dass wir nicht mehr über die Technologie reden müssen, so wie wir heute auch nicht mehr über Strom sprechen, sondern dass sie einfach da ist“, so Microsoft-Experte Konnerth.

Carina Zehetmaier wiederum blickt auf die EU als Werteunion. In fünf Jahren solle man sehen, dass Österreich und Europa es geschafft haben, einen wertebasierten, menschengerechten KI-Einsatz umzusetzen. Für Österreich könne sich hier eine besondere Chance bieten, so Zehetmaier. Das Land könne sich als Vorreiter für einen vertrauenswürdigen, menschenzentrierten Umgang mit KI etablieren. Es gehe darum, „den menschenzentrierten Ansatz im Einklang mit Werten und Grundrechten umzusetzen“.

KI birgt enormes Potenzial

Die Diskussionsrunde ist sich einig, dass KI in sensiblen Arbeitsfeldern längst keine ferne Zukunftsvision mehr ist, sondern bereits eine zentrale Rolle darstellt. Die Chancen sind enorm – von effizienteren Verwaltungsprozessen über eine präzisere Gesundheitsversorgung bis hin zu einer gerechteren Bildung. Doch um diese Möglichkeiten zu nutzen, braucht es breites Verständnis, klare Regeln, vertrauenswürdige Technik und einen sensiblen Umgang mit Daten.


Folge nachsehen: No Hype KI – Was kann KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten?

Hier gehts es zur Nachlese von Folge 1: „No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

Die Partner von No Hype KI
Die Partner von No Hype KI

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

AI Austria sieht noch Änderungsbedarf bei geplanten EU-Regeln für künstliche Intelligenz