Die Europäische Union will, wie berichtet, ein umfassendes Regelwerk für künstliche Intelligenz ausarbeiten. Ein erster Entwurf dazu war in der Vorwoche veröffentlicht worden. Am Mittwoch hat nun das European AI Forum – ein Zusammenschluss von AI-Verbänden aus unterschiedlichen EU-Mitgliedsstaaten – die EU-Kommission zur Diskussion darüber gealden. An der Debatte mit Kilian Gross, dem Leiter der Artificial Intelligence Policy Development and Coordination Unit der Kommission, war auch AI Austria beteiligt. 

Der heimische Verband sieht bei den geplanten Regeln noch einigen Änderungsbedarf, wie Clemens Wasner von AI Austria gegenüber dem brutkasten erklärte. Das ist durchaus nach Plan: In der nun beginnenden Begutachtungsphase können und sollen Stellungnahmen unterschiedlicher Stakeholder eingebracht werden. Vor 2024 ist nicht damit zu rechnen, dass der Entwurf in Kraft tritt.

Hohe Kosten könnten Hemmschuh für Startups werden

“Kilian Gross hat die Absichten der Kommission grundsätzlich schlüssig erklärt”, sagt Wasner. Nicht alles habe ihn jedoch überzeugt: So hofft die EU-Kommission etwa, dass regulierte, EU-zertifizierte AI-Unternehmen künftig einen Wettbewerbsvorteil haben werden. In der Realität könnte das Regelwerk jedoch zum Hemmschuh für Startups werden – dann nämlich, wenn die mit der Zertifizierung verbundenen Kosten zu hoch seien. Im Vorfeld der Diskussion seien Kosten in der Höhe von 170.000 Euro kolportiert worden: “Aus Startup-Sicht wäre das ein K.O.-Kriterium, denn der Betrag fehlt dann in der Produktentwicklung”, sagt der AI-Experte. Dies betreffe nicht nur Startups, sondern auch viele andere Unternehmen mit beschränkten Ressourcen. 

Anders sieht es bei den großen Playern aus: Diese haben die juristischen Möglichkeiten, um sich zu arrangieren. Wasner verweist dazu auf die Datenschutz-Grundverordnung (DSGVO): Einer Statistik zufolge hätten 85 Prozent der deutschen Unternehmen von bestimmten Projekten mit Partnern Abstand genommen, weil sie befürchtet hatten, in einer rechtlichen Grauzone zu agieren. “Es könnte eine Situation entstehen, in der Unternehmen sagen: Bevor wir Probleme kriegen, verwenden wir keine künstliche Intelligenz – und der Firmenfokus könnte sich verschieben”, erläutert Wasner.

Nur 20 Prozent der AI-Anwendungen betroffen

Grundsätzlich sieht der Entwurf vor, dass nicht alle Anwendungen von künstlicher Intelligenz reguliert werden – sondern nur jene, die mit einem möglichen Risiko verbunden sind. 80 Prozent der Anwendungen dürften gar nicht unter die Regulierung fallen – etwa Applikationen im Bereich Predictive Maintenance, die in der Industrie prognostizieren, wann bei einer Maschine Instandhaltungsarbeiten durchgeführt werden sollen. Bereiche, die potenziell riskant sein könnte, aber bereits anderweitig reguliert sind – etwa autonomes Fahren oder Anwendungen im medizinischen Bereich – werden ebenfalls von geplanten Regeln nicht umfasst.

Wer entscheidet, ob ein Unternehmen reguliert wird oder nicht, ist noch offen. Den Vorstellungen der EU-Kommission zufolge könnte dies auf Eigeneinschätzungen basieren, die dann von bestimmten Institutionen – etwa den Digital Innovation Hubs der EU – abgesegnet werden müssen. Nicht reguliert wird ein Unternehmen nach jetzigem Stand auch, wenn es keine der im Entwurf definierten AI-Technologien einsetzt. Wasner sieht darin ein mögliches Schlupfloch: “Die Regulierung sollte auf den Anwendungsfall abziehen, die zugrundeliegende Technologie darf keine Rolle spielen”. Konkret heißt das: Ein Modell, das etwa die Kreditwürdigkeit einer Person mittels maschinellem Lernen prognostiziert, würde unter die Regulierung fallen. Würde man jedoch die selbe Anwendung mit anderen Methoden – etwa über ein regelbasiertes System – umsetzen, wäre es nicht betroffen. “Das ist unverständlich, innerhalb des Sachverhaltes sollte man konsistent sein”, sagt Wasner.

Keine Ausnahmen für Staaten bei Deep Fakes

Trotz der Kritikpunkte sieht AI Austria das Vorhaben grundsätzlich aber positiv: “Es wird überall auf der Welt vergleichbare Regulierungen geben und viele Punkten im Entwurf sind reparierbar”, sagt Wasner. Gegenüber dem im Vorfeld geleakten Papier hält er etwa für positiv, dass der tatsächliche Entwurf bei Deep Fakes nun keine Ausnahmen mehr für Staaten vorsieht, solche zu verbreiten, wenn es im öffentlichen Interesse ist: “So eine Szenario gibt es eigentlich nicht, daher ist das aus bürgerrechtlicher Perspektive die wichtigste Änderung gegenüber der geleakten Version”, erläutert der AI-Experte.

Auch würden die Regulierung Themen wie etwa Bias in Datensätzen erst griffig: “Durch die Zertifizierung wird eine intensivere Auseinandersetzung mit dem Thema entstehen”. Der Mehrwert für die Bürger sei gegeben, aber es sei wichtig, dass es flankierende Maßnahmen gebe – etwa, dass Datensätze ohne Bias zur Verfügung gestellt werden. Die Kommission hat angekündigt, mittels Public-Private-Partnerships (PPP) 20 Mrd. Euro in künstliche Intelligenz investieren zu wollen: “Dieses Geld könnte man unter anderem auch dafür verwenden”, schlägt Wasner vor.