✨ AI Kontextualisierung
Sie haben sich ordentlich dahingezogen, die Verhandlungen zwischen EU-Parlament, EU-Kommission und den Mitgliedsstaaten. Der vermeintlich letzte Verhandlungstag begann am Mittwoch um 16 Uhr. Nach einer durchverhandelten Nacht wurden die Gespäche aber am frühen Donnerstagnachmittag unterbrochen. Am Freitag in der Früh ging es weiter – und nach einem weiteren Tag mit intensiven Verhandlungen kam man gegen Mitternach schließlich zu einer vorläufigen Einigung.
“Deal”, schrieb Digitalkommissar Thierry Breton um 23.37 Uhr auf der Plattform X (vormals Twitter) und postete dabei eine Grafik, die die EU als einzigen Kontinent mit KI-Regulierung auswies. Die Einigung sei “historisch”, schreib er in einer weiteren Nachricht. Der AI Act sei “viel mehr als ein Regelwerk – er ist eine Startrampe für EU-Startups und Forscher, um das globale KI-Rennen anzuführen.”
Die Verhandler:innen standen schon unter Zeitdruck: Denn im kommenden Jahr stehen Wahlen zum EU-Parlament an. Und ohne Einigung hätte sich ein Beschluss bis in die nächste Legislaturperiode des Parlaments verzögert.
Nun gibt es eine vorläufige politische Einigung, die die Eckpunkte absteckt. Viele technische Details müssen erst noch ausgearbeitet werden. “Es könnte Wochen dauern, um den Text zu konsolidieren”, erwartet der Journalist Luca Bertuzzi, der die Verhandlungen für das Portal Euractiv intensiv verfolgte. Wirksam werden soll der AI Act in rund zwei Jahren, bestimmte Teile der Regulierung sollen bereits früher schlagend werden.
“Foundation Models” wie GPT-4 nicht vom AI Act ausgenommen
Die konkrete Ausgestaltung des AI Acts ist schon länger äußerst umstritten. Kontroverse Punkte gab es dabei einige. In den vergangenen Wochen war etwa der Umgang mit “Foundation Models” ein Streitpunkt. Dabei handelt es sich um KI-Modelle, die die Grundlage für andere Anwendungen liefern, wie etwa die GPT-Modelle von OpenAI. Die Sprachmodelle GPT-3.5 und GPT-4 sind die “Foundation Models” hinter ChatGPT.
Deutschland, Frankreich und Italien hatten hier vorgeschlagen, solche Basismodelle aus dem AI Act auszunehmen. Stattdessen sollte eine Selbstverpflichtung der Anbeiter umgesetzt werden. Das EU-Parlament war strikt dagegen – und setzte sich weitgehend durch. Bestimmte Transparenzvorschriften werden für alle KI-Modelle gelten. Große KI-Modelle, die “systemische Risiken” aufweisen, bekommen zusätzliche Verpflichtungen.
Neue KI-Behörde in Kommission geplant
Für Open-Source-Modelle wiederum sind Ausnahmen vorgesehen: Werden sie nicht als Modelle mit systemtischen Risiko eingestuft, beschränken sich die verpflichtenden Angaben auf Informationen zu Trainingsdaten und Testverfahren.
Zur Regulierung dieser Basismodelle wird innerhalb der Europäischen Kommission eine KI-Behörde etabliert. Grundsätzlich werden KI-Modelle von den zuständigen Behörden auf Ebene der Mitgliedsstaaten überwacht. Diese stimmen sich dazu im Europäischen Ausschuss für künstliche Intelligenz ab.
Der AI Act ermöglicht Strafen von bis 6,5 Prozent des globalen Umsatzes eines Unternehmen oder bis zu 35 Mio. Euro – dies gilt für die schwersten Vergehen bei verbotenen Anwendungsfällen. System- und Modellanbietern können Strafen von 3 Prozent des Umsatzes oder 15 Mio. Euro drohen, wenn sie ihren Verpflichtungen nicht nachkommen. Strafen von 1,5 Prozent des Umsatzes oder 500.000 Euro können fällig werden, wenn falsche Informationen angegeben werden.
Biometrische Identifizierung von Personen nicht vollständig verboten
Intensiv diskutiert wurden auch bestimmte Anwendungsfälle von KI – etwa im Bereich biometrischer Anwendungen. Das EU-Parlament wollte biometrische Identifizierung von Personen im öffentlichen Raum völlig verbieten. Damit konnte es sich nicht durchsetzen. Die biometrische Identifizierung von Personen ist nach dem AI unter bestimmten Voraussetzungen zulässig – und zwar bei der gezielten Suche nach konkreten Personen, wenn es um die Gefahr eines Terroranschlags oder um andere schwere Straftaten geht.
Lange kontroverse Diskussionen über AI Act
Über die konkrete Ausgestaltung des AI Acts war inbesondere in den vegangenen Monaten kontrovers diskutiert worden – auch Startups befürchteten Nachteile. Im Oktober hatte beispielsweise das französische KI-Jungunternehmen Mistral AI gewarnt, dass der AI Act, so wie er geplant sei, den weiteren Betrieb des Startups verunmöglichen könnte (brutkasten berichtete). Der AI Act klassifiziert KI-Anwendungen in unterschiedliche Risikokategorieren – mit denen dann verschiedene Pflichten und Haftungen einhergehen.
Auch ein im Sommer an der Hochschule St. Gallen durchgeführter “Praxis-Stresstest” zum AI lieferte mehrere kritische Punkte (brutkasten berichtete). Bei der von Europarechts-Professor Thomas Burri durchgeführten Challenge wurden reale KI-Anwendungen von Unternehmen, wie der Deutschen Telekom oder Mercedes Benz, auf ihre Kompatibilität mit dem AI Act abgeklopft. “Mit dem AI Act sähen wir Unsicherheit bei genau den Leuten, auf die wir unsere Zukunft bauen wollen”, schlussfolgerte Burri damals.
Die EU beschäftigt sich seit über zwei Jahren mit einem Rahmenwerk für künstliche Intelligenz. Seither hat sich in dem Bereich allerdings auch einiges verändert – man denke nur an das Erscheinen von ChatGTP Ende November 2022, das die Fortschritte bei künstlicher Intelligenz ins Bewusstsein der Öffentlichkeit holte. “Die schnellen Entwicklungen im AI-Bereich haben die Aufgabe nicht leichter gemacht”, sagte der italienische EU-Parlamentarier Brando Benifel bei einem Pressebriefing zum AI Act im Juni, an dem brutkasten teilgenommen hatte.