✨ AI Kontextualisierung
In der KI-Forschung steht die EU – wie auch in anderen Forschungsbereichen – gut da. Der Staatenbund bringt weltweit die meisten wissenschaftlichen Papers zum Thema hervor. In anderen relevanten Bereichen, etwa bei Investitionen, sieht es aber – wie so oft – anders aus. An China und die USA wird die EU auch dann nicht herankommen, wenn sie ihr Ziel, im Laufe des Jahrzehnts auf 20 Milliarden Euro Investment in AI pro Jahr zu kommen, erreicht. Unter anderem hier soll ein neuer “AI Act” (KI-Verordnung) der Europäischen Union Verbesserung bringen – der brutkasten berichtete bereits. Zum Gesetzeswerk liegt ein Vorschlag der EU-Kommission vor, der kommende Woche erstmals abgestimmt wird, um dann in die Trilogverhandlungen zwischen Europäischem Parlament, Rat und EU-Kommission zu gehen.
“Balanceakt” zwischen Förderung und Regulierung
Auffallend ist im Entwurf zum AI Act vor allem der Versuch, Künstliche Intelligenz sehr genau – und auch relativ streng – zu reglementieren. Der Rechtsrahmen soll künftig sowohl für öffentliche als auch für private Akteure gelten – innerhalb und außerhalb der EU, “sofern das KI-System in der EU in Verkehr gebracht wird oder Menschen in der EU von seiner Verwendung betroffen sind”. Zu diesem Spannungsfeld zwischen Förderung und Reglementierung meinte Digitalisierungs-Staatssekretär Florian Tursky bei einem heutigen Pressetermin, es sei ein Balanceakt in den Verhandlungen, das richtige Maß an Regulierung zu finden.
Einteilung in vier Risikostufen
Ob eine KI-Anwendung überhaupt zugelassen wird, soll nach dem AI Act-Entwurf vom von dieser ausgehenden Risiko abhängig sein, das in vier Klassifizierungen unterteil werden soll: Unannehmbares Risiko, Hohes Risiko, Geringes Risiko und Minimales Risiko. Anwendungen mit unannehmbarem Risiko sollen demnach verboten werden, etwa “social Scoring”. Die Einstufung als hohes Risiko führt zu strengen Vorgaben vor Inverkehrbringen. KI-Systeme mit geringem Risiko treffen gewisse Transparenzverpflichtungen.
Der Großteil der Anwendungen stellen Systeme mit minimalem Risiko dar, wird angeführt. Für diese gilt die freie Anwendung auf Basis der bestehenden rechtlichen Verpflichtungen ohne zusätzliche Auflagen. Dem Hochrisikobereich gehören laut EU-Kommission 15 Prozent aller Anwendungen an. Fragen zur Haftung von KI-Systemen werden im Rechtsakt übrigens nicht verankert. Hierzu wurde erst kürzlich eine gesonderte KI-Haftungs-Richtlinie vorgelegt.
In Österreich verschiedene Behörden für Ahndung von AI Act-Verstößen zuständig
Personen und Unternehmen sollen bei mutmaßlichen Verstößen gegen die geplante KI-Verordnung künftig Beschwerde bei der zuständigen Marktaufsichtsbehörde einreichen können. “In Österreich ist die Marktüberwachung je nach Produkt bei einer unterschiedlichen Stelle angesiedelt”, heißt es vom Staatssekretäriat für Digitalisierung in einer Aussendung.
Staatssekretär Tursky kommentiert dort: “Die KI-Verordnung ist ein wichtiger Schritt für Europa, um in diesem Zusammenhang für Rechtssicherheit zu sorgen. Ziel ist es, einerseits die Entwicklung von KI in Europa zu fördern. Gleichzeitig müssen aber die öffentlichen Interessen, wie Grundrechte und Sicherheit gewährleistet sein”. Ein klarer europaweiter Rechtsrahmen sei beim Thema Künstliche Intelligenz unerlässlich. Er schaffe sowohl für Entwickler die Sicherheit klarer Regeln für die Gestaltung, als auch für die Endnutzer die Sicherheit, mit einer sicheren und vertrauenswürdigen KI-Anwendung zu interagieren.