10.10.2022

Diese Schritte setzt Österreich nun gegen die umstrittene EU-Taxonomie-Verordnung

Klimaschutzministerin Leonore Gewessler hat am Montag die Details zur jüngsten EU-Taxonomie-Klage der österreichischen Bundesregierung präsentiert. Unter anderem beruft sich Österreich auf das "Do No Significant Harm“-Prinzip.
/eu-taxonomie-klage-oesterreich/
Gewessler
(c) Facebook-Page Leonore Gewessler
Der Summary Modus bietet einen raschen
Überblick und regt zum Lesen mehrerer
Artikel an. Der Artikeltext wird AI-basiert
zusammengefasst mit der Unterstützung
des Linzer-Startups Apollo AI.

Bereits am vergangenen Freitag reichte die österreichische Bundesregierung beim Europäischen Gerichtshof (EuGH) eine Klage gegen die umstrittene EU-Taxonomie-Verordnung ein. Konkret handelt es sich dabei um eine Nichtigkeitsklage gegen einen ergänzenden delegierten Rechtsakt zur EU-Taxonomie. Dieser wurde am Silvesterabend 2021/2022 an die EU-Mitgliedsstaaten verschickt. Stein des Anstoßes: Künftig könnten Investitionen in Gas und Atomkraft als klimafreundlich gelten. Bis zum 12. Jänner hatten die EU-Staaten Zeit auf die komplexe Materie zu antworten. Bereits damals kritisierten zahlreiche Klimaschutz-Organisationen die kurze Konsultationszeit. Klimaschutzministerin Leonore Gewessler sprach damals auch von einer „Nacht und Nebelaktion“.

Klage umfasst 16 Punkte

Am Montag präsentierte Gewessler gemeinsam mit der Rechtsanwältin Simone Lünenbürger der Kanzlei Redeker Sellner Dahs mit Sitz in Brüssel, die Details der Klage. Gleich zu Beginn stellte Gewessler fest: „Ich halte die Taxonomie-Verordnung für ein wichtiges Instrument. Sie sorgt für mehr Transparenz am Finanzmarkt und kann Green-Washing verhindern“. Dahingehend richte sich die Klage nicht gegen die EU-Taxonomie-Verordnung an sich, sondern gegen den ergänzenden delegierten Rechtsakt, der erst nachträglich zum Jahreswechsel von der EU-Kommission adaptiert wurde.

Das „Do No Significant Harm“-Prinzip

Die Klage umfasst ingesamt 16 Punkte. So wird beispielsweise in Bezug auf die Atomkraft kritisiert, dass ein potentielles Strahlenrisiko bei Reaktorunfällen nicht vereinbar mit dem „Do No Significant Harm“-Prinzip sei, das ebenfalls in der EU-Taxonomie-Verordnung verankert ist. So heißt es beispielsweise in der Verordnung: „Neben einem substanziellen Beitrag zu einem dieser Umweltziele darf gleichzeitig kein anderes Umweltziel verletzt werden.“ Die Reaktor-Unfällen in Tschernobyl im Jahr 1986 oder Fukushima im Jahr 2011 würden das Gegenteil beweisen, so die Argumentation. Zudem habe die EU-Kommission nicht die Ermächtigung, solch weitreichende politischen Entscheidungen zu treffen, so Gewessler. Hier würde gegen EU-Primärrecht verstoßen.

EU-Taxonomie tritt mit 1. Jänner 2023 in Kraft

Ob Österreich mit dieser Argumentation vor dem EuGH durchkommen wird, ist laut Experten fraglich. Auch Simone Lünenbürger wollte diesbezüglich keine Wahrscheinlichkeiten nennen. Fest steht jedenfalls, dass das EuGH Verfahren keine aufschiebende Wirkung hat. Eine Entscheidung könnte laut der Expertin bis zu zwei Jahre dauern. Demnach würde die Regelung mit 1.1.2023 in Kraft treten.

Podcast-Tipp: Die Hintergründe zum Streit rund um die EU-Taxonomie

Deine ungelesenen Artikel:
vor 3 Stunden

AI Act der EU: KI-Regulierung im Anmarsch

Was hat sich seit dem ersten AI-Act-Entwurf geändert? Welche Auswirkungen hat das auf Startups? Jeannette Gorzala, Rechtsanwältin und Mitglied von AI Austria sowie dem European AI Forum, klärt diese Fragen in ihrem Gastbeitrag auf.
/ai-act-der-eu-ki-regulierung-im-anmarsch/
In ihrem Gastbeitrag erklärt Gorzala, was der AI Act für Startups bedeutet. (c) (c) AdobeStock & Jeannette Gorzala

Seit der Veröffentlichung des ersten Entwurfs des Artificial Intelligence Act (AI Act) durch die Europäischen Kommission im April 2021 läuft das europäische Gesetzgebungsverfahren auf Hochtouren. Am 6. Dezember 2022, etwas mehr als eineinhalb Jahre nach der Erstveröffentlichung, wurde der gemeinsame Standpunkt im Rat der Europäischen Union (Rat) zum AI Act verabschiedet.

Die Definition des KI-Systems bestimmt, welche Technologien vom AI Act überhaupt betroffen sind, und damit die Pflichten von Herstellern und Nutzern. Im Vergleich zur ursprünglich umstrittenen, sehr weiten Definition, wirkt die neue stark eingegrenzt, da sie sich nunmehr nur auf Software bezieht, die machine learning oder Logik- sowie wissensbasierte Ansätze verwendet. Statistische Ansätze, Such-, Schätz- und Optimierungsmethoden wurden als KI-Technologien gestrichen. Dies darf jedoch nicht darüber hinwegtäuschen, dass das Verständnis von machine learning und Logik- und wissensbasierten Ansätzen sehr umfangreich ist.

Achtung bei Erstellung & Verwendung von General Purpose AI

Neu ist, dass auch general purpose AI systeme (auch wenn sie Open Source sind), die entweder Hochrisiko-Systeme sind oder als Komponenten für diese verwendet werden, die Compliance für Hochrisiko-Systeme erfüllen müssen. General purpose AI sind Systeme, die allgemeine Funktionen, wie beispielsweise Bild-, Sprach-, Texterkennung, Video- und Audioproduktion, Mustererkennung, Fragenbeantwortung oder Übersetzung ausführen können. Diese Bestimmung kann eine breite Palette von Entwicklern entlang der Software-Lieferkette betreffen, weshalb bereits jetzt auf good governance geachtet werden sollte. Die konkreten Pflichten stehen noch nicht fest und sollen durch weitere Rechtsakte konkretisiert werden.

AI Act sieht hohe Risiken bei Hochrisiko-KI

Für die Klassifizierung, ob ein Hochrisiko KI-System vorliegt, wird eine horizontale Ebene eingezogen. Diese soll dazu dienen, KI-Systeme, die wahrscheinlich zu keinen fundamentalen Risiken für Gesundheit, Sicherheit oder Grundrechte führen, weil ihr Output nur als Zusatz zu einer Aktion oder Entscheidung dient, von der Hochrisiko-Kategorie auszunehmen. Schwierig ist, dass hier erst spätestens einem Jahr nach Inkrafttreten des AI Acts genaue Vorgaben ergehen sollen. Startups müssen daher für die Einordnung ihres Geschäftsmodells ein zusätzliches Kriterium berücksichtigen, dass mit einer unklaren Abwägungsentscheidung behaftet ist. Startups mit Lösungen im Bereich Gesundheitsversicherung oder digitale Infrastruktur sollten im Auge behalten, dass diese Bereiche nunmehr ebenfalls der Hochrisiko-Kategorie hinzugefügt wurden.

Spielen im neuen KI-Sandkasten unter realen Konditionen, mit Haftung

Mit KI-Sandboxes soll ein kontrolliertes Umfeld geschaffen werden, in dem innovative KI-Systeme entwickelt, getestet und validiert werden können, dies unter der direkten Aufsicht und Anleitung der national zuständigen Behörden. Mit dem Ziel den AI Act innovationsfreundlich zu gestalten wurde klargestellt, dass AI Sandboxes auch das testen von KI-Systemen im Echtbetrieb erlauben sollen. Unter bestimmten Voraussetzungen soll auch das Testen von KI-Systemen außerhalb behördlicher Aufsicht zulässig sein. Klargestellt wird aber auch, die Teilnahme in der KI-Sandbox ist kein Freischein. Teilnehmer haften für jegliche verursachen Schäden.


Welcher Haftungsrahmen für KI geplant ist und was auf Softwareentwickler:innen zukommt, wird im zweiten Teil des Startup-Updates behandelt.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

Gewessler
(c) Facebook-Page Leonore Gewessler

Diese Schritte setzt Österreich nun gegen die umstrittene EU-Taxonomie-Verordnung

Klimaschutzministerin Leonore Gewessler hat am Montag die Details zur jüngsten EU-Taxonomie-Klage der österreichischen Bundesregierung präsentiert. Unter anderem beruft sich Österreich auf das "Do No Significant Harm“-Prinzip.

Summary Modus

Diese Schritte setzt Österreich nun gegen die umstrittene EU-Taxonomie-Verordnung

Es gibt neue Nachrichten

Auch interessant