Mit dem neuen sprechenden KI-Assistenten “GPT-4o” ist die KI “Jarvis” aus dem Film “Iron Man” mit Robert Downey Jr. quasi in der Realität angekommen. Die österreichischen Unternehmen sind aber noch nicht so weit. Die meisten von ihnen befinden sich derzeit in der Konzeptionsphase ihrer KI-Projekte. Dabei müssen sie diese vier wichtigsten Regeln vom EU-AI-Act beachten:

Unternehmen müssen bereits bei der Konzeption, der Entwicklung und dem Testen von KI-Systemen Legal Compliance beachten und nicht erst bei der Markteinführung. Künstliche Intelligenz muss nicht nur die rechtlichen Rahmenbedingungen erfüllen, sondern technisch dokumentiert sowie nachvollziehbar sein und menschlich kontrolliert werden.

Kenne Deine KI-Risikostufe

Nachdem das grobe Konzept vorliegt, ist die Risikostufe zu hinterfragen. Denn der Kernpunkt des AI-Act ist die Einteilung von KI-Anwendungen in vier Risikoklassen:

  • Verbotene AI-Systeme, die in der EU nicht genutzt werden dürfen. Das umfasst beispielsweise Emotionserkennung am Arbeitsplatz, die Analyse von Video-Calls von Mitarbeiter:innen in Callcentern anhand von biometrischen Daten, um deren Gefühlszustände während der Interaktion mit Kund:innen zu analysieren.
  • Hochrisiko-KI, die nur unter Einhaltung strenger Auflagen betrieben werden darf. Dazu zählen selbstfahrende Autos, medizinische Anwendungen oder die biometrische Identifizierung, aber auch automatisierte Kreditvergabe außerhalb der Finanzbetrugserkennung.
  • General Purpose AI und viertens bestimmte KI-Systeme, die primär Transparenzvorgaben genügen müssen. Sie werden aktuell primär zur Interaktion mit Personen eingesetzt.

Du als KI-Betreiber trägst die größte Last

Angenommen, ein Unternehmen hat die Konzeptionsphase abgeschlossen. Es verfügt nun über eine selbst programmierte oder zugekaufte KI, die beispielsweise mit wenigen Worten Musik komponieren kann. Die Begeisterung ist groß – das Produkt wird released. Doch wenig später flattert überraschend ein Abmahnschreiben oder gar eine Klage ins Haus. Die Künstliche Intelligenzhat nichts selbst komponiert, sondern glatt Texte und Lieder anderer Musiker kopiert. Wer ist nun für die Urheberrechtsverletzung verantwortlich? Der Programmierer oder Provider hat zwar das Tool bereitgestellt, die Urheberrechtsverletzung wurde jedoch vom Betreiber getriggert. Er haftet dafür verschuldensunabhängig. Dass er nichts davon wusste, schließt seine Verantwortung nicht aus. Da KI vielfach noch eine Blackbox ist – insbesondere für einen Käufer – sollte sich jedes Unternehmen in der IT-Beschaffung absichern, um sich beim Hersteller bzw. Händler zu regressieren. IT-Vertragsgestaltung ist das Um und Auf, um das Risiko allfälliger Verletzungen einer anderen Sphäre zuzuordnen.

Deine Künstliche Intelligenz schert aus: Zähme sie, achte auf Betriebsgeheimnisse und vermeide Schäden

Wenn die Künstliche Intelligenz einen Schritt weitergeht und Schäden verursacht, dann wird es ernst(er). KI-Roboter, die bei der Ausübung der Tätigkeiten Menschen verletzen oder Algorithmen, die finanzielle Schäden verursachen – die möglichen Szenarien sind vielseitig. Das Unternehmen wird nun in die Pflicht genommen. Aber wie kann ein Kläger überhaupt nachweisen, dass Künstliche Intelligenz den Schaden verursacht hat, hat er doch meist keinen Einblick in das KI-System? Das soll sich zukünftig ändern.

Hersteller, Importeure, Händler und Anbieter bzw. Betreiber sollen künftig in Schadenersatzprozessen unter bestimmten Voraussetzungen verpflichtet sein, Nachweise über ihre Künstliche Intelligenz offenzulegen. Das sehen die geplante KI-Haftungsrichtlinie und die Produkthaftungsnovelle vor.

Zudem wird die Produkthaftung durch die Erweiterung des Produktbegriffs auf “reine Software”, zu der auch KI zählt, ausgeweitet. Dies erhöht die Haftungsrisiken beim Einsatz von Künstlicher Intelligenz. Hinzu kommen die Risiken aus anderen Regulierungen, die beim Einsatz von KI eine Rolle spielen. Diese reichen von Geldbußen nach der Datenschutzgrundverordnung bis hin zu Ansprüchen bei Urheberrechtsverletzungen.