Ein großes Hindernis für Startups ist die Haftungsfrage. Wer haftet für Verletzungen, die Pflegeroboter ihren Patient:innen aufgrund von Softwarefehlern zufügen? Wer haftet für ein psychisches Trauma, wenn das Smart Home seine Bewohner:innen aus ‘Rache’ für ein Update eine Woche im Keller in der Dunkelheit einschließt? Wer haftet, wenn KI-basierte HR-Systeme zur Unterstützung weiblicher Kandidatinnen überfeministische Tendenzen entwickeln und radikal alle anderen Bewerber* aussortieren?

Offene Fragen und Lücken im Haftungssystem sollen durch die Richtlinie zur Anpassung von Bestimmungen über die außervertragliche zivilrechtliche Haftung zur künstlichen Intelligenz (AI Liability Directive, AILD) und den Entwurf einer neuen Produkthaftungsrichtlinie (Product Liability Directive, PLD) gelöst werden. Dieser Beitrag gibt einen Kurzüberblick.

Software ist ein Produkt!

Die Produkthaftungsrichtlinie aus 1985 soll durch die PLD auf Stand gebracht werden und neue Entwicklungen, wie KI und IoT (Internet of Things) berücksichtigen. Daher soll Software künftig explizit auch als Produkt gelten. Geschädigte sollen auf Basis der Produkthaftung verschuldensunabhängig Ersatz für Schäden durch KI-Systeme fordern können.

Ersatzfähig sollen neben Schäden aus dem fehlerhaften Produkt inklusive Personenschäden auch Sachschäden, Datenverluste und medizinisch anerkannte psychische Schädigungen sein. Grundrechtsverstöße fallen nicht in den Anwendungsbereich der PLD, jedoch soll die AILD bei der Geltendmachung unterstützen. Die aktuelle Schwelle, dass nur Schäden über EUR 500 ersatzfähig sind, entfällt und die Dauer für eine Geltendmachung soll allgemein 10 Jahre, im Ausnahmefall 15 Jahre, betragen.

Fehlerhaftigkeit – woran hat’s gelegen?

Der Bewertungskatalog, wann Software fehlerhaft ist, wird ausgeweitet. In die Beurteilung sollen unter anderem auch folgende Umstände miteinfließen:

  1. Fähigkeit der Software, weiter zu lernen
  2. Vorhersehbare Verwendung und missbräuchliche Verwendung
  3. Anforderungen an Produkt und Cybersicherheit

Damit wirken PLD und der AI Act insbesondere bei Hochrisiko KI-Systemen (z.B. HR, Bildung, Banken, Versicherungen, Justizwesen, Sicherheitskomponenten bei bestimmten Maschinen, etc.) zusammen.

Show me the evidence!

Neu ist eine Verpflichtung, dass Unternehmer:innen verpflichtet sind, Beweismittel offenzulegen, die ein Kläger oder eine Klägerin zum Nachweis von Ansprüchen benötigt. Der Wissensvorsprung von Hersteller:innen gegenüber Verbraucher:innen soll dadurch abgebaut werden. In der Praxis kritisch wird hier die Balance von Informationsrechten und dem Schutz von Betriebs- und Geschäftsgeheimnissen sein sowie die Verhinderung von Missbrauch dieses Instruments.

Achtung vor den Vermutungen der PLD und AILD!

Die Beweispflicht für Fehlerhaftigkeit des Produkts, Schaden und Kausalität zwischen Fehlerhaftigkeit und Schaden trägt grundsätzlich der Kläger. Die PLD führt jedoch eine Reihe von Vermutungen für das Vorliegen einer Fehlerhaftigkeit sowie das Bestehen eines Kausalitätszusammenhangs ein, die vom Beklagten selbstverständlich widerlegt werden können.

Ebenso führt die AILD für die verschuldensabhängige Haftung drei unterschiedliche Kategorien von widerlegbaren Vermutungen des Kausalzusammenhangs ein, nämlich allgemein, speziell für Hochrisiko KI-Systeme und in Ausnahmefällen für KI-Systeme in der persönlichen Verwendung. Die Vermutungen in der PLD und AILD sind jeweils komplex mit einer Vielzahl an Voraussetzungen und Abhängigkeiten gestaltet, weshalb hier auf die nähere Behandlung verzichtet wird – außer bei Interesse.

What’s next?

Die Konsultationen und der Gesetzesprozess laufen noch. Unabhängig in welcher konkreten Form das neue Haftungsregime kommt ist es wichtig, für alle Programmierer:innen, Softwareentwickler:innen, Startups und Unternehmer:innen, die Komponenten oder ganze Systeme selbst erstellen, liefern oder anbieten, ihre eigene Position und die Position ihrer Produkte und Dienstleistungen in dem geplanten Haftungsregime zu finden. Darauf aufbauend können Haftungsrisiken im Unternehmen identifiziert, abgefedert und gezielt gesteuert und gemanaged werden.