12.12.2022

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

Im zweiten Teil ihres Startup-Updates klärt Rechtsanwältin und AI Austria- und European AI-Mitglied Jeannette Gorzala über den Haftungsrahmen auf, der sich in den KI-Regulierungen der EU abzeichnet.
/artikel/diesen-haftungsrahmen-muessen-startups-beim-ai-act-beachten
Jeannette Gorzala gibt Überblick über den Haftungsrahmen für Startups mit Blick auf den AI Act der EU © fotomek/AdobeStock & Jeannette Gorzala
Jeannette Gorzala gibt Überblick über den Haftungsrahmen für Startups mit Blick auf den AI Act der EU © fotomek/AdobeStock & Jeannette Gorzala

Ein großes Hindernis für Startups ist die Haftungsfrage. Wer haftet für Verletzungen, die Pflegeroboter ihren Patient:innen aufgrund von Softwarefehlern zufügen? Wer haftet für ein psychisches Trauma, wenn das Smart Home seine Bewohner:innen aus ‘Rache’ für ein Update eine Woche im Keller in der Dunkelheit einschließt? Wer haftet, wenn KI-basierte HR-Systeme zur Unterstützung weiblicher Kandidatinnen überfeministische Tendenzen entwickeln und radikal alle anderen Bewerber* aussortieren?

Offene Fragen und Lücken im Haftungssystem sollen durch die Richtlinie zur Anpassung von Bestimmungen über die außervertragliche zivilrechtliche Haftung zur künstlichen Intelligenz (AI Liability Directive, AILD) und den Entwurf einer neuen Produkthaftungsrichtlinie (Product Liability Directive, PLD) gelöst werden. Dieser Beitrag gibt einen Kurzüberblick.

Software ist ein Produkt!

Die Produkthaftungsrichtlinie aus 1985 soll durch die PLD auf Stand gebracht werden und neue Entwicklungen, wie KI und IoT (Internet of Things) berücksichtigen. Daher soll Software künftig explizit auch als Produkt gelten. Geschädigte sollen auf Basis der Produkthaftung verschuldensunabhängig Ersatz für Schäden durch KI-Systeme fordern können.

Ersatzfähig sollen neben Schäden aus dem fehlerhaften Produkt inklusive Personenschäden auch Sachschäden, Datenverluste und medizinisch anerkannte psychische Schädigungen sein. Grundrechtsverstöße fallen nicht in den Anwendungsbereich der PLD, jedoch soll die AILD bei der Geltendmachung unterstützen. Die aktuelle Schwelle, dass nur Schäden über EUR 500 ersatzfähig sind, entfällt und die Dauer für eine Geltendmachung soll allgemein 10 Jahre, im Ausnahmefall 15 Jahre, betragen.

Fehlerhaftigkeit – woran hat’s gelegen?

Der Bewertungskatalog, wann Software fehlerhaft ist, wird ausgeweitet. In die Beurteilung sollen unter anderem auch folgende Umstände miteinfließen:

  1. Fähigkeit der Software, weiter zu lernen
  2. Vorhersehbare Verwendung und missbräuchliche Verwendung
  3. Anforderungen an Produkt und Cybersicherheit

Damit wirken PLD und der AI Act insbesondere bei Hochrisiko KI-Systemen (z.B. HR, Bildung, Banken, Versicherungen, Justizwesen, Sicherheitskomponenten bei bestimmten Maschinen, etc.) zusammen.

Show me the evidence!

Neu ist eine Verpflichtung, dass Unternehmer:innen verpflichtet sind, Beweismittel offenzulegen, die ein Kläger oder eine Klägerin zum Nachweis von Ansprüchen benötigt. Der Wissensvorsprung von Hersteller:innen gegenüber Verbraucher:innen soll dadurch abgebaut werden. In der Praxis kritisch wird hier die Balance von Informationsrechten und dem Schutz von Betriebs- und Geschäftsgeheimnissen sein sowie die Verhinderung von Missbrauch dieses Instruments.

Achtung vor den Vermutungen der PLD und AILD!

Die Beweispflicht für Fehlerhaftigkeit des Produkts, Schaden und Kausalität zwischen Fehlerhaftigkeit und Schaden trägt grundsätzlich der Kläger. Die PLD führt jedoch eine Reihe von Vermutungen für das Vorliegen einer Fehlerhaftigkeit sowie das Bestehen eines Kausalitätszusammenhangs ein, die vom Beklagten selbstverständlich widerlegt werden können.

Ebenso führt die AILD für die verschuldensabhängige Haftung drei unterschiedliche Kategorien von widerlegbaren Vermutungen des Kausalzusammenhangs ein, nämlich allgemein, speziell für Hochrisiko KI-Systeme und in Ausnahmefällen für KI-Systeme in der persönlichen Verwendung. Die Vermutungen in der PLD und AILD sind jeweils komplex mit einer Vielzahl an Voraussetzungen und Abhängigkeiten gestaltet, weshalb hier auf die nähere Behandlung verzichtet wird – außer bei Interesse.

What’s next?

Die Konsultationen und der Gesetzesprozess laufen noch. Unabhängig in welcher konkreten Form das neue Haftungsregime kommt ist es wichtig, für alle Programmierer:innen, Softwareentwickler:innen, Startups und Unternehmer:innen, die Komponenten oder ganze Systeme selbst erstellen, liefern oder anbieten, ihre eigene Position und die Position ihrer Produkte und Dienstleistungen in dem geplanten Haftungsregime zu finden. Darauf aufbauend können Haftungsrisiken im Unternehmen identifiziert, abgefedert und gezielt gesteuert und gemanaged werden.

Deine ungelesenen Artikel:
14.11.2024

Österreicher holt für sein japanisches Robotics-Startup Millioneninvestment

Der Österreicher Alexander Schmitz hat 2018 in Japan das Startup XELA Robotics gegründet. Nun konnte er eine Finanzierungsrunde in Millionenhöhe abschließen.
/artikel/xela-millionen-investment
14.11.2024

Österreicher holt für sein japanisches Robotics-Startup Millioneninvestment

Der Österreicher Alexander Schmitz hat 2018 in Japan das Startup XELA Robotics gegründet. Nun konnte er eine Finanzierungsrunde in Millionenhöhe abschließen.
/artikel/xela-millionen-investment
Alexander Schmitz | (c) XELA

Japan gilt seit Jahrzehnten als Vorreiter in der Robotik und Automatisierung, ein Land, in dem Roboter nicht nur in der Industrie, sondern zunehmend auch im Alltag eine zentrale Rolle spielen. Inmitten dieser technologischen Hochburg hat sich der österreichische Gründer Alexander Schmitz mit seinem Unternehmen XELA Robotics erfolgreich etabliert. Seit mittlerweile mehr als einem Jahrzehnt entwickelt und erforscht der Österreicher taktile Sensoren für menschlich-kollaborative Roboter. Vor der Unternehmensgründung im August 2018 war Schmitz auch als Associate Professor an der Waseda University in Japan tätig, bevor er sich vollständig auf sein Unternehmen konzentrierte.

Technologie ermöglicht menschenähnlichen Tastsinn

XELA Robotics setzt auf eine KI-Technologie, die taktile Sensoren integriert und damit neue Möglichkeiten für personalisierte Servicerobotik, Montage, Verpackung und Landwirtschaft schafft. Die Sensor- und Software-as-a-Service (SaaS)-Lösungen von XELA unterstützen Unternehmen weltweit bei der Digitalisierung und Automatisierung.

XELA Robotics hat uSkin entwickelt, einen Drei-Achsen-Tastsensor, der in einem weichen, langlebigen Gehäuse untergebracht ist und sich nahtlos in neue und bestehende Roboter integrieren lässt. uSkin verleiht Robotern einen menschenähnlichen Tastsinn und verbessert ihre Fähigkeit, Objekte präzise zu manipulieren. Jeder Sensorstreifen enthält mehrere Sensoren, und jeder Sensor misst 3-Achsen-Kräfte , die an spezifische Anwendungen angepasst werden können. Zu den Kunden von XELA zählen internationale Konzerne wie Honda, Hitachi oder Samsung.

Millionen-Investment und Expansion nach Europa

Wie XELA nun bekanntgab, konnte man für das weitere Wachstum ein Millionen-Investment an Land ziehen. Investor ist die Investoren-Gruppe FSR mit Sitz in Tokio.

„Die Partnerschaft mit unserem neuen Investor wird unsere Fähigkeit beschleunigen, sowohl unsere Sensortechnologie als auch unsere KI- Software zu skalieren. Dadurch können wir komplette Lösungen anbieten und die Produktion ausweiten, um der wachsenden globalen Nachfrage gerecht zu werden”, so Schmitz.

In Europa bedient XELA ebenfalls namhafte Kunden. Zudem hat XELA die Möglichkeit genutzt, sich über das Global Incubator Network (GIN) strategisch in Europa zu positionieren. “Durch das erstklassige Programm des Global Incubator Networks konnten wir unsere Marktchancen in Europa evaluieren, einen klaren Go-to-Europe-Plan mit Österreich als Basis entwickeln und einen erfahrenen Mentor gewinnen. Dieser Mentor hat uns nicht nur in der Umsetzung unserer Europastrategie begleitet, sondern auch wesentlich zur Finanzierungssicherung in Japan beigetragen“, sagt Schmitz.


Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Diesen Haftungsrahmen müssen Startups beim AI Act beachten