03.01.2023

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

Elisabeth Kutner, Martin Hanzl und Alexander Glaser von EY Law Pelzmann Gall Größ Rechtsanwälte GmbH beleuchten im ersten Teil einer zweiteiligen Reihe für den brutkasten, was Startups beim Einsatz von künstlicher Intelligenz rechtlich beachten müssen.
/artikel/was-startups-beim-ai-einsatz-rechtlich-beachten-muessen
Elisabeth Kutner, Martin Hanzl, Alexander Glaser
Elisabeth Kutner, Martin Hanzl, Alexander Glaser | Fotos: EY Law, Hintergrund: Hao Wang/Unsplash

ChatGPT, ein auf künstlicher Intelligenz (“KI”) oder englisch artificial intelligence (“AI”) basierender Chatbot, eroberte praktisch über Nacht das Internet. Innerhalb von fünf Tagen gewann der Chatbot über 1 Millionen Nutzer:innen und erreichte damit diesen Meilenstein 60-mal schneller als Facebook.

Zeitgleich kommt auch die Regulierung im AI-Kontext auf EU-Ebene wieder in Fahrt. Am 6. Dezember 2022 meldete sich der Rat der Europäischen Union mit seinem gemeinsamen Standpunkt zum Entwurf des AI-Acts. Überdies wurde am 28. September 2022 ein Vorschlag der Europäischen Kommission für eine Richtlinie zur Anpassung der außervertraglichen zivilrechtlichen Haftung für KI (“KI-Haftungsrichtlinie”) veröffentlicht. Das Thema ist damit wieder brandheiß.

Doch was bedeutet der Einsatz von AI-Systemen für Startups? Wir geben in Teil 1 einen ersten Überblick mit Fokus auf die bisherige Gesetzeslage und werfen in Teil 2 einen Blick auf den Vorschlag zum AI-Act und der KI-Haftungsrichtlinie.

1. Vermeide “typische” rechtliche Fehler beim Coding

Egal ob beim Programmieren von AI-basiertem oder ganz “normalem” regelbasierten Code, Programmierer:innen und Startups sollten bereits frühzeitig rechtliche Besonderheiten mitdenken. Fallstricke und “typische” Fehler reichen hier vom (unbewussten) Einsatz von Open-Source-Produkten über gemeinsames Coding ohne vertragliche Absicherung bis hin zum rechtlich nicht abgesicherten Umgang mit Input-Daten.

Wie ihr fünf (typische) rechtliche Fehler beim Coding vermeiden könnt, haben wir euch bereits einmal in einem brutkasten-Gastbeitrag zusammengefasst.

2. Wissen per Mausklick – wie gut ist ChatGPT wirklich?

ChatGPT schlägt gerade über die Artificial-Intelligence-Community hinaus hohe Wellen: so attestiert etwa Bloomberg dem smarten Chatbot, der “iPhone-Moment” für die AI-Branche zu sein. Die dafür verantwortliche Software läuft unter dem Namen Generative Pretrained Transformer 3 oder kurz “GPT-3”. Dabei handelt es sich um ein von OpenAI entwickeltes Sprachverarbeitungsmodell. GPT-Modelle sind sogenannte “pretrained models”. Einfach ausgedrückt werden diese mithilfe einer großen Menge von vorgegebenen Daten trainiert, bevor sie für spezifische Aufgaben eingesetzt werden.

3. Chatbots und AI – universaler Problemlöser?

Chatbots wie ChatGPT sind derzeit wohl die greifbarsten Anwendungen, allerdings haben AI-Systeme insgesamt noch viel größeres Potential, die Welt zu verändern. AI soll logisch und intelligent agieren und kann im Gegensatz zum Menschen auf eine größere Wissens- und Informationsbasis zurückgreifen.

ChatGPT ist mit umfassendem Allgemeinwissen gefüttert und kann sich auch mit rechtlichen und medizinischen Fachfragen auseinandersetzen. “Wie gründe ich eine GmbH?” oder “Wie kann ich Kopfschmerzen lindern?” – solche Fragen beantwortet ChatGPT gerne. Wer auf eine medizinische Diagnose oder eine konkrete rechtliche Einschätzung hofft, wird aber enttäuscht.

Bei derartigen Erkundigungen verweist ChatGPT auf Expert:innen wie beispielsweise Ärzt:innen und Anwält:innen. Was passiert, wenn sich ChatGPT doch zu einem konkreten medizinischen Ratschlag hinreißen lässt, sich abwertend gegenüber einer Personengruppe äußert oder illegale Handlungen begünstigen will?

Tipp:

AI-Systeme werden immer umfassender und besser einsetzbar, ihre große Wissensbasis garantiert aber keine Richtigkeit! Bei kritischen Themen solltet ihr euch daher nie ungeprüft auf ein AI-System verlassen. Falls ihr solche AI-Technolgie bei euch im Unternehmen oder in eurem Produkt einsetzt, solltet ihr bei der Interaktion mit dem AI-System – für Verbraucher:innen gut sichtbar – entsprechende Warnhinweise angeben.

4. Was muss ich als Startup beachten, wenn ich AI-basierte Anwendungen wie ChatGPT einsetze?

Grundsätzlich gilt: Der Einsatz von AI-basierten Systemen sollte wohlüberlegt sein und jedenfalls im Einzelfall vor Inbetriebnahme nicht nur technisch, sondern auch rechtlich geprüft werden.

Tipp:

Führt vor dem Einsatz von AI-Systemen oder anderer komplexer Software eine rechtliche Prüfung in-house oder extern durch und dokumentiert diese Analyse schriftlich.

Abhängig vom Einsatzgebiet des jeweiligen AI-basierten Systems können sich etliche rechtliche Fragen ergeben: angefangen von Datenschutz, Arbeitsrecht und Intellectual-Property-Fragen bis hin zum Verbraucher- und Haftungsrecht.

Chatbots werden immer menschlicher und so für ihr Gegenüber schwerer zu erkennen. Wichtig ist es beim Einsatz von AI-Systemen auf Transparenz zu setzen und klarzustellen, dass Nutzer:innen nicht mit Menschen, sondern mit einem Chatbot agieren.

Andernfalls könnte der Einsatz von AI-Systemen eine irreführende Geschäftspraktik im Sinne des § 2 UWG (Bundesgesetz gegen unlauteren Wettbewerb) darstellen. Daraus können Schadenersatz-, Unterlassungs- und Beseitigungsansprüche resultieren. Insoweit AI-basierte Systeme personenbezogene Daten verarbeiten (und ggf auch speichern bzw zum Training verwenden), sind die strengen Regelungen der Datenschutzgrundverordnung einzuhalten.

Es sind dabei insbesondere eine entsprechende Datenschutzerklärung zu entwerfen, Löschkonzepte zu entwickeln und ggf auch Verarbeitungsverzeichnisse zu erstellen.
Solltet ihr erwägen, AI-Tools für Recruiting oder in anderen arbeitsrechtlichen Belangen (z.B. bei der Evaluierung von Mitarbeiter:innen) einzusetzen, ist das Arbeitsrecht zu beachten. Verbraucherrecht könnte relevant werden, wenn ihr AI-Systeme in B2C-Settings verwendet und diese für Marketingstrategien, im Chat mit Verbraucher:innen einsetzt.

Neben den oben genannten fünf “typischen” Fehlern im Programmier-Kontext, die ihr vermeiden solltet, solltet ihr darüber hinaus prüfen, wie selbst entwickelte AI-Systeme bestmöglich auch rechtlich geschützt werden können. Schließlich stellt selbst entwickelte Software häufig eines der Kern-Assets eines Unternehmens dar.

Wie aber bereits festgestellt, können – abhängig von Ziel und konkretem Einsatz von AI-Systemen – etliche weitere Regelungen anwendbar sein. Ihr solltet daher jedenfalls vor dem ersten Einsatz von AI-Systemen eine rechtliche Evaluierung durchführen.

Das erste Aufsetzen eines solchen rechtlichen Rahmens mag auf den ersten Blick zwar mühsam erscheinen, ist aber um ein Vielfaches leichter als das Nachbessern zu einem späteren Zeitpunkt (etwa wenn Investor:innen in einer Finanzierungsrunde einsteigen und in einer Due Diligence ein “Red Flag” hervorkommt).

Zusammenfassung

Bei der folgenden kurzen Zusammenfassung hat uns ChatGPT unterstützt. Für eine Wartezeit von nicht einmal 10 Sekunden kann sich das Ergebnis durchaus sehen lassen. Wer auf aber auf Nummer sicher gehen und nichts verpassen will, sollte Texte aber trotzdem noch selbst lesen.

Startups sollten beim Einsatz von AI-basierten Anwendungen wie ChatGPT wohlüberlegt vorgehen und diese sowohl technisch als auch rechtlich prüfen. Es gibt eine Vielzahl von rechtlichen Fragen, die sich aufgrund des Einsatzbereichs der AI-Systeme stellen, wie Datenschutz, Arbeitsrecht und IP-Fragen, Verbraucher- und Haftungsrecht.

Chatbots sollten klar gekennzeichnet werden, um Nutzer darüber aufzuklären, dass sie mit einem Chatbot und nicht mit einem Menschen kommunizieren. AI-Systeme, die personenbezogene Daten verarbeiten, müssen den Regelungen der Datenschutzgrundverordnung entsprechen. Bei der Verwendung von AI-Tools für Recruiting oder in anderen arbeitsrechtlichen Bereichen muss das Arbeitsrecht beachtet werden.

Verbraucherrecht könnte relevant werden, wenn AI-Systeme in B2C-Umgebungen für Marketingstrategien oder Chats mit Verbrauchern eingesetzt werden. Selbst entwickelte AI-Systeme sollten bestmöglich geschützt werden. Abhängig vom Ziel und konkretem Einsatz von AI-Systemen könnten jedoch auch andere Regelungen anwendbar sein, daher sollten diese vor dem ersten Einsatz geprüft werden.

In Teil 2 dieser Reihe rücken der AI Act und die KI-Haftungsrichtlinie in den Mittelpunkt. Wir beleuchten, was sich durch diese vorgeschlagen EU-Gesetze ändern könnte, wie der europäische Gesetzgeber das Thema anpackt und was ihr als Startups bereits jetzt beachten solltet.


Über die Autor:innen

Dr. Martin Hanzl ist Rechtsanwalt und Head of New Technologies bei EY Law Pelzmann Gall Größ Rechtsanwälte GmbH. Er betreut nationale und internationale Kryptodienstleister, FinTechs, Start-Ups sowie Finanz- und Versicherungsinstitute, insbesondere zum Einsatz von New Technologies, komplexen regulatorischen Fragestellungen und bei gesellschaftsrechtlichen Fragestellungen rundum Finanzierungsrunden und Exits. Überdies ist er Projektverantwortlicher des “Blockchain and Smart Contracts”-Projektes des European Law Institutes. Er ist Vortragender an der Anwaltsakademie, Fachhochschulen und Universitäten sowie Herausgeber und Autor mehrerer Handbücher sowie zahlreicher weiterer Fachartikel zu den Themen Digitalisierung, Smart Contracts, New Technologies und Gesellschaftsrecht.

Mag. Alexander Glaser ist Rechtsanwaltanwärter bei EY Law Pelzmann Gall Größ Rechtsanwälte GmbH mit dem Fokus auf IP/IT Recht sowie neue Technologien und betreut Mandant:innen insbesondere zu Fragen rund um Krypto-Assets (zB rechtliche Einordnung, Registrierung als CASP) sowie Schutz und Nutzung von IP (ua KI-Systeme, Softwarelizensierung).

Elisabeth Kutner LL.B. (WU) ist Masterstudentin des Studiengangs Wirtschaftsrecht der Wirtschaftsuniversität Wien und juristische Mitarbeiterin bei EY Law Pelzmann Gall Größ Rechtsanwälte GmbH mit dem Fokus auf IP/IT Recht und neue Technologien.


Disclaimer: Die finalen Texte des AI Acts und der AI Liability Directive liegen zum Zeitpunkt dieses Beitrages noch nicht vor und können daher von der gegenständlichen Darstellung abweichen. Der Artikel gibt lediglich einen Überblick über ausgewählte Fragestellungen im AI-Kontext und hat weder den Anspruch auf Vollständigkeit noch stellen die Hinweise und Informationen Rechtsberatung oder sonstige Empfehlungen dar. Dieser Text kann keinesfalls eine individuelle Rechtsberatung ersetzen und dient lediglich der persönlichen Information. Dieser Text gibt überdies ausschließlich die Meinungen und Erfahrungen der Autor:innen wieder.

Deine ungelesenen Artikel:
vor 13 Stunden

Albert Heijn unter Vertrag: Wiener ClimateTech inoqo startet in den Niederlanden

Mit seiner App kann inoqo die CO2-Emissionen jedes Produktes im Lebensmitteleinzelhandel analysieren. Dies begeistert fortan auch die Oranjes.
/artikel/albert-heijn-unter-vertrag-wiener-climatetech-inoqo-startet-in-den-niederlanden
vor 13 Stunden

Albert Heijn unter Vertrag: Wiener ClimateTech inoqo startet in den Niederlanden

Mit seiner App kann inoqo die CO2-Emissionen jedes Produktes im Lebensmitteleinzelhandel analysieren. Dies begeistert fortan auch die Oranjes.
/artikel/albert-heijn-unter-vertrag-wiener-climatetech-inoqo-startet-in-den-niederlanden
Das inoqo-Team startet mit seiner App in den Niederlanden durch (c) inoqo

Wer schon einen Trip in die Niederlanden genossen hat, wird ihn mit guter Wahrscheinlichkeit kennen: Den mit lokalen Grundnahrungsmitteln wie Stroop Waffels, Haring, Oliebollen oder Pannenkoeken bestückten Lebensmittelhändler Albert Heijn. Die Kette zählt zu den führenden Nahversorgern in den Niederlanden – und wurde mittlerweile auch für Tourist:innen zu einem Kulturgut.

Nun setzt Albert Heijn einen Schritt in Richtung CO2-Transparenz: Der Händler will die Klimaauswirkungen seiner 1.100 Eigenmarken mit seinen Konsument:innen per App teilen. Und damit zeigen, wie groß die CO2-Auswirkungen ihrer Einkäufe sind.

CO2-Hotspots per App

Dabei kommt das Wiener ClimateTech inoqo ins Spiel: Mit seiner KI-gesteuerten SaaS-Plattform ermöglicht es inoqo Lebensmittelhändlern, Marken und Lieferanten, die Emissionen ihrer gesamten Lebensmittel-Lieferkette zu identifizieren, zu analysieren und zu bewerten.

Die inoqo-Plattform kann dabei “CO2-Hotspots” bestimmter Produkte identifizieren. Lebensmittelketten wie Albert Heijn können so mit Lieferanten gemeinsam Maßnahmen zur Emissionsreduktion setzen.

Auf der inoqo-Kooperation basierend will Albert Heijn einen sogenannten “Product Climate Footprint (PCF)” einführen. Der CO2-Fußabdruck soll die Klimaauswirkungen seiner Eigenmarken hervorheben. Konsument:innen wird indes gezeigt, in welchem Ausmaß jedes einzelne erworbene Lebensmittel- und Getränkeprodukt zum Klimawandel beiträgt.

Neue inoqo-Initiative erst letzte Woche gestartet

Erst vor letzte Woche verkündete inoqo-Gründer Markus Linder den Start der Nachhaltigkeits-Initiative European Sustainable Food Coalition – brutkasten berichtete. Ziel verfolge man ein äußerst ähnliches, nämlich: Die Dekarbonisierung des Lebensmittelhandels. Am Start-Event anwesend waren unter anderem Vertretende internationaler Lebensmittelhandelsriesen – namentlich Migros aus der Schweiz und Ahold Delhaize aus den Niederlanden. Migros ist bereits Referenzkunde von inoqo.

Zwei Millionen-Investments in zwei Jahren

Gegründet wurde inoqo im Sommer 2020 in Wien. Im Team sitzen Markus Linder, Doris Wimmer, Hélène Saurais, Simon Haberfellner, Bernhard Schandl und Elisa Gramlich. Ursprünglich hat es sich inoqo zum Ziel gesetzt, Endkonsument:innen dabei zu helfen, die Umweltauswirkungen ihrer Einkäufe zu bewerten.

Um ihrer Mission nachzugehen, sicherte sich inoqo 2021 eine Finanzierungsrunde in Höhe von knapp zwei Millionen Euro. Zu den Kapitalgebenden zählten die Runtastic Co-Founder Alfred Luger und Christian Kaar, Biogena-Gründer Albert Schmidbauer und Ex-Raiffeisen International CFO Martin Grüll.

Mit der 2021 verabreichten Finanzspritze entwickelte das Startup die ursprünglich an Endkonsument:innen gerichtete inoqo-App. Diese hat es Nutzenden ermöglicht, die CO2-Emissionen ihrer Lebensmitteleinkäufe kostenlos zu tracken. Basierend auf gescannten Kassenzetteln erstellte die App Analysen zu den durch den Kauf verursachten CO2-Emissionen und den jeweiligen Auswirkungen auf Umwelt, Tierwohl und das eigene Wohlbefinden.

inoqo-B2C-App switchte zu B2B

Im Oktober 2023 folgte eine neuerliche Finanzspritze in Millionenhöhe. Unterstützt wurde das Team dabei unter anderem vom Bestandsinvestor Christian Kaar sowie von Heinz Hahn, ehemaliger Präsident FMCG (Anmerkung: Fast-Mooving-Consumer-Goods) von Mondelez, sowie von Felix und Susanne Porsche. Weitere Investor:innen sind hier nachzulesen.

In ihrer damaligen Version zählte die inoqo App rund 10.000 Nutzende. Dies sollte aber nicht mehr lange der Fall sein. Der zweiten Finanzspritze voran ging nämlich eine Neuausrichtung: inoqo wechselte zu einem B2B-Geschäftsmodell:

“Als immer mehr Lebensmittelhändler Interesse an unserer Technologie zeigten, erkannten wir, dass wir einen viel größeren Einfluss haben können, indem wir Lebensmittelhändlern weltweit helfen, den Umwelteinfluss ihrer Lebensmittel-Lieferketten zu verstehen und zu managen”, erzählte Gründer und CEO Linder brutkasten damals.

Rezeptur von Produkten in Berechnung integriert

Seither steht die von inoqo entwickelte SaaS-Plattform primär Geschäftskund:innen – wie nun auch dem Lebensmittelhändler Albert Heijn – zur Verfügung. Erste Business-Partner sicherte es sich schon 2023 – darunter Norwegens führender e-Lebensmittelhändler ODA. Das Besonderer der KI-Plattform: Sie bewertet sowohl Produktzutaten und Zusammensetzung als auch alle Produktions- und Vertriebsprozesse – sprich alle Scope-3-Emissionen.

“Die KI-gesteuerte Plattform kann die Rezeptur von Tausenden von Lebensmittel- und Getränkeprodukten auf Grundlage der den Händlern heute zur Verfügung stehenden Daten berechnen. Berücksichtigt werden Merkmale wie das Herkunftsland der Zutaten, die Produktionsprozesse , die Verpackung und der Transport ”, erklärte Markus Linder, Gründer und CEO von inoqo, in einem brutkasten-Gespräch 2023.

Albert-Heijn-Koop soll eigene “Primärdaten” sammeln

Mit der Plattform von inoqo will nun auch der neue Business-Partner Albert Heijn “eine wachsende Menge an Primärdaten sammeln”, um weitere Möglichkeiten zur CO2-Reduktion zu identifizieren, sagt Nachhaltigkeitsmanager Jens Gronheid.

Inoqos Bewertungsansatz sei dabei ein Schritt auf dem Weg zu einer nachhaltigeren Lebensmittelindustrie: “Durch die Erstellung skalierbarer Folgenabschätzungen auf Zutatenebene vermeidet inoqo die Verwendung von Daten auf Kategorie-Ebene”, heißt es von Albert Heijn.

Scope-3-Emissionen vermehrt im Fokus

Inoqo-Co-Founder und CEO Markus Linder schreibt der neuen Kooperation Pionierpotenzial zu: Man wolle “neue Standards für Transparenz und Nachhaltigkeit im Lebensmitteleinzelhandel” setzen und “andere Einzelhändler inspirieren”. Die Scope-3-Emissionsreduzierung – also die Betrachtung der Segmente Produktzutaten, Produktion und Vertrieb – benötige nämlich branchenübergreifend weitaus höhere Priorität, so Linder.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Hype um ChatGPT: Was Startups beim AI-Einsatz rechtlich beachten müssen