25.01.2023

So diskriminiert KI: ChatGPT entfacht Debatte neu

Jasmin Reisinger und Gabriele Bolek-Fügl erklären, wie Diskriminierung in der Künstlichen Intelligenz und in der KI-Branche funktionieren und was man dagegen tun könnte. Der Fall ChatGPT hat die Debatte neu entfacht.
/artikel/so-diskriminiert-ki-chatgpt-entfacht-debatte-neu
Gabriele Bolek-Fügl und Jasmin Reisinger (Women in AI Austria) sprechen über ChatGPT und Ethik in der KI © Bolek-Fügl; Reisinger; Parradee/AdobeStock
Gabriele Bolek-Fügl und Jasmin Reisinger (Women in AI Austria) sprechen über ChatGPT und Ethik in der KI © Bolek-Fügl; Reisinger; Parradee/AdobeStock

Die Kritik um ChatGPT und die Möglichkeit, rassistische oder sexistische Statements im Zuge der Nutzung zu erhalten, gibt es bereits länger. Mittlerweile hat sich die Debatte über die ethischen Aspekte der Künstlichen Intelligenz (KI) erweitert. Der Chatbot wurde soweit trainiert, dass scheinbar keine diskriminierenden Statements mehr vorkommen. Die erfolgreiche Behebung hat seinen Preis. Wie Recherchen des Time Magazins zeigen, hat die hinter ChatGPT stehende Firma OpenAI Textausschnitte an das Trainingsdatenunternehmen Sama gesendet, um die KI zu trainieren. Klickarbeiter:innen der Sama-Außenstelle in Kenia wurden dafür laut Time Magazin nicht nur mit unter zwei Dollar die Stunde für ihre Arbeit bezahlt, sondern waren mit teils traumatisierenden Inhalten konfrontiert. Um eine KI manuell zu trainieren, braucht es nämlich Menschen, die die toxischen Inhalte als solche klassifizieren und der KI übermitteln. 

Solche Skandale werfen Fragen auf: Wie können einer KI diskriminierende, sexistische und rassistische Inhalte abtrainiert werden, ohne zugleich in der realen Welt prekäre Arbeitsbedingungen zu bestärken? Im gemeinnützigen Verein “Women in Artificial Intelligence Austria” setzen sich mehrere AI-Expertinnen nicht nur mit den technologischen Aspekten, sondern auch mit der Geschlechterlücke in der Künstlichen Intelligenz auseinander. Damit widmen sie sich einer speziellen Form der Diskriminierung in der KI. Im brutkasten-Gespräch bewerten Jasmin Reisinger und Gabriele Bolek-Fügl von “Women in AI” den Fall ChatGPT und erklären die technologischen Hintergründe und was man in der Branche beachten muss, sodass gerechte Rahmenbedingungen herrschen – sowohl in der Technologie, als auch in der Realität.


Was ist Diskriminierung in der AI und wie findet sie aktuell statt?

Jasmin und Gabriele: Eine Künstliche Intelligenz lernt selbständig auf Basis von sehr vielen Datensätzen, die der Mensch bereitstellt. Diese Datensätze bilden entweder eine Momentaufnahme ab, die die bisherige Realität darstellt – inklusive der Diskriminierung von einzelnen Menschengruppen. Oder sie bilden eine Situation ab, von der umfassende Datensätze vorhanden sind. Bei zweiterem bedeutet dies, dass selten eine ausgewogene Bandbreite der Menschen in den Daten vorhanden ist. Außerdem werden die KI-Modelle von einer homogenen Gruppe von Programmierer:innen erstellt. Auch das ist eine Quelle dafür, dass sich Vorurteile in den Ergebnissen von KI-Systemen widerspiegeln.

Diskriminierung im Kontext von KI bedeutet demnach, dass Interpretationsmuster vom Menschen übernommen werden können. So können negative Diskriminierungsstrukturen entstehen. Um dies zu vermeiden, müssen Trainingsdaten “bereinigt” oder “ergänzt” werden und das ist bei Millionen von Datensätzen keine einfache Aufgabe. Vor dieser Herausforderung steht aktuell OpenAI und deren Chatbot “ChatGPT”, der für sein Können bestaunt und für seine Limitierungen kritisiert wird.

Wie beobachtet bzw. bewertet ihr diesen Sachverhalt rund um OpenAI und deren Umgang mit externen Angestellten?

Jasmin: Der Time-Artikel zu OpenAI hat bestimmte Vorgänge im Hintergrund sehr detailliert beleuchtet, die der breiten Öffentlichkeit vorher unbekannt waren. Wie bereits erwähnt ist die Bereinigung von riesigen Datensätzen eine Herausforderung, zu der es oft (noch) keine einfache Lösung gibt. Dabei sind zwei Perspektiven zu beachten: Einerseits sollte die KI-Industrie bei heiklen Datensätzen nicht auf einfache Lösungen zurückgreifen, die auf der Ausbeutung billiger Arbeitskräfte beruhen, um schnellen technologischen Fortschritt zu erreichen. Andererseits ist die Involvierung von diversen Personengruppen mit unterschiedlichen Lebensrealitäten zu begrüßen, da sie für ausgewogenere KI-Modelle stehen können.

Gabriele: Die Reaktion der Öffentlichkeit wird OpenAI langfristig dazu zwingen, ethisch unbedenkliche Wege zu finden, wie sie ihre Technologie weiterentwickeln können. Ethische Beurteilungen unterliegen immer einem gesellschaftlichen Diskurs und da stehen wir noch ganz am Anfang. Es ist jedenfalls zu begrüßen, dass die Daten von ChatGPT nach unterschiedlichen Kriterien beurteilt und bereinigt wurden. KI-Systeme anderer Hersteller mussten aufgrund von nicht ausreichend bereinigten Daten bald wieder deaktiviert werden. Ethik ist nicht einfach da. Ethische KI-Systeme bedeuten die Abbildung der gesellschaftlichen Meinung zu einem bestimmten Zeitpunkt, und diese kann sich rasch ändern. Und es bedeutet viel Arbeit, diese Meinung in tausenden Datensätzen abzubilden.

Jasmin: Ich möchte an dieser Stelle jedoch betonen, dass nicht alle KI-Systeme mit Hochrisiko-Datensätzen gefüttert werden (müssen). Die Qualitätssicherung in der Glasindustrie z.B. ist weit weg von Themen wie Rassismus oder Sexismus, und verbessert tatsächlich die Arbeitsprozesse für Arbeitnehmer:innen. Den Fall OpenAI werden wir weiterhin beobachten.

Viele Menschen vergessen bei Künstlicher Intelligenz die manuellen Aspekte – also die Content Moderation hinter der Menschen stehen, die ungefiltert mit sämtlichen Daten konfrontiert werden. Teilweise kann das auch zu einer psychischen Belastung für Arbeitnehmer:inenn führen. Wie kann man sich diese manuellen Aspekte vorstellen?

Jasmin: Um Datensätze als Basis für KI-Systeme nutzen zu können, müssen diese einem “Labeling” unterzogen werden. Der Mensch kennzeichnet dann z.B. die Merkmale einer Katze, damit die KI lernt, woran sie eine Katze erkennen oder von einem Hund unterscheiden kann.

Bei Millionen von Datensätzen muss z.B. im Falle von OpenAI gekennzeichnet werden, welche Daten diskriminierend, rassistisch, sexistisch usw. sind, um qualitativ hochwertige, wertfreie Datensätze zu erzielen. Erst dann kann die KI “gute” Ergebnisse liefern. Vor- oder Nachteile gibt es in dem Sinne nicht. Der steigende Bedarf an “Data Labeling” wird viele Unternehmen lediglich vor eine Herausforderung stellen.

Gabriele: Dass potentiell traumatisierende Informationen von Menschen angesehen werden müssen, um ein Daten Labeling für KI durchzuführen, ist der Realität geschuldet. Diese Daten wurden aus einem bestimmten Grund von Menschen erstellt. Dieser war nicht, als Trainingsdaten für eine KI herangezogen zu werden, sondern Angst, Betroffenheit oder Ähnliches bei anderen Personen zu erzeugen.

OpenAI ist nicht das erste und vermutlich nicht das letzte Unternehmen, bei dem so etwas vorkommt. Gerade in Anbetracht der Tatsache, dass wir jetzt auf einen AI-Hype blicken: Wie muss sich die AI-Branche verändern, damit solche Arbeitsbedingungen aufgehalten werden?

Gabriele: Wollen wir ethische KI-Systeme, so muss vorher ein gesellschaftlicher Diskurs zu den ethischen Werten stattfinden. Dann kann versucht werden, diese in den KI-Modellen abzubilden. Bekannt ist das Beispiel, ob ein selbstfahrendes Auto eher einen 80-jährigen Mann bei einer unausweichlichen Kollision verletzen soll oder die Mutter mit Kinderwagen.

Die Auslagerung des “Data Labeling” in andere Länder mit billigeren Kostenstrukturen und Lohn hat auch mehrere Aspekte. Aus Diversitätsgründen ist es einerseits zu begrüßen, außerdem werden so auch Arbeitsplätze mit für die Länder meist gutem Lohn geschaffen. Andererseits werden häufig jene Sachverhalte ausgelagert, die man den eigenen Angestellten nicht zumuten möchte. Das ist ethisch sicher bedenklich.

Da Millionen von Datensätzen gelabelt werden müssen, sind die KI-Unternehmen darauf angewiesen, in andere Länder auszuweichen, um die Kosten für die KI-Systeme nicht immens hoch werden zu lassen und die Arbeit parallel zur Entwicklung durchzuführen. Kosten KI-Systeme letztendlich zu viel, werden sie von nur wenigen Kund:innen genutzt. Es verzerrt den Wettbewerb noch mehr, wenn diese Methodik nur einem kleinen Benutzerkreis zur Verfügung steht, der sich hohe Kosten leisten kann.

Jasmin: Zusätzlich ist noch der geografische Aspekt zu beachten. In Europa herrscht im Gegensatz zu den USA ein Bestreben nach regulierten, vertrauenswürdigen KI-Systemen. Hier wird durchaus betont, dass sowohl in technischer als auch gesellschaftlicher Hinsicht, kein Schaden angerichtet, sondern ausschließlich positive wirtschaftliche und gesellschaftliche Beiträge geleistet werden sollen. Ein konkreter Rechtsrahmen fehlt zwar auch hier noch, aber die Richtung stimmt. Langfristig werden Länder wie die USA an Regulierungen und Leitlinien feilen müssen, wenn sie das Vertrauen der Benutzer:innen erlangen bzw. behalten wollen.

Deine ungelesenen Artikel:
25.10.2024

Wie das Wiener BioTech Holloid Verunreinigungen im Leitungswasser erkennt

Leitungswasser, Impfstoffe oder alternative Proteine: Egal, um welchen Stoff es sich handelt - wichtig ist, was drin ist. Um vor Verunreinigung zu warnen und ganze Wertschöpfungsketten zu transformieren, hat sich das Wiener BOKU-Spinoff Holloid einer neuen Mission verschrieben.
/artikel/wie-das-wiener-biotech-holloid-verunreinigungen-im-leitungswasser-erkennt
25.10.2024

Wie das Wiener BioTech Holloid Verunreinigungen im Leitungswasser erkennt

Leitungswasser, Impfstoffe oder alternative Proteine: Egal, um welchen Stoff es sich handelt - wichtig ist, was drin ist. Um vor Verunreinigung zu warnen und ganze Wertschöpfungsketten zu transformieren, hat sich das Wiener BOKU-Spinoff Holloid einer neuen Mission verschrieben.
/artikel/wie-das-wiener-biotech-holloid-verunreinigungen-im-leitungswasser-erkennt
Das Holloid-Team (c) Laszlo Toth

Österreich ist bekannt für sein gutes Leitungswasser. Umso überraschender kam vor einigen Wochen die Nachricht, dass das Leitungswasser im Klagenfurter Becken nicht getrunken werden darf. Der Grund: Verunreinigung. Mehrere Wochen dauerte es, bis das Wasser wieder zum Trinken freigegeben wurde.

Das Wiener Startup Holloid kann dafür sorgen, dass derartige Verunreinigungen viel rascher erkannt werden, um rechtzeitig die notwendigen Maßnahmen treffen zu können. Das BioTech wurde im April 2022 gegründet – mit dabei war der heutige CEO Marcus Lebesmühlbacher, CPO Pinar Frank sowie CTO Peter van Oostrum und Erik Reimhult.

Seine Wurzeln schlug Holloid schon im Jahr 2011 an der Universität für Bodenkultur – heute BOKU University – in Wien: Mitgründer van Oostrum und Reimhult arbeiteten damals als Senior Scientist und Professor zusammen. Kurz danach wurde das erste Mikroskop für Holographie angepasst. 2018 wurde das erste von mehreren Patenten angemeldet. 2020 kam der heutige CEO Marcus Lebesmühlbacher hinzu. Gemeinsam wurde der Name “Holloid”, ein Kofferwort aus “Holographie” und “Kolloid” erdacht. 2021 komplettierte CPO Pinar Frank das Gründerteam.

Holloid Graphic Monitoring (c) Laszlo Toth

Ob Flüssigkeiten und Gewässer sauber sind, weiß Holloid

Zu viert ging es an die Sache: Das Team entwickelte eine Hard- und Software, die Bioprozesse überwachen und Krankheitserreger in Flüssigkeiten entdecken kann.

Konkret bietet Holloid sogenannte “holographische Mikroskopie zur Bioprozesskontrolle”, unter anderem zur Prüfung der Hygiene von Wasser oder Flüssigkeiten. Angewandt wird das Ganze in der Pharma-, Lebensmittel-, Umwelt- und Chemiebranche und eignet sich unter anderem zur Herstellung von Pharmazeutika und Lebensmitteln sowie zum Monitoring der Wasserqualität in Flüssen, Seen oder Gewässern.

Mit seiner Lösung richtet sich Holloid nicht direkt an den Endverbraucher, sondern an Business-Kund:innen. Das Unternehmen bietet diesen ein Leasing- und SaaS-Modell sowie eine Hardware-Lösung mit zugrunde liegender Technologie. Die Soft- und Hardware-Kombi erstellt “3D-Bilddaten und KI-gestützte Analysen”, wie Lebesmühlbacher gegenüber brutkasten erklärt.

“Tausendmal schneller als manuelle Mikroskope”

Der Durchsatz, also die Menge an Flüssigkeitsproben, ist bei Holloid-Analysen mehrere Millionen Mal so hoch und “tausendmal schneller” als bei manuellen Mikroskopen. Außerdem passiert der Prozess “vollautomatisiert” und Cloud-basiert.

Hollometer, die Hardware von Holloid (c) Laszlo Toth

“Wir können Dinge sehen, die mit manueller Mikroskopie verloren gehen”

Dafür hat Holloid ein Gerät gebaut, das über Pumpen Proben aus durchlaufenden Flüssigkeiten ziehen kann. “Die Probe wird aus der zu analysierenden Flüssigkeit gezogen, geht durch unser Gerät, wird analysiert und geht dann wieder zurück in den Prozess oder in den Abfluss”, erklärt Lebesmühlbacher.

In der besagten Holloid-Hardware-Box, Hollometer genannt, durch die die aufgenommene Flüssigkeit fließt, werden Bilder mit Lichtmikroskopie erstellt, verarbeitet und an die Holloid-Cloud geschickt. Dort kommt es dann zur “Magic”, so Lebesmühlbacher: “Wir gewinnen 3D-Daten über alle Partikel, die im Sichtfeld sind, und das in einem viel höheren Volumen als bei manueller Mikroskopie. Wir können dort Dinge sehen, die mit manueller Mikroskopie verloren gehen”.

Damit kann Holloid “kontinuierliches Monitoring” betreiben. Dank der automatischen Auswertung meldet sich die Holloid-Software sofort, sollte es in den Proben zu Normabweichungen kommen. Die Analyse von (Leitungs-)Wasser und das Sicherstellen sauberen Trinkwassers ist dabei ein häufiges Thema, meint Lebesmühlbacher.

aws-Förderung war “größte finanzielle Stütze”

In puncto Finanzierung ist das Wiener Spinoff bislang viergleisig gefahren: “Die größte und wichtigste Stütze waren die Förderungen der Austria Wirtschaftsservice”, erzählt Lebesmühlbacher im Interview.

Konkret habe das Startup die aws Pre-Seed- und Seed-Förderung sowie den aws Innovationsschutz erhalten. Für Holloid gab es neben den aws-Förderungen auch finanzielle Hilfen vonseiten der Österreichischen Forschungsförderungsgesellschaft (FFG) und der Wirtschaftsagentur Wien.

“Wir gehen voll in das Risiko rein”

Die zweite große Finanzierungsquelle sei das eingebrachte Kapital vonseiten des Gründerteams: “Wir gehen voll in das Risiko rein. Wir sind von unserer Technologie überzeugt”, meint der CEO gegenüber brutkasten. “Wir hören, was unsere Kunden sagen. Und das stimmt uns optimistisch. Deshalb ist auch der Anteil unserer Eigenmittel am Unternehmen recht groß.”

Mittlerweile generiert das Spinoff auch zunehmend Umsätze – die dritte Säule des Startups. Und schließlich erhält sich das Spinoff auch aus Preisgeldern: Holloid hat bisher zehn Awards abräumen können. “Das waren insgesamt schon mehrere 10.000 Euro”, verrät Lebesmühlbacher.

Kunden zahlen und sind streng vertraulich

Im Markt vertreten ist Holloid bereits. Das Kundenfeld sei allerdings “streng vertraulich” und ziemlich international, aber vorerst mehrheitlich auf Europa fokussiert: “Wir haben mehrere wiederkehrende Kunden, inklusive laufender monatlicher Zahlungen. Dabei sehen wir, dass unser Geschäfts- und Preismodell funktioniert und nachhaltig ist”, sagt Lebesmühlbacher gegenüber brutkasten.

Ergo: Das Startup befindet sich nach wie vor zu 100 Prozent in Gründerhand. “Eine Finanzierungsrunde ist in Planung – und zwar in den nächsten Monaten, ab 2025”, verrät Lebesmühlbacher.

Gute Experten und hilfreiche Beratung

Was Holloid zu seinem bisherigen Erfolg verholfen hat, war neben der Expertise des Gründerteams schließlich auch die Unterstützung von außen: “Vor allem die aws Pre-Seed- und Seed-Förderung waren für die Anfänge unseres Forschungs- und Entwicklungsprojektes wichtig. Der aws Innovationsschutz gab uns dann hilfreiche Beratung. In puncto Intellectual Property hat die aws echt gute Experten”, merkt der CEO weiter an. Gemeinsam erarbeitete man eine Patent- und Intellectual-Property-Strategy.

Breites Anwendungsgebiet, klare Strategie

Bislang hat das Wiener Spinoff die Bereiche Wasserversorgung, Pharma, Lebensmittel, Umwelt und Chemie ausgelotet. Dieses breite Anwendungsgebiet macht eine klar strukturierte Markteintritts- und expansionsstrategie unabdingbar. Diese hat Holloid, erläutert Co-Gründer Lebesmühlbacher.

Langfristig will sich das Unternehmen in der Überwachung von Bioprozessen etablieren. Anwendungsbereiche sind die Pharmaindustrie von der Forschung und Entwicklung bis zur Produktionsüberwachung, die Lebensmittelindustrie rund um alternative Proteine, Lipide (Fette), Vitamine und Antioxidantien sowie die Grüne Chemie mit Kunststoffen aus Mikroben und deren Umwandlung für einen natürlichen Stoffkreislauf.

Positiven Einfluss auf Umwelt maximieren

“Gemeinsam mit unserem kommerziellen Erfolg streben wir danach, unseren positiven Einfluss auf die Umwelt und die Gesellschaft zu maximieren”, sagt Lebesmühlbacher. Statt geografischer Expansion priorisiert man bei Holloid die Frage: “Wie priorisieren wir die Ziel-Anwendungen mit Blick auf das Marktpotenzial und eine effiziente Produktentwicklung.”

“Wir sehen verschiedene Hebel, um unsere Expansion voranzutreiben. Unser Ziel ist es, innerhalb von fünf Jahren einen Umsatz in zweistelliger Millionenhöhe zu erzielen und eine strategisch wichtige Position in den Wertschöpfungsketten der Pharma- und Lebensmittelindustrie sowie in der Grünen Chemie zu erreichen”, meint Lebesmühlbacher und schließt das Gespräch mit einem kräftigen Mission-Statement: ”Im Bereich der Bioprozessüberwachung wollen wir die Nummer eins werden – kein Weg soll an uns vorbei führen.”


*Disclaimer: Das Startup-Porträt wurde in Kooperation mit der Austria Wirtschaftsservice (aws) erstellt.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

So diskriminiert KI: ChatGPT entfacht Debatte neu