18.04.2023

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

Rania Wazir und Gertraud Leimüller haben 2022 das Wiener Startup Leiwand.ai gegründet. Seither setzt sich das Duo für Fairness in künstlicher Intelligenz ein. Im brutkasten-Interview erklären die Gründerinnen, warum Fairness in KI für alle Menschen wichtig ist.
/artikel/leiwand-ai-fairness-in-kuenstlicher-intelligenz
Rania Wazir und Gertraud Leimüller möchten mit ihrem Startup Leiwand.ai künstliche Intelligenz fairer gestalten. (c) Leiwand.ai

Wir befinden uns in einer zunehmend digitalisierten Welt, in der künstliche Intelligenz (KI) immer mehr Aspekte unseres Alltags durchdringt. Mit den jüngsten technologischen Fortschritten dringen Fragen zur Fairness und Gerechtigkeit von KI-Systemen stärker in den Vordergrund. Von Personalbeschaffung über Kreditvergabe bis hin zu medizinischer Diagnostik, künstliche Intelligenz trifft bereits schwerwiegende Entscheidungen, die ethnische und gesellschaftliche Fragestellungen aufwerfen.

Das Wiener KI-Startup Leiwand.ai hat es sich zur Aufgabe gemacht, den “Fair by Design”-Ansatz in die Entwicklung von künstlicher Intelligenz von Anfang an zu implementieren. Damit möchten die Gründerinnen Gertraud Leimüller und Rania Wazir dazu beitragen, die revolutionäre Technologie zum Wohle der Menschen einzusetzen und Diskriminierung durch KI zu reduzieren. Das im Jahr 2022 gegründete Startup arbeitet aktuell an einem Bias-Detektor, der frühzeitig unbeabsichtigte Diskriminierung durch künstliche Intelligenz aufspüren soll.

Technische und soziale Fairness in KI

“Fairness in künstlicher Intelligenz betrifft jeden, nicht nur Frauen und Minderheiten”, sagt Gertraud Leimüller, Co-Founderin von Leiwand.ai. Anhand eines Beispiels erläutert sie, dass auch ein junger, weißer Mann von künstlicher Intelligenz diskriminiert werden kann, da er beispielsweise für seine medizinische Ausbildung länger braucht, weil die KI aufgrund verzerrter Kriterien Ausbildungsplätze nur mit großen Zeitabständen vergibt. Leimüller und Wazir unterscheiden daher zwischen technischer und sozialer Fairness. Technische Fairness wird durch die Implementierung von Fairness-Maßnahmen während der Entwicklung berücksichtigt, kann aber durch den Einsatz von verzerrten Daten gefährdet werden und unbeabsichtigte Diskrimminierung hervorrufen.

Wir können nicht erwarten, dass die Algorithmen, die wir entwickeln und mit historischen Daten und Biases trainieren, faire Entscheidungen treffen

Rania Wazir

“Wenn Daten, die für KI-Training verwendet werden, kaum Frauen oder ethnische Gruppen repräsentieren, wird die KI glauben, fair zu handeln. In der Praxis sieht das aber anders aus, da die Daten die gesellschaftliche Realität nicht korrekt wiedergeben”, erklärt Leimüller. Wazir fügt hinzu, dass wir Menschen nicht fair sind. “Das müssen wir uns eingestehen. Wir können nicht erwarten, dass die Algorithmen, die wir entwickeln und mit historischen Daten und Biases trainieren, faire Entscheidungen treffen.”

Auch soziale Fairness könne keine hundertprozentige Fairness garantieren, da diese auf Kompromisse und Trade-offs basiert. “Wenn ich die KI so programmiere, dass sie Frauen auf keinen Fall diskriminieren darf, kann ich die Diskriminierung anderer dadurch kaum verhindern. Ich kann nicht alle Gruppen fair behandeln”, sagt Leimüller. Dennoch sei es möglich, das Risiko für Diskriminierung zu minimieren.

Fairness in KI ist Perspektiven-abhängig

Ein wichtiger erster Schritt für die Auseinandersetzung mit Fairness ist, zu verstehen, dass Fairness für jede einzelne Person etwas anderes bedeuten kann, da sie Perspektiven-abhängig ist. “Zum Beispiel bedeutet Fairness für einen Richter als Entscheidungsträger etwas ganz anderes als Fairness für den Angeklagten als Betroffener”, erklärt Wazir und nennt 20 unterschiedliche Metriken, um Fairness zu messen.

“Diese 20 Formeln haben mittlerweile alle mathematisch bewiesen, dass nicht alle gleichzeitig erfüllt sein können”, erklärt die Gründerin weiter. Das bedeutet, dass Entscheidungen getroffen werden müssen, welche Metriken berücksichtigt und welche Perspektiven dem KI-System vermittelt werden. Dadurch wird klar, dass Fairness in KI nicht einheitlich messbar ist und von verschiedenen Blickwinkeln und Kontexten abhängt.

KI-Landschaft als “Wilder Westen”

Während künstliche Intelligenz das Potenzial hat, unsere Lebensqualität zu verbessern, besteht auch die Gefahr, dass sie gesellschaftliche Ungleichheiten und Diskriminierungen verschärft. “Künstliche Intelligenz ist sehr mächtig. Mit dieser Macht kommt eine Verantwortung, welcher wir uns nicht entziehen sollten”, sagt Wazir. Die Gesellschaft habe die Verantwortung, dass durch den Einsatz von KI-Technologien weder Menschen noch der Umwelt ungewollten Schaden zugefügt wird. Aus diesem Grund wird dem Thema Regulierung in der KI-Branche eine umso größere Wichtigkeit zugeschrieben.

Die Gründerinnen beschreiben die KI-Landschaft als “Wilder Westen”, da aktuell Qualitätskriterien fehlen und dadurch der Auslöser für das wachsende Misstrauen und die Vorbehalte in der Gesellschaft rund um diese Technologien seien. “Wenn Fairness in KI nicht berücksichtigt wird, können Bedenken gegenüber diesen Technologien entstehen. Viele Menschen vertrauen der KI nicht. Wir sehen das teilweise jetzt schon, wenn diese Systeme am Arbeitsplatz eingesetzt werden”, sagt Leimüller.

Um zukünftige Akzeptanzprobleme aus dem Weg zu räumen und Fairness in KI-Systemen sicherzustellen, sei es daher notwendig, Mindestqualitätsstandards für künstliche Intelligenz aufzustellen. Das ist vor allem mit unterschiedlichen Soft-Laws und Zertifizierungen von KI-Unternehmen möglich. Zudem sind die KI-Expert:innen davon überzeugt, dass KI-Regulierungen und Standards das Potenzial mitbringen, Menschen Arbeit abzunehmen und die KI-Entwicklung künftig zu erleichtern. “Eine gute Qualitätsrichtlinie und Regulierung helfen uns in den Bereichen, wo es noch so viel zu entdecken gibt”, erklärt Wazir weiter.

Interdisziplinäre Zusammenarbeit fundamental für KI

Bei der Entwicklung von KI-Technologien müsse man das Hauptaugenmerk darauf legen, zu verstehen, welche Personengruppen von der Entwicklung betroffen sind, wie sich diese auf die Menschen auswirken und welche Vorteile und Bedürfnisse sich daraus für die Nutzer:innen ergeben. Dieser Aspekt ist ein wesentlicher Bestandteil im Entwicklungsprozess, um Techniker:innen frühzeitig über diese Werte zu informieren.

“Developer:innen haben keine sozialwissenschaftliche Ausbildung. Wir können die Verantwortung über Gleichberechtigung in KI nicht allein Data Engineers und Entwickler:innen überlassen”, sagt Leimüller. Die gesamte Gesellschaft müsse sich an der Diskussion um Fairness in KI beteiligen. Genau hier müsse man ansetzen und mehrere Disziplinen vereinen, um ein umfassendes Verständnis von künstlicher Intelligenz zu gewährleisten.

Als ersten Ansatz hierfür nennt Leimüller die interdisziplinäre Ausrichtung in der Ausbildung. Zudem sei es wichtig, Techniker:innen komplementäre Ausbildungen anzubieten. “Was wir jetzt brauchen, sind interdisziplinäre Teams. Wir müssen verstehen, dass man keine gute KI entwickeln kann, wenn nicht mehrere Expert:innen aus unterschiedlichen Disziplinen an einem Tisch sitzen. Das ist eine sehr wichtige Herangehensweise”, erklärt Leimüller.

Deine ungelesenen Artikel:
14.11.2024

Lolyo-Founder: “Ängstliche Personen können nicht motiviert arbeiten”

Die Mitarbeiter-App Lolyo aus Raaba, Steiermark, soll durch eine verbesserte Firmenkommunikation die Ängste von Mitarbeiter:innen lindern. Besonders in Krisenzeiten, wo Unternehmen mit Einbußen oder anderen Hürden zu kämpfen haben. Mit diesem Konzept hat das Startup bisher über 300 Kunden in 15 Ländern gewinnen können.
/artikel/lolyo-founder-aengstliche-personen-koennen-nicht-motiviert-arbeiten
14.11.2024

Lolyo-Founder: “Ängstliche Personen können nicht motiviert arbeiten”

Die Mitarbeiter-App Lolyo aus Raaba, Steiermark, soll durch eine verbesserte Firmenkommunikation die Ängste von Mitarbeiter:innen lindern. Besonders in Krisenzeiten, wo Unternehmen mit Einbußen oder anderen Hürden zu kämpfen haben. Mit diesem Konzept hat das Startup bisher über 300 Kunden in 15 Ländern gewinnen können.
/artikel/lolyo-founder-aengstliche-personen-koennen-nicht-motiviert-arbeiten
Die Geschäftsführer der cycoders GmbH: CTO – DI (FH) Martin Guess, CEO – Thomas Mörth Bildrechte: cycoders GmbH
(c) cycoders GmbH - Die Geschäftsführer von cycoders Martin Guess und CEO Thomas Mörth.

Getuschel. Hinter vorgehaltener Hand wird geflüstert, Gespräche erst fortgesetzt, wenn die Führungskraft außer Hörweite ist. Man mutmaßt, man nimmt an. Man glaubt, dass die Firma Probleme hat und sich womöglich von Leuten trennen muss. Die Sorge wächst und man fürchtet, dass es einen treffen könnte. Und an die Arbeit zu denken, ist mit einem solchen Gefühl nur schwer möglich. So ähnlich geht es zu Krisenzeiten in Unternehmen zu, weiß Lolyo Co-Founder und CEO Thomas Mörth, der auch gemeinsam mit Martin Guess Geschäftsführer von cycoders ist. Er möchte mit seiner App Ängste von Mitarbeiter:innen lindern.

Lolyo mit direktem Draht

Die Idee dazu kam ihm vor ein paar Jahren, als er in seiner Werbeagentur kundenseitig den Wunsch verspürte, eine verbesserte digitale und interne Kommunikation zu entwickeln. “Es gab am Markt bereits einige Lösungen, aber die waren zu teuer oder zu kompliziert”, erzählt er. “Also haben wir entschieden, das wir uns der Sache annehmen.”

Heraus kam Lolyo, eine Mitarbeiter:innen-Mitmach-App als Kommunikationstool, das man aufs eigene Smartphone laden kann und so direkten Zugang zum Führungsteam erhält.

“Wenn man Mitarbeiter binden möchte, mitteilen, was man alles tut, dann war das bisher mit klassischen Kanälen schwierig”, so Mörth weiter. “So ein Tool ist heutzutage jedoch unverzichtbar und funktioniert nicht bloß einseitig, sondern auch umgekehrt. Es ist ein direkter Draht zur Unternehmensführung.”

Das Zeitalter der Verunsicherung

Gerade jetzt, wo Unternehmen Personal abbauen müssen oder zumindest die Gefahr dazu groß sei, herrsche in der Regel große Verunsicherung, weiß der Founder. “Das schlägt sich negativ in der Produktivität nieder, denn ängstliche Personen können nicht motiviert arbeiten.”

Die Folgen dieser negativen Gefühle können für alle Seiten verheerend sein: Die Arbeitsmoral verschlechtert sich und eine sinkende Produktivität, erhöhter Stress und Burnout-Gefahr schleichen sich ein und lähmen den täglichen Betrieb.

Mit den psychischen Folgen für die verbleibenden Mitarbeiter:innen hat sich Alexander Ahammer mit seinem Team vom VWL-Institut der Johannes Kepler Universität Linz in einer Studie beschäftigt. Eine der Erkenntnisse: Innerhalb eines Zeitraums von eineinhalb Jahren nach dem Personalabbau der untersuchten Firmen erfolgten 6,8 Prozent mehr Medikamentenverschreibungen sowie 12,4 Prozent mehr Krankenhaustage, erwähnte der Ökonom 2022 in einem APA-Gespräch. Dass diese Ängste Arbeitgeber:innen viel Geld kosten können, wurde auch in einer Studie der FH Köln aus dem Jahr 2000 belegt, wie Mörth erwähnt. “Diese Angst kann man aber mit den richtigen Instrumenten wegnehmen.”

Lolyo als mobiles Intranet

Lolyo ist im Detail ein mobiles Intranet, das Mitarbeitende miteinander vernetzt. Die drei primären Kanäle – News, Pinnwand und Chat – sollen dabei einen optimalen Informationsfluss garantieren. Zudem enthält die App eine Vielzahl an Features, die das Engagement erhöhen und interne formelle Abläufe wesentlich vereinfachen soll. Im Idealfall soll sie für alle Mitarbeitenden den Zugang zu allen digitalen Services des Unternehmens anbieten.

Insgesamt gibt es 30 verschiedene Features, die von Terminen, Formularen, Umfragen über automatische Übersetzung bis hin zum Start eines eigenen Podcast-Kanals verschiedene Angebote parat halten. Der Mitmach-Booster von Lolyo ist zudem als Anreiz gedacht, aktiv zu bleiben. Wenn man sich Nachrichten durchliest, liked oder kommentiert, erhält man Punkte, die dann in einem vom Unternehmen aufgesetzten “Goodies Store” eingelöst werden können. “Das ist unser USP”, sagt Mörth. “Wir haben diese Art von ‘Gamification’ von Anfang an integriert.”

300 Kunden

Seit dem Beginn im Jahre 2018 konnte Lolyo 300 Kunden (Anm.: darunter Liebherr, Efco, Recheis, Wutscher Optik) aus 15 Ländern für sich gewinnen. “Corona war für uns ein glücklicher Fall, denn die Unternehmen mussten umdenken”, erinnert sich Mörth. “Der Bedarf nach guter Kommunikation hat sich ja damals plötzlich erhöht.”

Auch die Mundpropaganda war für das 16-Personen starke Team wesentlich. “Wir sind ein kleines Unternehmen und nicht investorengetrieben”, erklärt der Founder. “Und haben keine Millionen an Marketing-Budget. Der Erfolg kam über unsere ‘Word of Mouth-Taktik’. Damit konnten wir bisher unseren Umsatz jährlich verdoppeln.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Leiwand.ai: “Fairness in KI betrifft jeden, nicht nur Frauen und Minderheiten”