✨ AI Kontextualisierung
Das Problem beim Einsatz Künstlicher Intelligenz ist, dass sie dazu tendiert, diskriminierende Entscheidungen zu treffen – etwa in der Bildung, bei Bewerbungsverfahren oder in der Werbung. Amazon, als Beispiel, schaffte vor vier Jahren eine KI-Software für die Bewerberauswahl wieder ab, weil die eingebaute AI Frauen benachteiligte. Microsoft nahm seinen Chatbot “Tay” bereits zwei Jahre davor zurück, nachdem jener rassistische und extremistische Inhalte getwittert hatte. Das Projekt MAMMOth möchte dieses allgemeine Problem nun angehen.
MAMMOth = Multi-Attribute, Multimodal Bias Mitigation in AI Systemen
Denn, Unternehmen, Politik und viele andere Bereiche verlassen sich zunehmend auf Künstliche Intelligenz und treffen auf dieser Grundlage weitreichende Entscheidungen für den Einzelnen und die Gesellschaft.
“Einerseits eröffnet dies enorme Möglichkeiten für verschiedene Sektoren wie Bildung, Bankwesen oder Gesundheitswesen, aber auch auf persönlicher Ebene, zum Beispiel bei Stellenbewerbungen oder beim Targeting von Werbung. Andererseits besteht gerade bei künstlicher Intelligenz (KI) die Gefahr, dass sie die Diskriminierung von Minderheiten und Randgruppen in der Bevölkerung – basierend auf sogenannten geschützten Merkmalen wie Geschlecht, Rasse und Alter – weiter verstärkt”, erklärt Fariba Karimi, Senior Scientist bei “Computational Social Science” am CSH in Wien.
Der “Science Hub” entwickelt mit der Wissenschaftlerin sogenannte Fairness-Messungen, die nicht nur ein Attribut wie die Hautfarbe berücksichtigen, sondern mehrere sich überschneidende Attribute wie Geschlecht, Alter und Rasse.
“Wir wollen zum Beispiel, dass unsere Fairness-Messungen nicht nur für Frauen funktionieren, sondern auch für Frauen, die Einwanderer sind oder aus benachteiligten ethnischen Gruppen stammen”, sagt Karimi. Ihr Fokus liegt auf genau dieser “multikriteriellen Fairness” in Netzwerkdaten – wenn beispielsweise Ungleichheiten daraus resultieren, dass Menschen im Kontext eines zugrunde liegenden Netzwerks unterschiedliche Positionen einnehmen.
Minderheiten sollten in Algorithmen nicht unsichtbar werden
Diskriminierung sei kein neues Problem, aber die Tatsache, dass die KI-Technologie sie weiterhin verstärke, habe zum Aufstieg des fairnessbewussten maschinellen Lernens (ML) als Teil der verantwortungsvollen KI geführt.
Ziel ist die Entwicklung von Modellen des maschinellen Lernens, die einerseits gute Vorhersagen machen, andererseits aber nicht nach geschützten Merkmalen wie Geschlecht oder Rasse diskriminieren.
“Es wurden viele Anstrengungen unternommen, aber bisher haben die vorgeschlagenen Methoden nur eine begrenzte Wirkung und spiegeln nicht die Komplexität und die Anforderungen der realen Anwendungen wider”, so Karimi weiter.
MAMMOth: Zwölf Institute ziehen an einem Strang
Beim EU-Projekt MAMMOth indes entwickeln Experten aus zwölf verschiedenen Institutionen eine innovative, auf Fairness ausgerichtete, datengestützte KI-Grundlage, die die notwendigen Werkzeuge zur Verfügung stellt, um Diskriminierung und Mehrfachdiskriminierung abzuschwächen und die Verantwortlichkeit von KI-Systemen zu gewährleisten.
“Durch die Entwicklung und Umsetzung von multikriteriellen Fairness-Maßnahmen und Abschwächungen wollen wir sicherstellen, dass Minderheiten in Algorithmen nicht sichtbar sind und in Bereichen, die sich bei Entscheidungsprozessen auf Maschinen verlassen, fair behandelt werden”, erklärt Karimi. “Gerechtere Algorithmen bedeuten eine bessere Repräsentation und Vielfalt in der Gesellschaft, was wiederum eine integrativere und gerechtere Gesellschaft bedeutet.”
Zu diesem Zweck wird sich das Projekt von Anfang an aktiv an zahlreiche Gemeinschaften von gefährdeten bzw. unterrepräsentierten Gruppen in der KI-Forschung wenden. Der sogenannte Co-Creation-Ansatz soll dafür sorgen, dass die tatsächlichen Bedürfnisse und Nöte der Nutzer:innen im Mittelpunkt der Forschungsagenda stehen und die Aktivitäten des Projekts leiten.
Die entwickelten Lösungen werden, laut Karimi, folglich in Pilotprojekten in drei relevanten Bereichen (Finanz-/Kreditanwendungen, Identitätsüberprüfungssysteme und akademische Bewertung) demonstriert.