21.08.2023

Sind selbstfahrende Autos rassistisch?

Glosse. Eine Studie von Forscher:innen des Londoner King's College, wonach autonome Fahrzeugsysteme "racially biased" sind, macht derzeit in den internationalen Medien die Runde.
/artikel/sind-selbstfahrende-autos-rassistisch
Der Tesla Model Y knapp vor dem Aufprall mit der Kinder-Schaufensterpuppe
Screenshot: Der Tesla Model Y knapp vor dem Aufprall mit der Kinder-Schaufensterpuppe
kommentar

Die Statistik ist nicht von der Hand zu weisen und definitiv problematisch: Die Chance, von bildbasierten Systemen selbstfahrender Autos nicht erkannt zu werden, ist bei dunkelhäutigen Personen um 7,52 Prozent höher als bei hellhäutigen. Das fand ein Forscher:innen-Team am renommierten Londoner King’s College in einer Studie heraus. Das Ergebnis macht gerade international in Medien die Runde.

Für die Studie wurden Open Source-Algorithmen, die auch von den Autoherstellern genutzt werden (diese gaben ihre eigenen Systeme nicht für die Studie frei), auf mehr als 8.000 Bildern angewendet. Die Personen auf diesen Bildern wurden von den Wissenschaftler:innen nach Geschlecht, Alter und Hautfarbe gelabelt.

Noch größeres Problem mit nicht erkannten Kindern

Noch stärker als der Unterschied zwischen hellhäutigen und dunkelhäutigen Personen ist jener zwischen Erwachsenen und Kindern, die um ganze 19,67 Prozent häufiger nicht von den Systemen erkannt werden. Zwischen den Geschlechtern ist der Unterschied mit 1,1 Prozent dagegen relativ gering.

Sind selbstfahrende Autos also rassistische Kinderhasser? Oder etwas weniger überspitzt gesagt: Waren die Programmierer:innen der Algorithmen (mal wieder) zu wenig für das Thema sensibilisiert und haben den “racial bias” und den “age bias” auf fahrlässige Art und Weise verursacht?

Dunkelhäutige Personen werden im Dunkeln schlechter erkannt

Eine weitere Angabe des Forscher:innen-Teams legt nahe, dass man mit derartigen Vorwürfen vorsichtig sein sollte. Im Abstract zur Studie heißt es: “Darüber hinaus untersuchten wir gängige Szenarien, die in der Literatur zu Tests des autonomen Fahrens erforscht wurden, und stellen fest, dass der Bias gegenüber dunkelhäutigen Fußgängern in Szenarien mit geringem Kontrast und geringer Helligkeit deutlich zunimmt”.

Sprich: dunkelhäutige Personen sind für die optischen Systeme in erster Linie in der Dunkelheit schwerer zu erkennen als hellhäutige. Und Kinder werden generell – wie auch von menschlichen Fahrer:innen – deutlich leichter übersehen. Mit Rassismus oder Kinderfeindlichkeit hat das wohl sehr wenig zu tun.

Wohl kein Rassismus, aber sehr wohl ein Problem

Ein Problem ist dies natürlich trotzdem. Wenn die bildbasierten Systeme selbstfahrender Autos hier nicht sattelfest sind, sind sie noch nicht ausgereift genug und daher eigentlich nicht bereit für die Straße. Derartige Systeme dürften übrigens generell nicht der Weisheit letzter Schluss sein. Auch Tesla, das bis vor einiger Zeit klar auf KI-Bildanalyse setzte, steigt mittlerweile auf laserbasierte Umgebungs-Abtastung (Lidar) um.

Deine ungelesenen Artikel:
22.09.2023

Ihre Modelle visualisieren zukünftige Armut auf Landkarten

Lisette Espín-Noboa entwickelt in Wien mit Big Data Machine-Learning-Modelle und zeigt uns mit Poverty Maps, wo die Ärmsten in Zukunft leben.
/artikel/ihre-modelle-visualisieren-zukuenftige-armut-auf-landkarten
22.09.2023

Ihre Modelle visualisieren zukünftige Armut auf Landkarten

Lisette Espín-Noboa entwickelt in Wien mit Big Data Machine-Learning-Modelle und zeigt uns mit Poverty Maps, wo die Ärmsten in Zukunft leben.
/artikel/ihre-modelle-visualisieren-zukuenftige-armut-auf-landkarten
Lisette Espín-Noboa liefert Politiker:innen neue Entscheidungsgrundlagen. Foto: Map Box/OpenStreetMap/Bimal Viswanath
Lisette Espín-Noboa liefert Politiker:innen neue Entscheidungsgrundlagen. Foto: Map Box/OpenStreetMap/Bimal Viswanath

Heuer präsentierte ein wissenschaftliches Team von der Central European University (CEU) und dem Complexity Science Hub (CSH) einen Durchbruch: Sie können Armut auf Landkarten sichtbar machen.

Konkret nahmen sich die Forscher:innen dafür Sierra Leone und Uganda vor. Die beiden Staaten in Subsahara-Afrika zählen zu den ärmsten der Welt. Das Wiener Forscherteam entwickelte dazu das interaktive Online-Tool Poverty Maps, mit dem User:innen die Wohlstandsentwicklung in beiden Ländern vergleichen können. Sogar einen Ausblick auf die Zukunft können die Karten geben. Unmengen abstrakter Daten werden damit auf einen Blick zu aussagekräftiger Information.

Vom Taxiverhalten zu Armutskarten

“Die Idee wäre, dass politische Entscheidungsträger:innen, die Menschen unterhalb der Armutsgrenze helfen möchten, diese Art von Instrumenten nutzen können. Um zu verstehen, wo die Menschen sind, die wirklich Hilfe brauchen”, erklärt Lisette Espín-Noboa im brutkasten-Interview.

Die aus Ecuador stammende Computerwissenschaftlerin ist extra für das Projekt nach Wien gekommen. Sie ist Expertin für Predictive Analytics, Netzwerkanalysen und Machine Learning. Davor arbeitete sie vor allem mit Mobilitätsdaten, auf deren Basis sie Prognosen für die Zukunft erstellte. Espín-Noboa erforschte unter anderem, wie sich Taxis in der Metropole New York verhalten.

Wiederverwendbare ML-Modelle

“Sie gaben mir dieses Projekt und ich hatte die Freiheit, zu schauen, wie es funktioniert”, sagt die Computerwissenschaftlerin. Sie entwickelte ein eigenes Framework für drei Machine-Learning-Modelle. Damit visualisieren die Forscher:innen die Wohlstandsentwicklung auf Landkarten. Am Beispiel von Sierra Leone und Uganda bewies das Team bereits, dass es möglich ist.

Espín-Noboa erklärt, dass sie die Modelle nun auch für andere Länder verwenden. Dafür müsse nur die sogenannte Ground Truth für jedes Land anhand einer eigenen Datenbasis neu in das Modell gefüttert werden. Ground Truth ist die genaue und verlässliche Referenz, anhand derer die Richtigkeit von Daten oder Vorhersagen bewertet wird.

Wie viele Antennen, welche Toilette?

Für die beiden afrikanischen Länder verwendeten die Forscher:innen Umfragedaten als Basis. “In Afrika werden Umfragen zum Haushalt oder Lebensstandard durchgeführt. Diese Fragebögen ermitteln, wie viele Zimmer Ihr Haus hat, welche Art von Toilette Sie benutzen, wie Sie an Ihr Wasser kommen, ob Sie ein Auto habe oder ob Sie eine Haus- und Sanitäranlage haben”, erklärt die Computerwissenschaftlerin. Mit dem Internationalen Wohlstandsindex (IWI) wurden auf dieser Basis dann Grundwerte errechnet.

Hinzugefügt wurden in der Folge weitere Daten, die etwa von Satellitenbildern oder Social-Media-Postings stammen. Daraus konnten Espín-Noboa und ihre Kolleg:innen schließen, wie viele Menschen in einer Region ein iPhone besitzen oder wie viele Antennen sich in einem Gebiet befinden. “Wir dachten: Wenn der Ort viele Antennen hat, bedeutet das wahrscheinlich, dass er wohlhabend ist. Wenn er keine Antennen hat, ist er wahrscheinlich arm”, so Espín-Noboa. Daten aus OpenStreetMap würden wiederum verraten, wie weit die nächste Straße oder Schule entfernt ist.

Zukunftsvorhersagen auch für Europa

Nun versuchen Espín-Noboa und ihr Team diese Karten auch für Österreich und Ungarn zu erstellen. Noch fehlen ihr aber die dafür notwendigen Daten für ihre Modelle. Sie ist deshalb auf der Suche nach Organisationen, die Daten zur Verfügung stellen.

“Wir können nicht einfach die gleichen Daten verwenden, weil die Standards unterschiedlich sind. Etwa fragt man in Ungarn nicht, welche Art von Toiletten jemand benutzt”, erklärt Espín-Noboa. Stattdessen sei in etwa Ungarn aussagekräftiger, wie viel Immobilien kosten. Für jedes Land müsse deshalb eine eigene “Ground Truth” ermittelt werden, dann könnten die entwickelten Modelle für verschiedene Länder verwendet werden, glaubt die Expertin.

Bessere Entscheidungsgrundlage

Das Projekt ist ein Novum, denn bisher verließen sich Entscheidungsträger:innen vor allem auf Volkszählungsdaten, wenn es um den Umgang mit Armut ging. Die Karten stellen die Entwicklung jedoch viel detaillierter dar. “Mit der Ground Truth haben wir Armut vorhergesagt, aber Sie können alles vorhersagen. Wenn Sie fundierte Fakten zum Thema Bildung haben, können Sie etwa auch Bildung vorhersagen”, sagt Espín-Noboa. Sie hofft, dass künftig mehr Tools für politische Entscheidungsträger:innen zur Verfügung stehen – damit diese bessere und zielgerichtete Entscheidungen treffen können.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Sind selbstfahrende Autos rassistisch?

Es gibt neue Nachrichten

Auch interessant