✨ AI Kontextualisierung
Die Statistik ist nicht von der Hand zu weisen und definitiv problematisch: Die Chance, von bildbasierten Systemen selbstfahrender Autos nicht erkannt zu werden, ist bei dunkelhäutigen Personen um 7,52 Prozent höher als bei hellhäutigen. Das fand ein Forscher:innen-Team am renommierten Londoner King’s College in einer Studie heraus. Das Ergebnis macht gerade international in Medien die Runde.
Für die Studie wurden Open Source-Algorithmen, die auch von den Autoherstellern genutzt werden (diese gaben ihre eigenen Systeme nicht für die Studie frei), auf mehr als 8.000 Bildern angewendet. Die Personen auf diesen Bildern wurden von den Wissenschaftler:innen nach Geschlecht, Alter und Hautfarbe gelabelt.
Noch größeres Problem mit nicht erkannten Kindern
Noch stärker als der Unterschied zwischen hellhäutigen und dunkelhäutigen Personen ist jener zwischen Erwachsenen und Kindern, die um ganze 19,67 Prozent häufiger nicht von den Systemen erkannt werden. Zwischen den Geschlechtern ist der Unterschied mit 1,1 Prozent dagegen relativ gering.
Sind selbstfahrende Autos also rassistische Kinderhasser? Oder etwas weniger überspitzt gesagt: Waren die Programmierer:innen der Algorithmen (mal wieder) zu wenig für das Thema sensibilisiert und haben den “racial bias” und den “age bias” auf fahrlässige Art und Weise verursacht?
Dunkelhäutige Personen werden im Dunkeln schlechter erkannt
Eine weitere Angabe des Forscher:innen-Teams legt nahe, dass man mit derartigen Vorwürfen vorsichtig sein sollte. Im Abstract zur Studie heißt es: “Darüber hinaus untersuchten wir gängige Szenarien, die in der Literatur zu Tests des autonomen Fahrens erforscht wurden, und stellen fest, dass der Bias gegenüber dunkelhäutigen Fußgängern in Szenarien mit geringem Kontrast und geringer Helligkeit deutlich zunimmt”.
Sprich: dunkelhäutige Personen sind für die optischen Systeme in erster Linie in der Dunkelheit schwerer zu erkennen als hellhäutige. Und Kinder werden generell – wie auch von menschlichen Fahrer:innen – deutlich leichter übersehen. Mit Rassismus oder Kinderfeindlichkeit hat das wohl sehr wenig zu tun.
Wohl kein Rassismus, aber sehr wohl ein Problem
Ein Problem ist dies natürlich trotzdem. Wenn die bildbasierten Systeme selbstfahrender Autos hier nicht sattelfest sind, sind sie noch nicht ausgereift genug und daher eigentlich nicht bereit für die Straße. Derartige Systeme dürften übrigens generell nicht der Weisheit letzter Schluss sein. Auch Tesla, das bis vor einiger Zeit klar auf KI-Bildanalyse setzte, steigt mittlerweile auf laserbasierte Umgebungs-Abtastung (Lidar) um.