Frau Buolamwini, Sie arbeiten am Massachusetts Institute of Technology mit Software zur Gesichtserkennung. Dabei haben Sie immer wieder festgestellt, dass diese Sie nicht erkennt. Sie sprechen von einem „codierten Blick“, den die Maschinen haben. Was ist das?
Unsere Identität prägt unsere Sicht auf die Welt. Und Algorithmen, wie sie in der automatischen Gesichtserkennung stecken, werden von jenen geprägt, die sie schreiben. Wenn den Programmierteams die Lebenserfahrung der Menschen fehlt, die die Technologie letztendlich am meisten betrifft, ist dieser codierte, also einprogrammierte Blick sehr begrenzt.
Es ist eine stark eingeschränkte Weltanschauung.
Was bedeutet es für unsere Gesellschaft, wenn Gesichtserkennungssoftware einen blinden Fleck hat?
Unsere Forschung zeigt, dass Menschen mit dunkler Hautfarbe in den Datenbanken, mit denen die Software zur automatischen Gesichtserkennung trainiert werden, unterrepräsentiert sind. Algorithmen werden nicht ausreichend darauf trainiert, vielfältige Gesichter zu erkennen, was zu höchst ungenauen Resultaten führt. Dabei ist es wichtig, dass diese Technologie richtig funktioniert – erst recht, wenn sie folgenreiche Entscheidungen trifft. In Amerika nutzen die Behörden Software bereits, um die Rückfallquoten von Straffälligen abzuschätzen. Menschen mit dunkler Hautfarbe sind in der Geschichte der Vereinigten Staaten immer wieder in das Fadenkreuz der Polizei geraten – auch wenn sie sich nichts zuschulden haben kommen lassen. Nun könnten Algorithmen mit ähnlichen Vorurteilen Menschen fälschlicherweise als Kriminelle abstempeln. Und wenn wir an automatische Waffen denken, in denen Gesichtserkennung eingesetzt werden könnte, um ein Ziel zu eliminieren, dann wird klar: Diese Technologie muss über alle Maßen akkurat funktionieren.
Zur Person
Joy Buolamwini ist Forscherin am MIT Media Lab und leitet die Algorithmic Justice League . Diese bekämpft Vorurteile und Stereotype in Systemen, die auf ma schinellem Lernen basieren.
Verstärken die algorithmischen Vorurteile also die strukturellen Ungleichheiten der Vergangenheit?
Wir dürfen bei Algorithmen nie vergessen: Sie spiegeln uns wider. Weltweit haben wir eine vorurteilsbelastete Geschichte. Algorithmen lernen von unserer Historie – genau das sind Daten. Aktuell verstärken sich diese algorithmischen Vorurteile immer mehr, weil wir immer vernetzter sind. Maschinelle Vorurteile verbreiten sich so schnell, wie ich den Code eines anderen herunterladen und in mein Produkt einbauen kann. Das bedeutet jedoch auch, dass wir die Vorurteile schneller ausrotten könnten. Jetzt ist der richtige Moment, um Fairness und Transparenz zu fordern.
Sie setzen also auf eine Art Skaleneffekt, durch den unsere Gesellschaft gerechter werden könnte?
Oft tun wir so, als seien Algorithmen ohne menschliches Zutun entstanden. Sie entscheiden bereits darüber, wer einen Job bekommt, welche Werbung wir sehen, wie viel wir für bestimmte Güter zahlen. Wenn wir uns diese Auswirkungen nicht ansehen, verstecken wir Vorurteile und verpassen die Chance, sie zu korrigieren.
Von Mai 2018 an gelten in Europa neue Regeln für den Datenschutz. Unter anderem erhalten Verbraucher damit das Recht, zu erfahren, wie ein Algorithmus eine Entscheidung trifft. Was wird sich für Techunternehmen dadurch ändern?
Die Einstellung der Branche zu Transparenz und Fairness in Bezug auf Algorithmen wird sich verändern müssen. Seit über einem Jahrzehnt schon sprechen Forscher über algorithmische Vorurteile. Endlich sehen wir nun ein Gesetz, das finanzielle und juristische Konsequenzen für den Fall vorsieht, dass Unternehmen diese Sorgen weiterhin ignorieren. Die Forderung, einige aktuell geheime Algorithmen offenzulegen, ist allerdings zu wenig. Denn ebenso wichtig wie der Algorithmus selbst ist auch eine Auskunft darüber, wie eine Maschine entwickelt und designt wurde – und vor allem, wie sie eingesetzt werden soll.
Was sollten Firmen tun, um einen Beitrag zur algorithmischen Gerechtigkeit zu leisten?
Sie sollten mit Freude eine vielfältige Mischung an Menschen mit verschiedenen Perspektiven einstellen. Wenn wir eine Zukunft gestalten wollen, bei der niemand vergessen wird, müssen wir jetzt klären, wer mit entscheiden darf, wo die Reise hingeht. Besonders wenn es um Technologien geht, die überall auf der Welt eingesetzt werden – und genau das nehmen die Techfirmen doch für sich in Anspruch: „Lasst uns der ganzen Welt dienen!“ Wer der Welt dienen möchte, muss in der Entwicklung ganz bewusst jeden berücksichtigen.




