Joy Buolamwini "Algorithmen spiegeln uns wider"

Joy Boulamwini Quelle: Presse

In der Art, wie Software programmiert wird, liegt auch die Chance, tief verankerte menschliche Vorurteile auszurotten. Aber kann dies wirklich gelingen?

Frau Buolamwini, Sie arbeiten am Massachusetts Institute of Technology mit Software zur Gesichtserkennung. Dabei haben Sie immer wieder festgestellt, dass diese Sie nicht erkennt. Sie sprechen von einem „codierten Blick“, den die Maschinen haben. Was ist das?
Unsere Identität prägt unsere Sicht auf die Welt. Und Algorithmen, wie sie in der automatischen Gesichtserkennung stecken, werden von jenen geprägt, die sie schreiben. Wenn den Programmierteams die Lebenserfahrung der Menschen fehlt, die die Technologie letztendlich am meisten betrifft, ist dieser codierte, also einprogrammierte Blick sehr begrenzt.
Es ist eine stark eingeschränkte Weltanschauung.

Was bedeutet es für unsere Gesellschaft, wenn Gesichtserkennungssoftware einen blinden Fleck hat?
Unsere Forschung zeigt, dass Menschen mit dunkler Hautfarbe in den Datenbanken, mit denen die Software zur automatischen Gesichtserkennung trainiert werden, unterrepräsentiert sind. Algorithmen werden nicht ausreichend darauf trainiert, vielfältige Gesichter zu erkennen, was zu höchst ungenauen Resultaten führt. Dabei ist es wichtig, dass diese Technologie richtig funktioniert – erst recht, wenn sie folgenreiche Entscheidungen trifft. In Amerika nutzen die Behörden Software bereits, um die Rückfallquoten von Straffälligen abzuschätzen. Menschen mit dunkler Hautfarbe sind in der Geschichte der Vereinigten Staaten immer wieder in das Fadenkreuz der Polizei geraten – auch wenn sie sich nichts zuschulden haben kommen lassen. Nun könnten Algorithmen mit ähnlichen Vorurteilen Menschen fälschlicherweise als Kriminelle abstempeln. Und wenn wir an automatische Waffen denken, in denen Gesichtserkennung eingesetzt werden könnte, um ein Ziel zu eliminieren, dann wird klar: Diese Technologie muss über alle Maßen akkurat funktionieren.

Zur Person

Verstärken die algorithmischen Vorurteile also die strukturellen Ungleichheiten der Vergangenheit?
Wir dürfen bei Algorithmen nie vergessen: Sie spiegeln uns wider. Weltweit haben wir eine vorurteilsbelastete Geschichte. Algorithmen lernen von unserer Historie – genau das sind Daten. Aktuell verstärken sich diese algorithmischen Vorurteile immer mehr, weil wir immer vernetzter sind. Maschinelle Vorurteile verbreiten sich so schnell, wie ich den Code eines anderen herunterladen und in mein Produkt einbauen kann. Das bedeutet jedoch auch, dass wir die Vorurteile schneller ausrotten könnten. Jetzt ist der richtige Moment, um Fairness und Transparenz zu fordern.

Sie setzen also auf eine Art Skaleneffekt, durch den unsere Gesellschaft gerechter werden könnte?
Oft tun wir so, als seien Algorithmen ohne menschliches Zutun entstanden. Sie entscheiden bereits darüber, wer einen Job bekommt, welche Werbung wir sehen, wie viel wir für bestimmte Güter zahlen. Wenn wir uns diese Auswirkungen nicht ansehen, verstecken wir Vorurteile und verpassen die Chance, sie zu korrigieren.

Von Mai 2018 an gelten in Europa neue Regeln für den Datenschutz. Unter anderem erhalten Verbraucher damit das Recht, zu erfahren, wie ein Algorithmus eine Entscheidung trifft. Was wird sich für Techunternehmen dadurch ändern?
Die Einstellung der Branche zu Transparenz und Fairness in Bezug auf Algorithmen wird sich verändern müssen. Seit über einem Jahrzehnt schon sprechen Forscher über algorithmische Vorurteile. Endlich sehen wir nun ein Gesetz, das finanzielle und juristische Konsequenzen für den Fall vorsieht, dass Unternehmen diese Sorgen weiterhin ignorieren. Die Forderung, einige aktuell geheime Algorithmen offenzulegen, ist allerdings zu wenig. Denn ebenso wichtig wie der Algorithmus selbst ist auch eine Auskunft darüber, wie eine Maschine entwickelt und designt wurde – und vor allem, wie sie eingesetzt werden soll.

Was sollten Firmen tun, um einen Beitrag zur algorithmischen Gerechtigkeit zu leisten?
 Sie sollten mit Freude eine vielfältige Mischung an Menschen mit verschiedenen Perspektiven einstellen. Wenn wir eine Zukunft gestalten wollen, bei der niemand vergessen wird, müssen wir jetzt klären, wer mit entscheiden darf, wo die Reise hingeht. Besonders wenn es um Technologien geht, die überall auf der Welt eingesetzt werden – und genau das nehmen die Techfirmen doch für sich in Anspruch: „Lasst uns der ganzen Welt dienen!“ Wer der Welt dienen möchte, muss in der Entwicklung ganz bewusst jeden berücksichtigen.

Impressionen der FutureBoard-Reise: USA
Auftakt der FutureBoard-Reise in den USA: Jan Geldmacher, Manager beim amerikanischen Telekommunikationskonzern Sprint, und Roni Bahar, Entwicklungschef des Bürovermittlers WeWork, im Gespräch mit Teilnehmer Wolfgang Bauer, IVG Immobilien AG. Quelle: Viviana Peretti
"Machines talk, we listen": Gründer Saar Yoskovitz erklärt die Idee hinter Augury und… Quelle: Viviana Peretti
… Miriam Meckel, Herausgeberin der WirtschaftsWoche, inspiziert die mitdenkenden Messgeräte von Augury. Quelle: Viviana Peretti
Unterwegs zur nächsten Station: Achim Leder hat das Start-up Jetline gegründet, das den Jetlag bei Flügen senkt. Die nächsten Tage verbringt er im Reisebus. Quelle: Viviana Peretti
Sabine Hansen von der Unternehmensberatung Kienbaum macht sich mit der Tagesroute vertraut und wieder… Quelle: Viviana Peretti
…andere aus der Reisegruppe nutzen die Busfahrten zwischen den FutureBoard-Stationen für eine Sightseeingtour – so wie Lea Treese von der Unternehmensberatung Accenture. Quelle: Viviana Peretti
FutureBoard, 3. Tag: Ankunft in New Haven und zu Gast bei der Yale University. Quelle: Viviana Peretti
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%