Künstliche Intelligenz: Haben Algorithmen Vorurteile?

PremiumKünstliche Intelligenz: Haben Algorithmen Vorurteile?

04. September 2017
von Varinia Bernau

Maschinen nehmen dem Menschen Entscheidungen ab – neutral sind sie dabei nicht. Im Gegenteil.

Joy Buolamwini setzt beim Programmieren manchmal eine Maske auf. Am Media Lab des Massachusetts Institute of Technology (MIT) nahe Boston entwickelt sie einen vernetzten Spiegel. Und sie stellt dabei immer wieder fest, dass Software, die zur Gesichtserkennung geschrieben wurde, ihres nicht wahrnimmt. Für die Maschine ist Buolamwini unsichtbar – es sei denn, sie setzt eine weiße Maske auf.

Buolamwini ist schwarz. Dass Maschinen sie diskriminieren, erlebt sie seit einigen Jahren. Dunkle Haut zu erkennen wird Software oftmals einfach nicht beigebracht. Es gibt auch Seifenspender, die sich von einer weißen Hand darunter aktivieren lassen, nicht aber von einer schwarzen Hand. Es gibt Software, die Streifenpolizisten empfiehlt, wo sie sich umsehen sollten, und sie auffällig oft durch Straßen schickt, in denen viele Schwarze leben. Und zwei Forscher der Universität von Massachusetts zeigten kürzlich, wie schwer sich Sprachassistenten wie Alexa oder Siri mit Afro-Amerikanern tun: Einer der Dienste hielt den Slang, den viele sprechen, sogar für Dänisch.

Anzeige

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%