WiWo App Jetzt gratis testen
Anzeigen
Führungswechsel
Künstliche Intelligenz ist nur so gut wie die Menschen, die sie programmiert haben. Quelle: dpa

Führungskräfte müssen die Schwächen von KI kennen

Es ist eine verlockende Idee, dass intelligente Maschinen uns in Zukunft auch Entscheidungen abnehmen. Doch Vorsicht: Noch passieren zu viele Fehler und sind die Maschinen nicht vorurteilsfrei programmiert.

  • Artikel teilen per:
  • Artikel teilen per:

Computer sind genial, wenn es darum geht, in diffusen Datenmassen plausible Muster erkennen. Darin liegen viele Chancen: Zum Beispiel in der Tumorerkennung. Im schnellen Pixelabgleich auf den Röntgenbildern erkennt Künstliche Intelligenz Abweichungen früher und präziser. Nicht alle Lebens- und Wirtschaftsbereiche können dieselben Erfolge vorweisen. In den vermeintlich unbeirrbaren KI-Analysen können auch krasse und geradezu absurde Fehler entstehen.

So wurden beispielsweise bei Amazon in einem automatisierten Bewerbungs-verfahren ausgerechnet Frauen als ungeeignet aussortiert. Waren sie objektiv schlechter? Nun ja, aus Logik des KI-Systems schon: Die Maschine hat mit enormem Fleiß und großer Konsequenz die Kriterien gelernt, die bereits im System vorhanden waren. Es hatte sich auf der Grundlage von Lebensläufen, die Mitarbeiter über die vergangenen 10 Jahre bei Amazon vorgelegt hatten, selbst beigebracht, dass die erfolgreichsten Kandidaten vor allem ein Kriterium erfüllten: Sie waren männlich.

Maschinen sehen nur, was sie gelernt haben wahrzunehmen. Dann sind sie genial. Aber ansonsten sind sie blind. Sie sind rational, aber nicht objektiv. Sie sind technisch, aber zu oft männlich. In der KI-Welt reden wir vom Gen-der Data Gap – und der kann einem große Sorgen bereiten.

Unbewusst und unhinterfragte Stereotypen (unconcious biases) können dazu führen, dass Produkte und Dienstleistungen für die Mehrheit der Menschen irrelevant sind. Das gilt auch für Künstliche Intelligenz. Sobald ein Modell skaliert, wird die brutale Kraft der Mathematik genau die Ansichten skalieren, die das Programmier-Team über die Welt hat.

Lernende Maschinen müssen inzwischen gar nicht mehr direkt mit verzerrten Daten gefüttert werden. Sie können sich die Daten auch selbst zusammensuchen – etwa im Netz, oder nach dem Ähnlichkeitsprinzip synthetische Daten generieren, um mit ausreichend Kalkulationsmasse Maschinen zu füttern.

Für die Entwicklung von Vorurteilen braucht es offenbar keine höheren kognitiven Fähigkeiten: Der Microsoft-Chatbot Tay entwickelte sich mit rasanter Geschwindigkeit zu einem Rassisten: Tay sollte durch simples Plaudern auf Twitter selbstständig "lockere und spielerische Konversation" lernen. Inner-halb von 24 Stunden hatte die vermeintlich intelligente Maschine gelernt, was man auf Twitter eben so lernen kann: Der Roboterpapagei plapperte unbeschwert frauenfeindlich und rassistisch daher.

KI lernt schnell, aber macht auch immer schneller Fehler. Beispiel Kreditwürdigkeit: Wenn Kredite automatisch an bestimmte Personengruppen nicht mehr vergeben werden, gibt es auch keine Daten mehr zu der Frage, ob die aussortierte Person am Ende nicht vielleicht doch kreditwürdig gewesen wäre. Am Ende der vermeintlich intelligenten Aussortier-Spirale bekommt nur noch der einen Kredit, der gar keinen braucht.

Wie groß ist unsere Fehlertoleranz? Und worin besteht der Unterschied, ob wir die KI zum Identifizieren einer Obstsorte an der Supermarktkasse oder bei der Strafverfolgung von Menschen anwenden? Überlassen wir der Technik trotzdem die Entscheidung?

„Das Programm hat auf Basis Ihrer Daten entschieden, dass …“ Wir ahnen, dass solche Sätze immer häufiger auf uns zukommen. Aber sie kommen nicht zwangsläufig – und sie kommen nicht aus den Maschinen. Wer Angst hat, dass die Maschinen die Macht über die Welt übernehmen könnten, sollte sich bewusst machen, dass wir Menschen es sind, die der Technik diese Macht erst geben.
Führungskräfte müssen deswegen ihren Blick für Vorurteile schärfen, die sich unbemerkt einschleichen können. Denn es geht nicht allein darum, zu verhindern, dass ein System aus Daten irgendeine Art von Diskriminierung ableitet, sondern es geht darum, dass so etwas rechtzeitig auffällt.

In den USA, UK und Deutschland sind sogenannte „Remuneration Commit-tees“ üblich, in denen über HR-Strategien, Gehälter und Boni von Top-Führungskräften entschieden wird. Dort gehört es zu den Best Practices, sich regelmäßig mit Diversity-Trainings zu befassen. Darauf aufbauend sollte wir in alle IT-Systeme „Watch-Dogs“ einbinden, also professionelle Vorurteils-Detektive, die jede Art von Unconscious Bias aufspüren.

Mehr Frauen in die KI-Teams!

Den simplen Anfang könnte machen, dass die KI-Teams nicht nur aus Männern bestehen. Weltweit ist nicht einmal jede vierte KI-Fachkraft eine Frau. Doch das reicht nicht. Weiß, männlich und in der Altersgruppe berufstätiger IT-Nerds sind nur 10 Prozent der Weltbevölkerung. Was ist mit den Wertvor-stellungen, Ansprüchen und Bedürfnissen der übrigen 90 Prozent? Es scheint an der Zeit, dass wir in Bildung und Ausbildung MINT-Fächer und Geisteswissenschaften enger verknüpfen.

Auch über gesetzliche Regelungen muss nachgedacht werden. KI gehört auf die politische Agenda. Für eine demokratisch verankerte Digitalisierung ist die zentrale Forderung: KI-Prozesse müssen nachvollziehbar und die Verantwortung für Entscheidungsprozesse klar benannt sein. Das ist die Grundvoraus-setzung dafür, dass der Einzelne den Umgang mit seinen Daten einordnen und somit sein Recht auf informationelle Selbstbestimmung effektiv ausüben kann.

Bei allem, was wir heute tun und entscheiden, sollten wir uns bewusst sein, dass die derzeit entwickelten Technologien sehr lange bleiben werden und dass sie vermutlich das Handeln und Denken der Menschheit für die nächsten Jahre und Jahrzehnte bestimmen werden. Das kann schrecklich sein oder auch schön. Ich bin dafür, dass wir optimistisch bleiben. Aber dafür braucht es neben menschlicher Intelligenz auch den Mut und die Entschlossenheit, Verantwortung zu übernehmen.

Jetzt auf wiwo.de

Sie wollen wissen, was die Wirtschaft bewegt? Hier geht es direkt zu den aktuellsten Beiträgen der WirtschaftsWoche.
Diesen Artikel teilen:
  • Artikel teilen per:
  • Artikel teilen per:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%