Serie: Künstliche Intelligenz Wie können wir Maschinen Moral beibringen?

Seite 2/2

Programmierte Moralkeule

Das Problem liegt im Detail: Im Einzelfall geraten Roboter, genau wie Sterbliche, schnell in ein moralisches Dilemma. Etwa, wenn sie zwei Menschen gleichzeitig davor bewahren müssen, in ein Loch zu fallen. Alan Winfield, Roboteringenieur am Bristol Robotics Laboratory in Großbritannien, simulierte dieses Szenario im Labor mit drei handtellergroßen Robotern. Ergebnis: In der Hälfte der Fälle konnte der Helfer-Bot sich nicht entscheiden, wen seiner Kumpanen er zuerst retten sollte – und ließ beide ins Unglück stürzen.

Wahl der Qual Soll ein selbstfahrendes Auto, dessen Bremsen versagen, auf die Betonwand zurasen und vier erwachsene Passagiere töten? Oder soll es ausweichen und drei Passanten töten, darunter ein Kleinkind? Beeinflusst die rote Fußgänger-Ampel die Antwort? Auf der Webseite moralmachine.mit.edu können Nutzer entscheiden. Quelle: Massachusetts Institute of Technology

Selbstfahrende Autos können sich derlei Zögern nicht erlauben. Wenn etwa die Bremsen versagen, muss die Software blitzschnell wählen, wen sie töten soll: Insassen oder Spaziergänger? Kinder oder Alte? Drei Hunde oder einen Menschen? Auf ihrer Webseite Moral Machine lassen Forscher des Massachusetts Institute of Technology (MIT) Millionen Nutzer solche Szenarien durchspielen. „Wir sehen regionale Muster“, sagt Projektleiter Sohan Dsouza. Menschen aus Asien neigten dazu, das Leben der Passagiere zu schützen – auf Kosten der Fußgänger. Menschen aus westlichen Ländern tendierten dagegen dazu, so viele Leben wie möglich zu retten.

Computer schmökert Kinderbücher

Moral ist offenbar relativ, je nach Herkunft, Alter oder Situation. Manche Forscher wollen Roboter darum nicht mit einem festen Ethik-Kodex ausstatten. Stattdessen sollen sich Maschinen moralisches Verhalten von Menschen in ihrer Umgebung abschauen. So sieht das auch Jen-Hsun Huang, Gründer und CEO des US-Chipherstellers Nvidia, der unter anderem Autos mit künstlicher Intelligenz ausstattet. „Intelligente Maschinen sind wie Kinder: Sie können lernen, Gutes wie auch Böses zu tun“, sagt Huang. „Wir sollten künstliche Intelligenz zum Guten erziehen“, wünscht er sich, „so wie wir unseren Kindern gute Vorbilder bieten, ihnen Werte anerziehen und Toleranz für verschiedene Kulturen vermitteln.“

Diese Jobs mischen Roboter auf
IndustrieSchon heute werden viele Arbeitsschritte von Maschinen übernommen - doch die vernetzte Produktion setzt auch in den Werkshallen eine weitere Automatisierungswelle in Gang. Das muss unterm Strich aber nicht zwangsläufig zu Jobverlusten führen, heißt es aus der Wirtschaft: Bereits Ende 2016 lag Deutschland bei der „Roboter-Dichte“ weltweit auf Platz drei hinter Südkorea und Japan - und trotzdem sei die Beschäftigung auf einem Rekordstand, erklärt der Maschinenbau-Verband VDMA. Auch der Präsident des Elektronik-Branchenverbandes ZVEI, Michael Ziesemer, sagt: „Es können auch mehr Jobs entstehen als wegfallen.“ Die Digitalisierung werde eine Vielzahl neuer Geschäftsmodelle und damit neue Stellen hervorbringen. „Wer kreativ ist, rangeht und sich Dinge überlegt, hat jede Menge Chancen.“ Quelle: dpa
Das vernetzte und automatisierte Fahren dürfte künftig viele Jobs überflüssig machen Quelle: dpa
BüroSchreibarbeiten, Auftragsabwicklung und Abrechnungen - Büro- und kaufmännische Fachkräfte erledigen nach Experteneinschätzungen Arbeiten, die heute schon zu einem hohen Grad automatisierbar sind. Dadurch könnten auch viele Arbeitsplätze auf dem Spiel stehen: Mehr als 1,6 Millionen Menschen in Deutschland sind in solchen Berufen tätig. Quelle: dpa
Der Handel wurde als eine der ersten Branchen von der Digitalisierung erfasst - entsprechend laufen im Online-Handel viele Prozesse automatisiert ab Quelle: dpa
Sie melken die Kühe, füttern, misten aus und helfen beim Ernten - Roboter haben längst auch auf den Bauernhöfen Einzug gehalten Quelle: dpa
Roboter in der Pflege - was in Japan bereits zum Alltag gehört, bereitet vielen Menschen in Deutschland noch eher Unbehagen Quelle: dpa
Auch im Haushalt tun Roboter schon ihren Dienst Quelle: dpa

Die Forscher Mark Riedl und Brent Harrison vom Georgia Institute of Technology etwa lassen dazu intelligente Software Kinderbücher schmökern. Die künstliche Intelligenz soll aus den Geschichten Schlüsse ziehen, welches Verhalten gut und welches schlecht ist.

Das Problem daran: Künstliche Intelligenz kann mit den falschen Lerndaten auch unmoralisches Verhalten lernen – wie ein Kind, das in einem Problemviertel aufwächst. Obendrein ist KI-Software oft so komplex, dass selbst ihre Programmierer nicht mehr nachvollziehen können, wie sie zu ihren Schlüssen gekommen ist.

Künstliche Intelligenz in Aktion

Das indes ist nicht nur ein Problem der Roboter: Wenn Menschen in Unfällen reflexartig reagieren, können sie oft hinterher nicht erklären, warum sie wie gehandelt haben. Und oft genug pflegen wir eine Doppelmoral: In einer Science-Studie stimmten 76 Prozent der Befragten zu, dass ein selbstfahrendes Auto lieber den Passagier töten sollte als zehn Passanten. Ein solches Auto kaufen wollte aber kaum einer der Befragten.

Vielleicht sind Maschinen eines Tages doch die konsequenteren Ethiker auf dem Planeten. Aber was, wenn nicht? Wie verhindern, dass superintelligente Maschinen die Welt in Büroklammern verwandeln? Google-Ingenieure haben dazu vor ein paar Monaten eine Lösung vorgeschlagen, eine Art Notausknopf für Roboter: Dreht die künstliche Intelligenz durch, dann schlägt die programmierte Moralkeule zu.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%