Das Problem liegt im Detail: Im Einzelfall geraten Roboter, genau wie Sterbliche, schnell in ein moralisches Dilemma. Etwa, wenn sie zwei Menschen gleichzeitig davor bewahren müssen, in ein Loch zu fallen. Alan Winfield, Roboteringenieur am Bristol Robotics Laboratory in Großbritannien, simulierte dieses Szenario im Labor mit drei handtellergroßen Robotern. Ergebnis: In der Hälfte der Fälle konnte der Helfer-Bot sich nicht entscheiden, wen seiner Kumpanen er zuerst retten sollte – und ließ beide ins Unglück stürzen.
Selbstfahrende Autos können sich derlei Zögern nicht erlauben. Wenn etwa die Bremsen versagen, muss die Software blitzschnell wählen, wen sie töten soll: Insassen oder Spaziergänger? Kinder oder Alte? Drei Hunde oder einen Menschen? Auf ihrer Webseite Moral Machine lassen Forscher des Massachusetts Institute of Technology (MIT) Millionen Nutzer solche Szenarien durchspielen. „Wir sehen regionale Muster“, sagt Projektleiter Sohan Dsouza. Menschen aus Asien neigten dazu, das Leben der Passagiere zu schützen – auf Kosten der Fußgänger. Menschen aus westlichen Ländern tendierten dagegen dazu, so viele Leben wie möglich zu retten.
Computer schmökert Kinderbücher
Moral ist offenbar relativ, je nach Herkunft, Alter oder Situation. Manche Forscher wollen Roboter darum nicht mit einem festen Ethik-Kodex ausstatten. Stattdessen sollen sich Maschinen moralisches Verhalten von Menschen in ihrer Umgebung abschauen. So sieht das auch Jen-Hsun Huang, Gründer und CEO des US-Chipherstellers Nvidia, der unter anderem Autos mit künstlicher Intelligenz ausstattet. „Intelligente Maschinen sind wie Kinder: Sie können lernen, Gutes wie auch Böses zu tun“, sagt Huang. „Wir sollten künstliche Intelligenz zum Guten erziehen“, wünscht er sich, „so wie wir unseren Kindern gute Vorbilder bieten, ihnen Werte anerziehen und Toleranz für verschiedene Kulturen vermitteln.“
Die Forscher Mark Riedl und Brent Harrison vom Georgia Institute of Technology etwa lassen dazu intelligente Software Kinderbücher schmökern. Die künstliche Intelligenz soll aus den Geschichten Schlüsse ziehen, welches Verhalten gut und welches schlecht ist.
Das Problem daran: Künstliche Intelligenz kann mit den falschen Lerndaten auch unmoralisches Verhalten lernen – wie ein Kind, das in einem Problemviertel aufwächst. Obendrein ist KI-Software oft so komplex, dass selbst ihre Programmierer nicht mehr nachvollziehen können, wie sie zu ihren Schlüssen gekommen ist.
Künstliche Intelligenz in Aktion
„White Collar“-Jobs sind keine Sperrzone mehr für Roboter. Bei der US-Anwaltsfirma Baker & Hostetler arbeitet der digitale Kollege Ross. Er kann mit Hilfe von Datenbanken eigenständig Schlüsse ziehen und Beziehungen herstellen. So liefert er seinen menschlichen Kollegen die nötigen Unterlagen und eine Einschätzung der Relevanz für die bei ihm in Auftrag gegebenen Fälle.
Das Londoner Unternehmen IntelligentX lässt Bier nach einer Rezeptur einer künstlichen Intelligenz brauen. Das Ganze funktioniert mit Hilfe einer App. Wer ein AI-Bier probiert hat, kann dort sein Feedback abgeben. Auf Basis der darüber gesammelten Daten und maschinellem Lernen wird die Rezeptur für das Bier verändert.
Das Berliner Start-up Parlamind arbeitet an einer Software, die bald schon Kundenanfragen beantworten soll. Nachrichten werden dabei automatisch gelesen, erkannt, gruppiert und kategorisiert.
Das Self-Service-Center ist heute schon gar nicht mehr aus der Bankfiliale wegzudenken. Der Trend geht noch viel weiter. Softwares wie etwa das Finanzhandel-Analyseprogramm mit dem Namen Kensho sollen Prognosen zufolge in den nächsten zehn Jahren etliche Angestellte ersetzen.
In japanischen Läden besteht durchaus die Chance auf Pepper zu treffen. Der weiße kleine Roboter begrüßt dort Kunden, und beantwortet Fragen oder nimmt Beschwerden entgegen. In den japanischen Filialen von Nescafé berät Pepper auch schon bei der Kaffeewahl.
Das indes ist nicht nur ein Problem der Roboter: Wenn Menschen in Unfällen reflexartig reagieren, können sie oft hinterher nicht erklären, warum sie wie gehandelt haben. Und oft genug pflegen wir eine Doppelmoral: In einer Science-Studie stimmten 76 Prozent der Befragten zu, dass ein selbstfahrendes Auto lieber den Passagier töten sollte als zehn Passanten. Ein solches Auto kaufen wollte aber kaum einer der Befragten.
Vielleicht sind Maschinen eines Tages doch die konsequenteren Ethiker auf dem Planeten. Aber was, wenn nicht? Wie verhindern, dass superintelligente Maschinen die Welt in Büroklammern verwandeln? Google-Ingenieure haben dazu vor ein paar Monaten eine Lösung vorgeschlagen, eine Art Notausknopf für Roboter: Dreht die künstliche Intelligenz durch, dann schlägt die programmierte Moralkeule zu.