Künstliche Intelligenz: Können wir Maschinen Moral beibringen?

Serie: Künstliche Intelligenz: Wie können wir Maschinen Moral beibringen?

Bild vergrößern

Ethik im Straßenverkehr: Wie man Maschinen Moral beibringt.

von Andreas Menn

Roboter lenken Autos, behandeln Patienten, ziehen in den Krieg – und entscheiden über Leben und Tod. Können wir Künstlicher Intelligenz beibringen, nach ethischen Prinzipien zu handeln - und nach welchen?

Eine künstliche Intelligenz steuert eine Fabrik, in der Büroklammern hergestellt werden. Programmierer haben ihr das Ziel vorgegeben, so viele Büroklammern wie möglich zu produzieren. Und damit ist der Teufel aus der Flasche: Die Software schreibt sich selbst um, wird immer cleverer, um immer bessere Produktionsmethoden zu ersinnen. Bald baut sie neue Maschinen, verarbeitet jede greifbare Materie, tötet Menschen – und verwandelt den Planeten in eine Büroklammerwüste.

Serie: Künstliche Intelligenz Wenn Verstorbene per Chatbot weiterleben

Die Digitalisierung sucht sich ein neues Betätigungsfeld: Erste Unternehmen mumifizieren das menschliche Individuum als Datensatz. Tote chatten so als Bots mit uns weiter. Verlernen wir in Zukunft das Trauern?

Wie ein Chatbot unseren Partner ersetzt. Quelle: Getty Images

Noch ist die Apokalypse aus Algorithmen nur ein Gedankenspiel, ersonnen vom Philosophen Nick Bostrom an der Universität Oxford. Aber die Geschichte macht auf ein Problem aufmerksam, das zunehmend auch Manager, Programmierer und Produktentwickler beschäftigt: Künstliche Intelligenz hat sich technisch enorm entwickelt, sie steuert Autos, therapiert Patienten, verkauft Produkte, nur einen ethischen Kompass haben die schlauen Maschinen bisher nicht.

Anzeige

Was das anrichten kann, zeigten erste Skandale aus dem vergangenen Jahr: Microsofts Chatbot Tay schwärmte auf Twitter plötzlich von Hitler und der Judenverfolgung. K5, ein Sicherheitsroboter vom US-Start-up Knightscope, bretterte in einem kalifornischen Einkaufszentrum ein Kind um. Die Ausrichter des Schönheitswettbewerbs Beauty AI wiederum mussten sich Rassismus vorwerfen lassen, weil ihre Maschinen-Jury nur Weiße zu Gewinnern kürte.

So lernen Maschinen das Denken

  • Wahrnehmen

    Mit Kameras, Mikrofonen und Sensoren erkunden die Maschinen ihre Umwelt. Sie speichern Bilder, Töne, Sprache, Lichtverhältnisse, Wetterbedingungen, erkennen Menschen und hören Anweisungen. Alles Voraussetzungen, um etwa ein Auto autonom zu steuern.

  • Verstehen

    Neuronale Netze, eine Art Nachbau des menschlichen Gehirns, analysieren und bewerten die Informationen. Sie greifen dabei auf einen internen Wissensspeicher zurück, der Milliarden Daten enthält, etwa über Personen, Orte, Produkte, und der immer weiter aufgefüllt wird. Die Software ist darauf trainiert, selbstständig Muster und Zusammenhänge bis hin zu subtilsten Merkmalen zu erkennen und so der Welt um sie herum einen Sinn zuzuordnen. Der Autopilot eines selbstfahrenden Autos würde aus dem Auftauchen lauter gelber Streifen und orangefarbener Hütchen zum Beispiel schließen, dass der Wagen sich einer Baustelle nähert.

  • Agieren

    Ist das System zu einer abschließenden Bewertung gekommen, leitet es daraus Handlungen, Entscheidungen und Empfehlungen ab - brems etwa das Auto ab. Bei sogenannten Deep Learning, der fortschrittlichsten Anwendung künstlicher Intelligenz, fließen die Erfahrungen aus den eigenen Reaktionen zurück ins System. Es lernt zum Beispiel, dass es zu abrupt gebremst hat und wird dies beim nächsten Mal anwenden.

Derlei programmierte Patzer vergiften langfristig das Klima einer Gesellschaft – und entscheiden auch direkt über Leben und Tod, etwa wenn Roboter in den Krieg ziehen. Ähnlich wie Philosoph Bostrom warnen inzwischen auch der Physiker Stephen Hawking und Tesla-Chef Elon Musk vor superintelligenten Maschinen, die die Menschheit ausradieren. Zusammen mit mehr als 8000 Experten unterzeichneten sie schon vor zwei Jahren einen offenen Brief, den US-Forscher verfasst hatten, um vor den Gefahren der schlauen Software zu warnen. Tenor: Die Forschung müsse sicherstellen, dass künstliche Intelligenz der Gesellschaft nütze.

Killer-Kodex für Drohnen

„Wenn Programmierer künstliche Intelligenz entwickeln, kann das Hunderte Millionen Menschen betreffen“, sagt die britische Ethik-Beraterin Susan Liautaud, die an der kalifornischen Stanford-Universität Unternehmensethik lehrt. „IT-Unternehmen müssen sich darum heute über die langfristigen Folgen ihrer intelligenten Maschinen Gedanken machen“, sagt die Wissenschaftlerin. Dabei sollten sie NGOs und Politiker, Wissenschaftler und Nutzer an einen Tisch bringen.

PremiumCode-Kapital Algorithmen des Krieges

Manche Länder testen schon autonom handelnde Drohnen für den Kriegseinsatz. Die Gesetzgebung aber hinkt bei der künstlichen Intelligenz für die Rüstung hinterher. Es geht um Leben und Tod.

Boston-Dynamics-Roboter Atlas. Quelle: REUTERS

Genau zu diesem Zweck haben Amazon, Google, Microsoft, Facebook und IBM eine Initiative namens Partnership on AI gegründet. Tesla-Chef Musk wiederum will mit seinem Projekt Open AI die Entwicklung von menschenfreundlicher KI voranbringen. Und Google hat ein eigenes Ethik-Board eingerichtet, um die Folgen von KI für die Gesellschaft zu bestimmen.

Aber lässt sich Ethik in die Sprache von Maschinen übersetzen? Kann man Moral programmieren, oder müssen Roboter sie lernen wie Menschenkinder? Und welchen Werten sollen Chatbots, selbstfahrende Autos und Haushaltsroboter überhaupt folgen?

Die Entwicklungsstufen Künstlicher Intelligenz

  • 1950 - Alan Turing

    Der britische Informatiker entwickelt den nach ihm benannten Test. Er soll ermitteln, ob eine Maschine denken kann wie ein Mensch. Ein russischer Chat-Roboter soll ihn 2014 erstmals bestanden haben.

  • 1956 - Dartmouth-Konferenz

    Experten einigen sich auf den Begriff "Künstliche Intelligenz". Der Rechner IBM 702 dient ersten Forschungen.

  • 1974 - Erster KI-Winter

    Katerstimmung bei den Forschern: Die Fortschritte bleiben hinter den Erwartungen zurück. Computer sind zu langsam, ihre Speicher zu klein, um die Daten von Bildern oder Tönen zu verarbeiten. Budgets werden gestrichen, erst ab 1980 geht es wieder voran.

  • 1997 - Deep Blue

    Der Supercomputer von IBM siegt im Schachduell gegen Weltmeister Garry Kasparov. Die Maschine bewertete 200 Millionen Positionen pro Sekunde. 2011 siegt IBMs Software Watson in der Quizsendung "Jeopardy".

  • 2005 - Ray Kurzweil

    Der KI-Forscher sagt in einem Buch für das Jahr 2045 den Moment der "Singularität" voraus: Die Rechenleistung aller Computer erreicht die aller menschlichen Gehirne. Seit 2012 arbeitet Kurzweil für Google an KI-Systemen.

  • 2014 - KI-Boom

    Ein Google-Programm beschreibt präzise in ganzen Sätzen, was auf Fotos zu sehen ist. Nahrungsmittelkonzern Nestlé kündigt an, 1000 sprechende Roboter namens Pepper in seinen Kaffeeläden in Japan als Verkäufer einzusetzen. Physiker Stephen Hawking warnt: KI könne eines Tages superschlau werden – und die Menschheit vernichten.

  • 2045 - Roboter-Revolution

    Computer sind schlau wie Menschen – und machen sogar Witze. Fabriken, Verkehr und Landwirtschaft sind nahezu komplett automatisiert.

Ronald Arkin ist einer, der ans programmierte Gute glaubt. Der Wissenschaftler am Georgia Institute of Technology in Atlanta arbeitet an einer Software, die Kriegsmaschinen Ethik eintrichtern soll. Damit etwa militärische Drohnen sich künftig an internationale Gesetze halten, wenn sie in den Kampf ausschwärmen. Terroristen abschießen: ja. Krankenhäuser und Wohnhäuser bombardieren: nein.

Moral als Code, das bedeutet, dass die Maschinen, einmal programmiert, klaren Regeln folgen. Etwa den Robotergesetzen des Schriftstellers Isaac Asimov, die unter anderem vorschreiben, dass Maschinen Menschen nicht schaden dürfen. Oder der Ethik des Utilitarismus, die das Wohlergehen aller Betroffenen maximieren will.

Anzeige
Deutsche Unternehmerbörse - www.dub.de
DAS PORTAL FÜR FIRMENVERKÄUFE
– Provisionsfrei, unabhängig, neutral –
Angebote Gesuche




.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%