Internet-Ethiker Luciano Floridi Künstliche Intelligenz macht arbeitslos - gut so

Seite 2/4

"Die Menschen profitieren nicht vom technischen Fortschritt"

Warum fürchten wir den technischen Fortschritt so sehr?

Es ist eine anthropologische Angst, die in uns steckt. In Erwartung des Unbekannten, des Ungewissen, des Unerwarteten sind wir immer besorgt. Wir sollten darüber hinwegkommen und uns wie Erwachsene verhalten. Denn das reale Problem ist die Art, wie wir unsere derzeitigen Gesellschaften gestaltet haben. Das schnelle und große Anhäufen von Reichtum bei einigen wenigen. Wir haben es nicht geschafft, eine konsumorientierte Gesellschaft zu bilden, die Wohlstand und Fortschritt fair verteilt.

Sie glauben also, wenn wir ein anderes Wirtschaftssystem hätten, wären wir nicht so argwöhnisch hinsichtlich künstlicher Intelligenz?

Ich denke ja. Die Menschen profitieren nicht vom technischen Fortschritt. Viel Geld stagniert in einem lokalen Minimum, die Zirkulation funktioniert nicht. Die meisten glauben, dass das nur ein soziales Thema ist. Aber es ist eben auch ein ökonomisches und ein politisches Problem. Denn großer Reichtum in wenigen Händen bedeutet gleichzeitig starkes politisches Gewicht. Eine Demokratie kann darunter nur leiden.

Hilfe, ein Roboter klaut meinen Job!

Der Physiker Stephen Hawking oder Microsofts Forschungschef Eric Horvitz warnen vor den Gefahren künstlicher Intelligenz.

Schlechte News verkaufen sich einfach besser. Wenn zwei prominente Leute davor warnen, dass künstliche Intelligenz die Welt beherrschen wird, dann ist das natürlich eine Story. Ich sage hingegen: Diese Technologie wird unser Leben beeinflussen, und ein Computer wird immer besser Schachspielen als ich. Doch sobald es Feueralarm gibt, renne ich raus und der Computer nicht.

Wir könnten ihn doch entsprechend programmieren.

Klar, aber dann kommt ein Hochwasser oder jemand ruft spaßeshalber „Feuer“ – gleiches Problem. Es sind Maschinen, die in einer bestimmten Zeit mit bestimmten Ressourcen bestimmte Aufgaben erfüllen. Wir müssen dringend die Science-Fiction-Szenarien vergessen. Schließlich haben wir ernsthafte Probleme zu lösen, und zwar schnell.

An was denken Sie?

Wir müssen künstliche Intelligenz so gestalten, dass wir als Mensch im Mittelpunkt stehen. Es gibt von Churchill das Zitat „Wir formen unsere Gebäude, danach formen sie uns“; die gleiche Gefahr sehe ich in der Infosphäre. Der Mensch muss als Zweck, nie als Mittel oder Ressource behandelt werden, um Kant zu zitieren.

Kontrollieren nicht Algorithmen längst große Teile unseres Alltags. In den USA hängt etwa meine Kreditwürdigkeit davon ab, wie ein Algorithmus mich einstuft. Ist das moralisch verwerflich oder Techbusiness?

Das ist ein großes Problem. Algorithmen haben häufig signifikante Tendenzen und Vorurteile. Häufig ist ihr Ergebnis ein anderes, je nach Geschlecht, Hautfarbe oder der Herkunft eines Menschen. Ich finde, sie sollten transparent und zugänglich sein, sodass wir den Output abhängig von verschiedenen Faktoren überprüfen können. Doch das ist auch eine Aufgabe, für die wir Technik nutzen können. Wir sollten Technologie nicht stoppen, sondern sicherstellen, dass sie vernünftig eingesetzt wird.

Wo die Maschine den Mensch ersetzt

Andererseits kann man mit digitalen Informationen auch Kriminalität und Terror bekämpfen. Die russische Polizei nutzt bereits eine Gesichtserkennungs-App, die Fahndungsfotos mit den Bildern in sozialen Netzen abgleicht.

Die Frage ist doch: Wie weit möchten wir unsere Menschenrechte einschränken, um sicherzustellen, dass es keine Kriminalität gibt? Es gibt daher Dinge, die wir zwar tun können, aber nicht zulassen sollten – auch wenn es der Sicherheit dient. Das untergräbt die Basis unseres sozialen Lebens, es untergräbt unsere Freiheiten und unsere grundlegenden Werte. Das ist es nicht wert.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%