Internet-Ethiker Luciano Floridi Künstliche Intelligenz macht arbeitslos - gut so

Jeder ein Rentner, ohne in Ruhestand gehen zu müssen. Der Netzphilosoph Luciano Floridi propagiert die Chancen künstlicher Intelligenz - und fordert eine fairere Verteilung der Gewinne durch neue Techniken.

  • Teilen per:
  • Teilen per:
Luciano Floridi Quelle: Laif

WirtschaftsWoche: Herr Floridi, wird uns künstliche Intelligenz arbeitslos machen?

Luciano Floridi: Oh ja, das sollte sie!

Wie bitte?

Natürlich. Denken Sie an die vielen Menschen mit unerfreulichen Jobs. Sie müssen jeden Tag stundenlang etwas tun, das sie eigentlich nicht mögen, immer mit Blick auf den Feierabend und das Wochenende. Ihr Arbeitsleben ist in keiner Weise bereichernd. Wir sind nicht dafür da, so zu arbeiten. Wenn künstliche Intelligenz all diese Tätigkeiten übernimmt, wäre das doch großartig. Wie mein Geschirrspüler: Er nimmt mir Arbeit weg, aber bin ich deshalb unglücklich? Natürlich nicht.

Zur Person

Sie wären vermutlich unglücklich, wenn auch Ihr Einkommen wegbricht.

Genau das ist der Punkt. Das Problem ist nicht die Arbeitslosigkeit. Das Problem ist der Einkommensverlust. Wenn also bestimmte Jobs von künstlicher Intelligenz ausgeübt werden, müssen wir entweder neue Tätigkeiten für die Erwerbslosen finden, oder wir müssen ihnen ein Einkommen schaffen. Wir sollten über ein Grundeinkommen nachdenken. Ich träume von einer Zukunft, in der jeder ein Rentner sein kann, ohne in Ruhestand gehen zu müssen.

Und wer soll diese schöne, lebenslange Rente bezahlen?

Wir brauchen schlichtweg mehr Verteilung und Bewegung des Reichtums, den wir mit neuen Technologien generieren. Stellen Sie sich Folgendes vor: Eine Hightechfirma benutzt künstliche Intelligenz, wird extrem erfolgreich und erwirtschaftet ein großes Vermögen. Wenn wir es vernünftig hinbekommen, wird solch ein Unternehmen entsprechend mehr Steuern zahlen. Davon wiederum könnten wir ein Grundeinkommen generieren, das die Menschen ausgeben, um Produkte und Dienstleistungen zu kaufen. So wird das Ganze zur Win-win-Situation.

Das klingt utopisch. Unternehmen werden dorthin ziehen, wo sie weniger Steuern zahlen und mehr Geld verdienen.

Natürlich, doch es könnte ein regulatorisches Ideal sein. Ein Zustand, den wir nie erreichen, aber immer anstreben. Seit der Erfindung des Rads war es stets unser Ziel, nicht mehr zu arbeiten. In einer berühmten Passage von Dantes „Divina Commedia“ erinnert uns Ulysseus daran: „Ihr seid nicht da, um wie Tiere zu leben. Ihr sollt nach Tugend und nach Wissen streben.“

Glauben Sie denn, dass Ihr Job sicher ist?

Philosophie ist der zweitälteste Beruf der Welt, ich werde bestimmt nicht durch eine smarte App ersetzt werden. Alle Aktivitäten, bei denen es auf Intelligenz im Sinne von menschlicher Flexibilität und Feingefühl ankommt, können nicht von Robotern ausgeführt werden. In allen anderen Industrien wird es einen massiven Umbruch geben.

Die Entwicklungsstufen Künstlicher Intelligenz

Welche Jobs sind am meisten gefährdet?

Alle Arten von Routinejobs. Und am Ende können Sie fast jeden Job in eine Serie von immer gleichen Tätigkeiten aufteilen. Das gilt auch im digitalen Raum, ob Literaturrecherche, Homepages bauen oder Produkte evaluieren. Es werden Bereiche betroffen sein, die wir bislang als komplett sicher einstufen. Es gibt Experimente, in denen künstliche Intelligenz ein Krebsgeschwür besser erkannt hat als erfahrene Onkologen. Andere Algorithmen wiederum schreiben Sportberichte so, dass man sie nicht von denen der Journalisten unterscheiden kann.

Also wird es auch Menschen betreffen, die ihren Job lieben.

Ja, das wird passieren. Das wird im Zweifel für den Einzelnen ein Problem sein, nie aber für die gesamte Gesellschaft – je nachdem, wie gut wir den damit generierten Reichtum verteilen. Und gleichzeitig wird es viele neue Tätigkeiten geben. Dinge, die wir uns heute noch nicht einmal vorstellen können.

"Die Menschen profitieren nicht vom technischen Fortschritt"

Warum fürchten wir den technischen Fortschritt so sehr?

Es ist eine anthropologische Angst, die in uns steckt. In Erwartung des Unbekannten, des Ungewissen, des Unerwarteten sind wir immer besorgt. Wir sollten darüber hinwegkommen und uns wie Erwachsene verhalten. Denn das reale Problem ist die Art, wie wir unsere derzeitigen Gesellschaften gestaltet haben. Das schnelle und große Anhäufen von Reichtum bei einigen wenigen. Wir haben es nicht geschafft, eine konsumorientierte Gesellschaft zu bilden, die Wohlstand und Fortschritt fair verteilt.

Sie glauben also, wenn wir ein anderes Wirtschaftssystem hätten, wären wir nicht so argwöhnisch hinsichtlich künstlicher Intelligenz?

Ich denke ja. Die Menschen profitieren nicht vom technischen Fortschritt. Viel Geld stagniert in einem lokalen Minimum, die Zirkulation funktioniert nicht. Die meisten glauben, dass das nur ein soziales Thema ist. Aber es ist eben auch ein ökonomisches und ein politisches Problem. Denn großer Reichtum in wenigen Händen bedeutet gleichzeitig starkes politisches Gewicht. Eine Demokratie kann darunter nur leiden.

Hilfe, ein Roboter klaut meinen Job!

Der Physiker Stephen Hawking oder Microsofts Forschungschef Eric Horvitz warnen vor den Gefahren künstlicher Intelligenz.

Schlechte News verkaufen sich einfach besser. Wenn zwei prominente Leute davor warnen, dass künstliche Intelligenz die Welt beherrschen wird, dann ist das natürlich eine Story. Ich sage hingegen: Diese Technologie wird unser Leben beeinflussen, und ein Computer wird immer besser Schachspielen als ich. Doch sobald es Feueralarm gibt, renne ich raus und der Computer nicht.

Wir könnten ihn doch entsprechend programmieren.

Klar, aber dann kommt ein Hochwasser oder jemand ruft spaßeshalber „Feuer“ – gleiches Problem. Es sind Maschinen, die in einer bestimmten Zeit mit bestimmten Ressourcen bestimmte Aufgaben erfüllen. Wir müssen dringend die Science-Fiction-Szenarien vergessen. Schließlich haben wir ernsthafte Probleme zu lösen, und zwar schnell.

An was denken Sie?

Wir müssen künstliche Intelligenz so gestalten, dass wir als Mensch im Mittelpunkt stehen. Es gibt von Churchill das Zitat „Wir formen unsere Gebäude, danach formen sie uns“; die gleiche Gefahr sehe ich in der Infosphäre. Der Mensch muss als Zweck, nie als Mittel oder Ressource behandelt werden, um Kant zu zitieren.

Kontrollieren nicht Algorithmen längst große Teile unseres Alltags. In den USA hängt etwa meine Kreditwürdigkeit davon ab, wie ein Algorithmus mich einstuft. Ist das moralisch verwerflich oder Techbusiness?

Das ist ein großes Problem. Algorithmen haben häufig signifikante Tendenzen und Vorurteile. Häufig ist ihr Ergebnis ein anderes, je nach Geschlecht, Hautfarbe oder der Herkunft eines Menschen. Ich finde, sie sollten transparent und zugänglich sein, sodass wir den Output abhängig von verschiedenen Faktoren überprüfen können. Doch das ist auch eine Aufgabe, für die wir Technik nutzen können. Wir sollten Technologie nicht stoppen, sondern sicherstellen, dass sie vernünftig eingesetzt wird.

Wo die Maschine den Mensch ersetzt

Andererseits kann man mit digitalen Informationen auch Kriminalität und Terror bekämpfen. Die russische Polizei nutzt bereits eine Gesichtserkennungs-App, die Fahndungsfotos mit den Bildern in sozialen Netzen abgleicht.

Die Frage ist doch: Wie weit möchten wir unsere Menschenrechte einschränken, um sicherzustellen, dass es keine Kriminalität gibt? Es gibt daher Dinge, die wir zwar tun können, aber nicht zulassen sollten – auch wenn es der Sicherheit dient. Das untergräbt die Basis unseres sozialen Lebens, es untergräbt unsere Freiheiten und unsere grundlegenden Werte. Das ist es nicht wert.

"Wir sehen eine Veränderung des Gefühls für Privatheit"

Als Brexit-Wahlkämpfer kürzlich eine Website mit Wahlversprechen löschten, zeigten Sie auf Twitter einen Weg, wie man die Inhalte weiterhin findet. Seit Jahren plädieren Sie für ein öffentliches Internetarchiv. Warum ist das so entscheidend?

Löschen ist ein politischer Akt. Wenn Menschen versuchen, Dinge aus der Infosphäre zu entfernen, versuchen sie, unser Gedächtnis zu verändern. Wir dürfen das nicht zulassen. Geschichte ist entscheidend, um ein Gefühl dafür zu bekommen, was richtig und falsch lief und welche Fehler gemacht wurden. Deshalb müssen wir die Infosphäre schützen. Wir brauchen daher dringend Initiativen, die alles protokollieren, was online abläuft.

Klingt grauenhaft. Alles sichtbar, für immer.

Verstehen Sie mich nicht falsch. Ich spreche ausschließlich über öffentliche Informationen: Medieninhalte, Politikeraussagen, Wahlkämpfe. Dinge, die die Menschen bewusst sichtbar gemacht haben. Es geht darum, Geschichte zu protokollieren. Wir sollten jederzeit die Möglichkeit haben, in der Infosphäre zurückzugehen, um nachzusehen, was jemand tatsächlich gesagt hat. Ich meine damit keine privaten Informationen und Inhalte.

Was Roboter schon heute alles können
Im Geschäft persönlich vom Roboter begrüßt zu werden - auch das kann bald für mehr Menschen Realität sein. „Pepper“ hat Knopfaugen, und er ist in astreinem Deutsch recht schonungslos: „Meiner bescheidenen Meinung nach ist dieses Modell nicht besonders schmeichelhaft für Ihre Figur. Dürfte ich Ihnen ein paar neu eingetroffene Modelle zeigen, die mir für Sie besonders gut gefallen?“ Eigene Infos werden per QR-Code auf dem Smartphone gespeichert, den der Roboter im Geschäft dann scannt. In Japan ist Pepper (von SoftBank) bereits aktiv. Quelle: dpa
„iPal“ ist ein künstlicher Freund und Spielgefährte. Der Roboter ist so groß wie ein sechsjähriges Kind. Er kann singen und tanzen, Geschichten vorlesen und spielen. Durch Gesichtserkennung und automatisches Lernen wird „iPal“ mit der Zeit immer schlauer. Er erinnert sich an Vorlieben und Interessen des Kindes. „iPal“ ist keine gefühllose Maschine“, behauptet John Ostrem vom Hersteller AvatarMind. „Er kann Emotionen erspüren und fühlt, wenn das Kind traurig ist.“ Der Roboter, der in rosa oder hellblau angeboten wird, übernimmt auch gleich ein paar vielleicht leidige Erziehungspflichten: Der eingebaute Wecker holt das Kind aus dem Schlaf. Die Wetter-App sagt ihm, was es anziehen soll, und eine Gesundheits-App erinnert ans Händewaschen. „iPal“ wurde vor allem für den chinesischen Markt entwickelt. Ostrem erläutert: „Dort gibt es in den Ein-Kind-Familien viele einsame Kinder, deren Eltern wenig Zeit haben und die einfach niemanden zum Spielen haben.“ Anfang 2016 soll es „iPal“ dort für etwa 1000 US-Dollar (knapp 900 Euro) geben. Quelle: dpa
Wer auf Reisen die Zahnbürste vergessen hat, kann sie bald von einer freundlichen Maschine aufs Zimmer gebracht bekommen. „Relay“, der Service-Roboter, wird in einigen US-Hotels im Silicon Valley getestet. Die Rezeptionistin legt Zahnbürste, Cola oder Sandwich in eine Box im Roboter, dann gibt sie die Zimmernummer des Gastes ein. „Relay“ kann sich selbst den Fahrstuhl rufen – auch wenn er noch ziemlich lange braucht, um wirklich einzusteigen. Er scannt vorher sehr ausgiebig seine gesamte Umgebung, um ja niemanden umzufahren. Vor der Zimmertür angekommen, ruft der Roboter auf dem Zimmertelefon an. Wenn der Hotelgast öffnet, signalisiert ihm „Relay“ per Touchscreen: Klappe öffnen, Zahnbürste rausnehmen, Klappe wieder schließen. „Das Hotel ist für uns erst der Anfang“, sagt Adrian Canoso vom Hersteller Savioke. „Wir wollen „Relay“ auch in Krankenhäuser, Altenheime und Restaurants bringen, einfach überall dahin, wo Menschen essen oder schlafen.“ Quelle: PR
„Budgee“ trägt die Einkäufe und rollt hinterher. Per Funksender in der Hand oder am Gürtel gesteuert, kann er bis zu 22 Kilogramm schleppen, so der US-Hersteller. Er folgt Herrchen oder Frauchen mit mehr als 6 Kilometern pro Stunde. Die Batterie hält angeblich zehn Stunden. „Budgee“ lässt sich zusammenklappen und im Kofferraum verstauen. Die ersten Vorbestellungen werden ausgeliefert, Stückpreis rund 1400 US-Dollar. Quelle: PR
Roboter können nicht nur Einkäufe schleppen, sondern auch für viele Menschen unliebsame Arbeiten im Haushalt abnehmen – und damit sind nicht nur die Staubsaug-Roboter gemeint. Der „PR2“ des Institute for Artificial Intelligence (IAI) der Universität Bremen kann auch in der Küche zur Hand gehen, zumindest in der Laborküche. Quelle: dpa
Ja, heutige Roboter können bereits feinmotorische Aufgaben übernehmen und etwa zuprosten, ohne dass das Sektglas zu Bruch geht. Das ist aber nicht die Besonderheit an diesem Bild. Der Arm rechts gehört Jordi Artigas, Wissenschaftler am Institut für Robotik und Mechatronik des Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen bei München. Der Roboterarm wird von Sergei Wolkow gesteuert – und der war nicht in Oberpfaffenhofen, sondern auf der Internationalen Raumstation ISS, wie im Hintergrund auf dem Monitor schemenhaft zu erkennen ist. Der „Tele-Handshake“ war nach Angaben des DLR ein weltweit einzigartiges Experiment. Quelle: dpa
Solche Aufgaben, wie etwa dieses Zahnrad zu greifen und weiterzugeben, konnte der DLR-Roboter „Justin“ schon 2012. Dass er aus dem All gesteuert wird, ist jedoch neu und bislang einzigartig. Quelle: dpa

Dennoch könnte das unser Verhalten verändern. Wer traut sich heute noch, laut zu singen, wenn das Gegenüber ein Smartphone zückt? Niemand will peinlicher YouTube-Star sein.

Ja, wir sehen eine Veränderung des Gefühls für Privatheit. Wir haben als Gesellschaft stets neue Antworten auf die Frage, was öffentlich ist, was nicht und für wen. Für meine Großmutter war Küssen in der Öffentlichkeit undenkbar. Für meine Eltern schon okay. Und heute sind viele Menschen diesbezüglich völlig freizügig und gleichzeitig total sensibel und zurückhaltend, wenn es um ihre persönlichen Interessen geht. Es bedeutet nicht das Ende der Privatsphäre, es bedeutet eine andere Privatsphäre.

Doch in der Infosphäre sind die Folgen von Sichtbarkeit dauerhafter.

Das ist eben ein kultureller Wandel. Die Gesellschaft wird das von alleine lernen, so wie wir gelernt haben, sicher über Straßen zu kommen. Die jetzige Generation wird der nächsten beibringen, wie man in diesem Mix aus Online- und Offlinerealität am besten unterwegs ist.

Sie gehören zum Google-Expertenrat zum sogenannten Recht auf Vergessenwerden. Kollidiert Googles Größe nicht mit Ihrem Ansatz, die Macht großer Konzerne im Netz einzudämmen?

Ja, aber der Konzern ist nicht das einzige Gebilde, das zu viel Macht konzentriert. Ich denke auch an Amazon, Apple und Facebook. Sie haben das Machtvakuum gefüllt, das die Politik versäumt hat. Als das Internet etwas signifikant Alltägliches wurde, begriff die politische Klasse nicht, dass diese digitale Revolution mehr ist als ein sozialer Wandel. Nun ist diese Infosphäre in der Hand weniger privater Konzerne. Sie beeinflussen gleichzeitig, was in der analogen Welt passiert. Die erste Erscheinung des türkischen Präsidenten Erdoğan nach dem gescheiterten Putschversuch war in der FaceTime-App auf einem Apple iPhone. Ich bin besorgt, dass diejenigen, die Kontrolle über entscheidende Fragen haben, die Antworten und letztlich die Realität gestalten.

"Algorithmen entscheiden schon heute, was für uns Realität ist"

Warum ist es so schwierig, da Regelungen zu finden?

Momentan versuchen wir, lokale Gesetze und Regeln auf das Internet anzuwenden. Das ist aus meiner Sicht anachronistisch. Stattdessen sollten wir für die Infosphäre eine internationale Vereinbarung schaffen, so wie wir Konventionen für internationale Gewässer haben. Das wird auch eines Tages so kommen, auch wenn ich das vermutlich nicht mehr erleben werde.

Ich würde gerne Ihre Meinung zu drei Statements hören, die der Google-Algorithmus vorschlägt, wenn ich in das Suchfeld eintippe: „Algorithmen werden...“ Erstens: „...immer zu einer korrekten Lösung führen“.

Das ist natürlich Unsinn. Algorithmen sind von Menschen gemacht, sie werden also immer Fehler und Vorbehalte haben. Wo man Müll reinsteckt, kommt Müll raus. Ein Algorithmus kann einen Schaden verursachen, gleichzeitig ist er dafür verantwortlich. Menschen sind es, die einem Algorithmus das Kommando überlassen. Menschen sind es, die ihn nicht entfernen. Menschen sind es, die ihm unkritisch folgen. So ist es am Ende immer unsere volle Verantwortung, wenn etwas schiefgeht.

Wer beim Datenschutz gute Noten bekommt
Ist Datenschutz schon in Deutschland eine heikle Sache, sieht es in den USA noch viel kritischer aus: Die dortigen Ermittlungsbehörden wie die NSA haben durch den Patriot Act, der nach den Anschlägen des 11. September 2001 erlassen und kürzlich leicht abgemildert wurde, viel umfassendere Rechte und Befugnisse zur Abfrage von Daten von Privatpersonen. Und diese nutzen sie auch, während die Gesetze und Regulierungen im Bereich Datenmanagement und Datenschutz mit den technologischen Entwicklungen nicht mithalten können. Die Nichtregierungsorganisation Electronic Frontier Foundation (EFF) will mit ihrem regelmäßigen Datenschutz-Report „Who has your back“ auf dieses Problem aufmerksam machen. EFF untersucht 24 große IT- und Telekomunternehmen daraufhin, wie sie mit dem Thema Datenschutz umgehen. Quelle: dpa
Der Report bewertet einerseits, ob sich Firmen gegen teils willkürliche staatliche Überwachung wehren. Zudem wird die Transparenz bewertet, die Firmen darüber herstellen, ob und wie staatlichen Ermittlungsbehörden bei ihnen Zugriff auf Nutzerdaten fordern. Die EFF hat über vier Jahre die Praktiken großer Internet- und IT-Konzerne beobachtet und analysiert, ob die Firmen ihren Fokus eher auf den Schutz der Nutzerdaten oder eher auf die Kooperation mit staatlichen Ermittlern legen. Dabei konnten sie in den vergangenen vier Jahren eine Entwicklung feststellen. Quelle: AP
Während das Thema Datenschutz vor vier Jahren bei kaum einem Unternehmen auf der Agenda stand, hat nun – einige Snowden-, Wikileaks-Enthüllungen und Spähaffären später – laut EFF ein Umdenken eingesetzt: Viele Firmen veröffentlichen Reports über ihren Umgang mit Nutzerdaten und über Regierungsanfragen nach Nutzerdaten. Quelle: dpa
Die EFF hat die Entwicklungen damit aufgefangen, dass sie die Firmen nun unter anderem in der Kategorie des industrieweiten Standards vorbildlicher Praktiken bewerten. Ihre Kriterien im Überblick: 1. Unter dem erwähnten industrieweiten Standard verstehen die Aktivisten etwa, dass die Firma den Staat bei einer Datenanfrage nach einer offiziellen Vollmacht für den spezifischen Fall fragt. Außerdem wird erwartet, dass das Unternehmen einen Transparenzreport über staatliche Anfragen veröffentlicht und dass die Firma deutlich macht, wie sie mit den Regierungsanfragen formell verfährt. 2. In einer weiteren Kategorie wird geprüft, ob Internetfirmen die jeweiligen Nutzer einzeln informieren, wenn sie beziehungsweise ihre Daten von Regierungsanfragen betroffen waren. Als Best Practice Beispiel gelten die Firmen, die ihre Nutzer schon vor der Weitergabe über solche staatlichen Anfragen informieren, sodass diese sich juristisch zur Wehr setzen können. Quelle: dpa
3. Die Aktivisten checkten auch, ob Firmen bekannt machen, wie lange sie Nutzerdaten speichern. Es wurde dabei nicht bewertet, wie lange die Unternehmen IP-Logins, Übersichten über individuellen Datentransfer und auch eigentlich bereits gelöschte Daten speichern und für Ermittlungen verfügbar halten – es geht nur um die Transparenz.4. Regierungen und staatliche Ermittlungsstellen fragen nicht nur Nutzerdaten an, teils verlangen sie von Internet- und Telekomkonzernen auch, unliebsame Nutzer zu blockieren oder Nutzeraccounts zu schließen. Für diese Praxis war zuletzt insbesondere Facebook kritisiert worden, das einige Insassen von Gefängnissen an der Eröffnung eines Accounts hinderte. Auch Informationen darüber honorierten die Aktivisten mit einer positiven Bewertung, wobei ihnen besonders Twitter in dieser Kategorie mit einem umfangreichen Report über Lösch-Gesuche positiv auffiel. 5. Unternehmen bekamen auch eine positive Bewertung, wenn sie sich im öffentlichen Diskurs gegen staatlich geduldete oder gar intendierte Hintertüren in Software und Netzwerken stellen. 21 von 24 untersuchten Firmen nehmen mittlerweile eine solche kritische Position gegenüber dem Überwachungsstaat ein. Quelle: dpa
Adobe hat laut den Aktivisten in den vergangenen Jahren alle Best Practice Standards übernommen, die in der Branche etabliert sind. Adobe verlangt von Ermittlungsbehörden eine explizite Erlaubnis, Daten von Nutzern anzufordern und bekennt sich zudem öffentlich dazu, keine Hintertüren in die eigene Software einzubauen. „Alle Regierungsanfragen für Nutzerdaten müssen bei uns durch den Vordereingang kommen“, schreibt Adobe in seinem Transparenzreport. Die EFF wertet eine solche starke Position gegen die früher gängige Praxis als bemerkenswert – unabhängig von der Wahrhaftigkeit. Quelle: AP
Triumph für Tim Cook. Apple erfüllt alle Kriterien der Aktivisten für möglichst große Transparenz im Bereich Datensicherheit. Der IT-Konzern lässt allerdings einige Hintertürchen offen, neben den Verpflichtungen zur Verschwiegenheit, die ihm etwa durch Gerichte in Einzelfällen auferlegt werden können. Apple behält sich vor, Nutzer nicht über eine Datenabfrage zu informieren, wenn dies nach Einschätzung des Unternehmens gefährlich für das Leben oder die Unversehrtheit von Personen werden könnte. Dies lässt Raum zur Deutung. Quelle: REUTERS

Zweiter Google-Vorschlag: „Algorithmen werden... die Talentsuche verändern“.

Man kann Algorithmen sinnvoll einsetzen, wenn man 100 Menschen für ein Callcenter sucht. Sobald es jedoch um ein komplexes Jobprofil geht, werden wir keinen geeigneten Algorithmus finden, der ohne menschliche Hilfe den geeigneten Kandidaten findet. Talent ist ein Konzept wie Intelligenz, Freundschaft oder Weisheit. Ideen, die wir verstehen, aber nicht scharf definieren ergo messen und automatisieren können.

Zustimmung zur Aussage: "Ich sehe meine Privatsphäre durch die Nutzung digitaler Technologien bedroht"

Und der dritte Vorschlag: „Algorithmen werden... die Welt beherrschen“.

Tatsächlich entscheiden Algorithmen schon heute, was für uns Realität ist. Sie schlagen uns vor, Skifahren zu gehen, weil wir uns für Skifahren interessieren. Solche Tendenzen verstärken sich selbst. Dadurch werden wir weiter Alpinsport machen und gar nicht mehr auf die Idee kommen, an den Strand zu fahren. Algorithmen kreieren Echo-Räume. Wir riskieren, in Filterblasen zu leben, einfach weil es so bequem ist. Wir sollten das nicht tun, ich bin da jedoch pessimistisch. Aber an diesem Punkt heißt das Problem nicht künstliche Intelligenz. Sondern menschliche Faulheit und Dummheit.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%