Internet-Ethiker Luciano Floridi Künstliche Intelligenz macht arbeitslos - gut so

Seite 4/4

"Algorithmen entscheiden schon heute, was für uns Realität ist"

Warum ist es so schwierig, da Regelungen zu finden?

Momentan versuchen wir, lokale Gesetze und Regeln auf das Internet anzuwenden. Das ist aus meiner Sicht anachronistisch. Stattdessen sollten wir für die Infosphäre eine internationale Vereinbarung schaffen, so wie wir Konventionen für internationale Gewässer haben. Das wird auch eines Tages so kommen, auch wenn ich das vermutlich nicht mehr erleben werde.

Ich würde gerne Ihre Meinung zu drei Statements hören, die der Google-Algorithmus vorschlägt, wenn ich in das Suchfeld eintippe: „Algorithmen werden...“ Erstens: „...immer zu einer korrekten Lösung führen“.

Das ist natürlich Unsinn. Algorithmen sind von Menschen gemacht, sie werden also immer Fehler und Vorbehalte haben. Wo man Müll reinsteckt, kommt Müll raus. Ein Algorithmus kann einen Schaden verursachen, gleichzeitig ist er dafür verantwortlich. Menschen sind es, die einem Algorithmus das Kommando überlassen. Menschen sind es, die ihn nicht entfernen. Menschen sind es, die ihm unkritisch folgen. So ist es am Ende immer unsere volle Verantwortung, wenn etwas schiefgeht.

Wer beim Datenschutz gute Noten bekommt
Ist Datenschutz schon in Deutschland eine heikle Sache, sieht es in den USA noch viel kritischer aus: Die dortigen Ermittlungsbehörden wie die NSA haben durch den Patriot Act, der nach den Anschlägen des 11. September 2001 erlassen und kürzlich leicht abgemildert wurde, viel umfassendere Rechte und Befugnisse zur Abfrage von Daten von Privatpersonen. Und diese nutzen sie auch, während die Gesetze und Regulierungen im Bereich Datenmanagement und Datenschutz mit den technologischen Entwicklungen nicht mithalten können. Die Nichtregierungsorganisation Electronic Frontier Foundation (EFF) will mit ihrem regelmäßigen Datenschutz-Report „Who has your back“ auf dieses Problem aufmerksam machen. EFF untersucht 24 große IT- und Telekomunternehmen daraufhin, wie sie mit dem Thema Datenschutz umgehen. Quelle: dpa
Der Report bewertet einerseits, ob sich Firmen gegen teils willkürliche staatliche Überwachung wehren. Zudem wird die Transparenz bewertet, die Firmen darüber herstellen, ob und wie staatlichen Ermittlungsbehörden bei ihnen Zugriff auf Nutzerdaten fordern. Die EFF hat über vier Jahre die Praktiken großer Internet- und IT-Konzerne beobachtet und analysiert, ob die Firmen ihren Fokus eher auf den Schutz der Nutzerdaten oder eher auf die Kooperation mit staatlichen Ermittlern legen. Dabei konnten sie in den vergangenen vier Jahren eine Entwicklung feststellen. Quelle: AP
Während das Thema Datenschutz vor vier Jahren bei kaum einem Unternehmen auf der Agenda stand, hat nun – einige Snowden-, Wikileaks-Enthüllungen und Spähaffären später – laut EFF ein Umdenken eingesetzt: Viele Firmen veröffentlichen Reports über ihren Umgang mit Nutzerdaten und über Regierungsanfragen nach Nutzerdaten. Quelle: dpa
Die EFF hat die Entwicklungen damit aufgefangen, dass sie die Firmen nun unter anderem in der Kategorie des industrieweiten Standards vorbildlicher Praktiken bewerten. Ihre Kriterien im Überblick: 1. Unter dem erwähnten industrieweiten Standard verstehen die Aktivisten etwa, dass die Firma den Staat bei einer Datenanfrage nach einer offiziellen Vollmacht für den spezifischen Fall fragt. Außerdem wird erwartet, dass das Unternehmen einen Transparenzreport über staatliche Anfragen veröffentlicht und dass die Firma deutlich macht, wie sie mit den Regierungsanfragen formell verfährt. 2. In einer weiteren Kategorie wird geprüft, ob Internetfirmen die jeweiligen Nutzer einzeln informieren, wenn sie beziehungsweise ihre Daten von Regierungsanfragen betroffen waren. Als Best Practice Beispiel gelten die Firmen, die ihre Nutzer schon vor der Weitergabe über solche staatlichen Anfragen informieren, sodass diese sich juristisch zur Wehr setzen können. Quelle: dpa
3. Die Aktivisten checkten auch, ob Firmen bekannt machen, wie lange sie Nutzerdaten speichern. Es wurde dabei nicht bewertet, wie lange die Unternehmen IP-Logins, Übersichten über individuellen Datentransfer und auch eigentlich bereits gelöschte Daten speichern und für Ermittlungen verfügbar halten – es geht nur um die Transparenz.4. Regierungen und staatliche Ermittlungsstellen fragen nicht nur Nutzerdaten an, teils verlangen sie von Internet- und Telekomkonzernen auch, unliebsame Nutzer zu blockieren oder Nutzeraccounts zu schließen. Für diese Praxis war zuletzt insbesondere Facebook kritisiert worden, das einige Insassen von Gefängnissen an der Eröffnung eines Accounts hinderte. Auch Informationen darüber honorierten die Aktivisten mit einer positiven Bewertung, wobei ihnen besonders Twitter in dieser Kategorie mit einem umfangreichen Report über Lösch-Gesuche positiv auffiel. 5. Unternehmen bekamen auch eine positive Bewertung, wenn sie sich im öffentlichen Diskurs gegen staatlich geduldete oder gar intendierte Hintertüren in Software und Netzwerken stellen. 21 von 24 untersuchten Firmen nehmen mittlerweile eine solche kritische Position gegenüber dem Überwachungsstaat ein. Quelle: dpa
Adobe hat laut den Aktivisten in den vergangenen Jahren alle Best Practice Standards übernommen, die in der Branche etabliert sind. Adobe verlangt von Ermittlungsbehörden eine explizite Erlaubnis, Daten von Nutzern anzufordern und bekennt sich zudem öffentlich dazu, keine Hintertüren in die eigene Software einzubauen. „Alle Regierungsanfragen für Nutzerdaten müssen bei uns durch den Vordereingang kommen“, schreibt Adobe in seinem Transparenzreport. Die EFF wertet eine solche starke Position gegen die früher gängige Praxis als bemerkenswert – unabhängig von der Wahrhaftigkeit. Quelle: AP
Triumph für Tim Cook. Apple erfüllt alle Kriterien der Aktivisten für möglichst große Transparenz im Bereich Datensicherheit. Der IT-Konzern lässt allerdings einige Hintertürchen offen, neben den Verpflichtungen zur Verschwiegenheit, die ihm etwa durch Gerichte in Einzelfällen auferlegt werden können. Apple behält sich vor, Nutzer nicht über eine Datenabfrage zu informieren, wenn dies nach Einschätzung des Unternehmens gefährlich für das Leben oder die Unversehrtheit von Personen werden könnte. Dies lässt Raum zur Deutung. Quelle: REUTERS

Zweiter Google-Vorschlag: „Algorithmen werden... die Talentsuche verändern“.

Man kann Algorithmen sinnvoll einsetzen, wenn man 100 Menschen für ein Callcenter sucht. Sobald es jedoch um ein komplexes Jobprofil geht, werden wir keinen geeigneten Algorithmus finden, der ohne menschliche Hilfe den geeigneten Kandidaten findet. Talent ist ein Konzept wie Intelligenz, Freundschaft oder Weisheit. Ideen, die wir verstehen, aber nicht scharf definieren ergo messen und automatisieren können.

Zustimmung zur Aussage: "Ich sehe meine Privatsphäre durch die Nutzung digitaler Technologien bedroht"

Und der dritte Vorschlag: „Algorithmen werden... die Welt beherrschen“.

Tatsächlich entscheiden Algorithmen schon heute, was für uns Realität ist. Sie schlagen uns vor, Skifahren zu gehen, weil wir uns für Skifahren interessieren. Solche Tendenzen verstärken sich selbst. Dadurch werden wir weiter Alpinsport machen und gar nicht mehr auf die Idee kommen, an den Strand zu fahren. Algorithmen kreieren Echo-Räume. Wir riskieren, in Filterblasen zu leben, einfach weil es so bequem ist. Wir sollten das nicht tun, ich bin da jedoch pessimistisch. Aber an diesem Punkt heißt das Problem nicht künstliche Intelligenz. Sondern menschliche Faulheit und Dummheit.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%