Republica 2017 Die unheimliche Macht der Algorithmen

Alle reden über Algorithmen, die aber kaum greifbar sind. Wie funktionieren sie eigentlich? Und wie werden sie in Zukunft unser Leben bestimmen? Eine Spurensuche auf der Digitalkonferenz Republica in Berlin.

  • Teilen per:
  • Teilen per:
Wie werden Algorithmen in Zukunft unser Leben bestimmen? Ein Thema auf der Digitalkonferenz in Berlin. Quelle: Imago

Berlin „300.000.000 freie Stunden verbringen Menschen täglich auf Facebook.“ Beeindruckend und anschaulich beschreibt Vladan Joler, Direktor der Share Stiftung und Vorsitzender des Lehrstuhls für Neue Medien im serbischen Novi Sad, den Einfluss des sozialen Netzwerks auf das persönliche Leben des Einzelnen. Rund zwei Milliarden Menschen nutzen Facebook. Daraus ergibt sich eine unendliche Masse an Daten, die die Nutzer dem Zuckerberg-Imperium liefern – und aus denen wiederum ein unglaublich vielschichtiger Algorithmus entsteht, der die Nutzer beeinflusst.

Ein Algorithmus, über den viel gesprochen wird, der aber kaum greifbar ist. Auch auf der Republica und der parallel zur Digitalmesse stattfindenden Media Convention in Berlin sind Algorithmen eines der beherrschenden Themen. Grundsätzlich sind Algorithmen eine Handlungsanweisung, die zur Lösung eines Problems führt. Im analogen Leben wäre das etwa ein Backrezept – eine Anleitung für das „Problem“ Kuchen.

In der digitalen Welt gestaltet sich das häufig sehr viel komplexer. Experten wie Vladan Joler versuchen, Algorithmen zu illustrieren - im wahrsten Sinne des Wortes: Joler und sein Kollege Djorde Krivokapic projizieren eine Visualisierung an die Wand, die aussieht wie eine riesige Landkarte mit zahlreichen kleinen Orten und nahezu unübersehbaren Nebenstraßen. Und dennoch bleibt sowohl der Vortrag als auch die anschließende Diskussion sehr abstrakt. Was macht es so schwer, Algorithmen zu durchdringen? Und woher kommt die Angst vor ihnen? Eine richtige Antwort darauf weiß Joler auch nicht.

Seine Darstellung zeigt zunächst die Verbindungen, die der Facebook-Algorithmus erfasst und nutzt. Vom Musikgeschmack eines Nutzers über seine politische Ausrichtung bis hin zu seiner sexuellen Orientierung. Doch was soll man damit anfangen? „Ich bin müde“, sagt Joler resigniert. Er habe Monate damit verbracht, diese Zusammenhänge überhaupt abzubilden – nun sollten sich andere damit beschäftigen.

Diese Art von Resignation als Antwort auf die Macht von Algorithmen stört Julia Powles. Es sei naiv, nur besorgt zu sein, ob Algorithmen etwa Wahlausgänge beeinflussten – sie beeinflussten unser tägliches Leben. „Facebook ist inzwischen das Internet“, sagt Powles. Die Wissenschaftlerin vom Technologie-Campus der Cornell University in New York forscht zum Verhältnis von Technologien und Recht, zu Daten und Privatsphäre. Es geht ihr um Datenschutz, Schutz des geistigen Eigentums und Mechanismen, die diesen Schutz sicherstellen. Außerdem würde in aktuellen Diskussionen immer wieder außer Acht gelassen, dass jeder selbst eine Rolle bei der Entwicklung von Algorithmen spiele – es gehe nicht bloß um technische Kniffe und Programmierungen. Ohne Nutzer gibt es nun mal keine Daten.

Doch was sind eigentlich diese Algorithmen? Jura-Professor Frank Pasquale von der Maryland University gibt folgende Erklärung: Ein Algorithmus sei eine Ansammlung von Schritten, die Eingaben in Ergebnisse umwandelt – zum Beispiel Daten in eine Auswertung, so Pasquale: „Es könnten zum Beispiel Schritte sein, um Wasser, Zucker, Mehl und Eier in einen Kuchen zu verarbeiten. Das Problem: Bei einem Kuchen wissen wir, was ein guter und was ein schlechter Kuchen ist“. Bei Algorithmen ist das schwieriger. Schließlich wüssten Menschen nie, was dahinter stecke, sagt Pasquale.

Bei Entscheidungen über Kreditwürdigkeit zum Beispiel bleibt der Mensch außen vor. Denn es gibt Ausnahmefälle: Kann ein Algorithmus den kurzfristigen Zahlungsausfall nach dem Tod eines Angehörigen berücksichtigen? Wie sehr zählen mentale oder körperliche Gesundheit bei der Berechnung einer entsprechenden Bewertung im Gesundheitssystem?

Solche Bewertungen seien wie Urteile und deshalb bräuchte es Schutz, meint Pasquale: „Ein Algorithmus kann keine genauen Aussagen darüber treffen, wie zuverlässig oder klug jemand ist.“ Erschreckend sei zudem, dass viele dieser Algorithmen Betriebsgeheimnisse seien und man deshalb nie erfahre, wie sie urteilten: „Es ist die Willkürjustiz des 21. Jahrhunderts – eine mittelalterliche Methode, die keinen Platz in einer modernen demokratischen Gesellschaft haben sollte.“


Sollen Algorithmen über Leben und Tod entscheiden?

Die Zukunft sieht Pasquale zufolge dann auch nicht besonders heiter aus. Heute gingen Ärzte noch zu den Angehörigen von schwerkranken Patienten und informierten über dessen Überlebenschancen, um über lebensverlängernde Maßnahmen zu entscheiden. Das könnte sich ändern, sagt Pasquale: „Werden wir einen Algorithmus darüber entscheiden lassen, welches Leben verlängert werden soll und welches nicht? Oder ob jemand ins College gehen kann? Das ist vorstellbar in der Zukunft.“ In den Vereinigten Staaten könnten Algorithmen diese Aufgaben übernehmen – in Europa gäben Gesetze Menschen zumindest die Möglichkeit, manche Entscheidungen des Algorithmus nachzuvollziehen.

Dass Pasquale ein dystopisches Zukunftsszenario entwirft, kann man ihm nicht vorwerfen: Er hat erforscht, wie Google für rassistische Zwecke manipuliert werden kann. So kann zum Beispiel eine Gruppe tausende Male von unterschiedlichen IP-Adressen aus rassistische Fragen über Minderheiten stellen und so automatisch die Autovervollständigungsfunktion manipulieren. Ein anderer Weg sei die Arbeit mit Bots, um rassistische oder sexistische Inhalte in der Suchfunktion zu manipulieren.

Am Anfang habe Google gesagt, dass es demokratisch sei, das Internet zu organisieren, meint Pasquale: „Jeder Link eine Stimme. Aber das war immer schon ungenau.“ Schließlich zählten manche Links mehr als andere: „Zudem ist es vielen Menschen egal. Sie haben vielleicht eine Stimme, aber sie ist eine Stimme in einer Wahl, von der 90 Prozent der Wahlberechtigten keine Ahnung haben. Sie haben noch nicht einmal gewählt. Es ist also sehr leicht, dieses System zu manipulieren.“

Doch was hilft? Der Schweizer Kultur- und Medienwissenschaftler Felix Stalder ist der Ansicht, dass man Algorithmen nicht unbedingt lesen können muss, um sie zu regulieren. Aber man sollte seine Grenzen kennen. Pasquale hingegen fordert mehr Transparenz und die Rückkehr zur Einfachheit: Es reiche zum Beispiel völlig aus, die Zahlungshistorie zu bewerten, anstelle Postleitzahlen, Geschlecht oder Hautfarbe mit in die Bewertung bei einer Kreditvergabe einfließen zu lassen: „Hört auf, diese zu verwenden, nehmt den einfachen Algorithmus.“ Dabei wolle er keine Algorithmen verteufeln, denn sie hätten auch positive Seiten: „Wir brauchen Algorithmen – zum Beispiel für unsere Google-Suche.“ Aber die Gesellschaft brauche die Möglichkeit, ihr Umfeld selbst zu gestalten, fordert Pasquale. So solle man zum Beispiel als Nutzer selbst über den Facebook-Algorithmus bestimmen und sagen können: Das sind die Zeitungen oder Menschen, von denen ich jeden Post sehen will. „Das ist so wie Bring your own Booze – bring deinen eigenen Algorithmus.“

Jillian York, Netzaktivistin bei der einflussreichen Electronic Frontier Foundation, fordert mehr Menschlichkeit im Einsatz von Algorithmen und illustriert es an einem Beispiel, das sie selbst erlebte: „Ich habe neulich erst die Zahl der Länder auf der Welt gesucht. In einer Google-Box bekam ich eine Zahl angezeigt, die aber besondere Fälle wie Palästina oder Kosovo außer Acht ließ.“ Die Zahl stammte von einer akademischen Publikation, so York: „Also war der Algorithmus sich sicher, dass es sich dabei um eine qualifizierte Quelle handeln müsse.“

Doch es gäbe ein generelles Problem mit derartigen Quellen: „In den Vereinigten Staaten werden zum Beispiel die meisten Schulbücher in Texas verlegt, deshalb haben wir in vielen amerikanischen Schulen eine christlich geprägte Sichtweise.“ Das sei ein Beispiel dafür, dass auch akademische Quellen sich an den Leitlinien des Ortes orientierten, in denen sie veröffentlicht werden. Wie diese Leitlinien zu bewerten sind, berücksichtigt ein Algorithmus allerdings nicht: „Es gibt also einen Grund, warum am Ende ein Mensch involviert sein muss – ein Algorithmus kann nicht entscheiden, was ein Fakt ist.“

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%