WiWo App Jetzt gratis testen
Anzeigen

Big Data Wie uns die eigenen Daten verdächtig machen

Internet, Smartphone, Kreditkarten: Wir produzieren Massen von Daten. Nun beginnen Algorithmen daraus abzuleiten, was wir künftig tun werden. Werden Menschen bald für Dinge bestraft, die sie noch nicht getan haben?

  • Artikel teilen per:
  • Artikel teilen per:

Was die Macht von Big-Data-Analysen für Privatpersonen bedeuten könnte, beschreiben der Wissenschaftler Viktor Mayer-Schönberger und der Datenjournalist Kenneth Cukier in ihrem neuen Buch. Sie stellen die beängstigende Frage: Werden Menschen bald für Dinge bestraft, die sie noch nicht getan haben? Ein Auszug aus ihrem Werk "Big Data - Revolution, die unser Leben verändern wird":

Nahezu 40 Jahre lang, bis zum Mauerfall im November 1989, spionierte das Ministerium für Staatssicherheit der DDR Millionen Menschen aus. Die Stasi mit ihren etwa 100.000 hauptamtlichen Mitarbeitern beschattete und verfolgte die Bürger im Auto und zu Fuß, öffnete Briefe, kontrollierte Bankkonten, verwanzte Wohnungen und hörte Telefongespräche ab. Die so gewonnenen Aufzeichnungen – mindestens 39 Millionen Karteikarten und 100 Regalkilometer Akten – zeichneten detailliert jeden Aspekt des Privatlebens der Betroffenen auf. Die DDR war einer der perfektesten Überwachungsstaaten aller Zeiten.

Gut 20 Jahre nach dem Ende der DDR werden über jeden von uns mehr Daten gesammelt und gespeichert als je zuvor. Wir stehen unter ständiger Beobachtung, wann immer wir mit Kreditkarte zahlen, per Mobiltelefon kommunizieren oder uns ausweisen. Britische Medien verbreiteten 2007 nicht ohne Ironie die Tatsache, dass es im Umkreis von 200 Metern um die ehemalige Londoner Wohnung George Orwells, des Autors von „1984“, mehr als 30 Überwachungskameras gab.

Die Geheimdienste mit drei Buchstaben sind längst nicht mehr die Einzigen, die uns ausspionieren. Amazon überwacht unsere Produktvorlieben und Google unser Surfverhalten, und Twitter weiß, was uns gerade bewegt. Facebook scheint all diese Informationen ebenfalls zu sammeln und dazu noch unsere sozialen Beziehungen. Mobilfunkanbieter wissen nicht nur, mit wem wir sprechen, sondern auch, wer sich in unserer Nähe befindet.

Weil Big Data jenen wertvolle Einsichten verspricht, die Daten analysieren, deuten alle Zeichen darauf hin, dass das Sammeln, Speichern und Verwenden unserer Daten durch Dritte nur noch weiter zunehmen wird. Größe und Umfang der gesammelten Daten werden sprunghaft wachsen, weil die Kosten für das Speichern weiter sinken und die Analysewerkzeuge immer mächtiger werden.

Wenn das Internet die Privatsphäre bedrohte, gefährdet Big Data sie noch mehr? Ist das die dunkle Seite von Big Data?

Wie Sie jetzt Ihre Privatsphäre schützen können
Telefon mit Passwort schützenEs ist ja nicht nur so, dass die Ehefrau oder der Ehemann manchmal geneigt sein könnte, einen Blick auf das Smartphone des Partners zu werfen. Auch weitaus "gefährlichere" Augen könnten einen Blick auf Mails, SMS, Kontakte oder Applikationen werfen wollen. iPhones lassen sich durch ein vierstelliges Passwort schützen, Google-Telefone bieten zusätzlich eine Gesichtererkennung zum Schutz an. Diese zusätzliche Hürde, an seine Daten zu gelangen, scheint auf den ersten Blick nervig, ist aber durchaus nützlich. Spätestens wenn ein solches Gerät einmal abhanden kommt. Quelle: Screenshot
Computer immer sperren, wenn es in die Mittagspause gehtWas für das Handy gilt, gilt natürlich auch für den Rechner. Vertrauliche E-Mails sollten gerade im Berufsleben vertraulich bleiben. Quelle: Screenshot
Google Alert auf den eigenen Namen machenUm zu wissen, was und in welchem Zusammenhang andere über einen schreiben, kann es sich lohnen einen Alert auf seinen Namen oder seinen Nicknamen bei Google zu erstellen. Jedes Mal, wenn der eigene Name irgendwo im Netz erwähnt wird, bekommt eine Mail mit dem Link. So erhält man die Möglichkeit zu reagieren, sein eigenes Profil zu pflegen oder gegebenenfalls um Löschung bitten zu können. Quelle: Screenshot
Bei Facebook/Google und Co. immer ausloggenOb im Büro, Internetcafé oder anderen Orten, in denen Leute vorbeikommen und einen Blick auf den Bildschirm werfen könnten, bei sozialen Netzwerken wie Facebook sollte man sich bei Verlassen des Rechners dringend abmelden. Jugendliche können verhindern, dass ihre Eltern so fälschlicherweise etwas in ihrem Namen posten oder Accounts komplett löschen, Arbeitnehmer, dass ihnen Kollegen einen bitterbösen Streich spielen. Wer bei Google einen Mail- oder anderen Account hat, sollte sich ebenfalls vor Augen führen, dass Google egal, wo man surft, die Daten speichert. Quelle: REUTERS
Im Geschäft nie an Gewinnspielen teilnehmenNatürlich ist es verlockend, in der Drogerie an einem Gewinnspiel teilzunehmen und einen Audi A3 gewinnen zu können. Doch mittlerweile sollte sich herumgesprochen haben, dass diese Gewinnspiele vor allem dazu dienen, Adressen zu generieren. Wer besonders vorsichtig sein will, sollte immer bar zahlen - sonst werden Spuren beispielsweise bei Kreditkartenfirmen hinterlassen. Quelle: dpa
Bar zahlenWer mit Kreditkarte bezahlt, hinterlässt Spuren und Daten. Immer wieder hört man von Fällen, in denen diese Daten gehackt oder gestohlen werden. Auf Nummer sicher geht es also beim Bezahlen nur mit Bargeld. Quelle: dpa
Cookies im Browser löschenKönnen Sie sich noch daran erinnern, wann Sie das letzte Mal ihren Browser aufgeräumt haben? Ja, es ist praktisch, wenn schon das alleinige Eingeben eines Buchstabens die gewünschte Webseite vorschlägt. Mit Hilfe von Cookies, also kleinen Textdateien, die lokal auf dem Rechner gespeichert werden, ist es möglich Benutzerprofile über das Surfverhalten eines Benutzers zu erstellen. Wer das nicht will, sollte dringend seine Browsereinstellungen ändern bzw. seine Cookies löschen. Quelle: Screenshot

Ja, und es ist nicht die einzige. Einmal mehr ist das Entscheidende an Big Data, dass eine Veränderung im Umfang zu einer Änderung des Wesens führt. Wie wir im Folgenden darlegen, macht diese Umwälzung den Schutz unserer Privatsphäre nicht bloß schwieriger, sondern birgt auch eine neuartige Bedrohung: dass wir Menschen aufgrund von Vorhersagen bestraft werden. Das bedeutet, dass wir Vorhersagen aufgrund einer Big-Data-Analyse verwenden, um über Menschen zu richten und sie zu bestrafen, noch bevor sie überhaupt gehandelt haben.

Darüber hinaus lauert noch eine dritte Gefahr. Wir könnten zu Opfern einer Diktatur der Daten werden, indem wir die Information und unsere Analysen zum Fetisch machen und sie missbrauchen. Bei verantwortungsvoller Nutzung ist Big Data ein nützliches Werkzeug für rationale Entscheidungen. In den falschen Händen kann Big Data ein Instrument der Mächtigen werden, die es in eine Quelle der Repression wandeln. Der Einsatz ist viel größer, als viele zugeben.

Trotz ihrer enormen Möglichkeiten gab es vieles, was die Stasi nicht konnte. Sie konnte nicht wissen, wo jeder zu jedem Zeitpunkt war oder mit wem die Menschen sprachen – außer mit großem Aufwand. Heute wird ein Großteil dieser Informationen routinemäßig von Mobilfunkbetreibern und Internet-Providern gesammelt.

Im August 2006 veröffentlichte AOL einen ganzen Berg erledigter Suchanfragen mit der wohlmeinenden Absicht, dass Wissenschaftler diese Suchanfragen analysieren und interessante Erkenntnisse daraus gewinnen könnten.

Der Datenbestand umfasste 20 Millionen Suchanfragen von 657 000 Anwendern zwischen dem 1. März und dem 31. Mai 2006, und alle Datensätze waren sorgfältig anonymisiert worden; persönliche Daten wie der Nutzername und die IP-Adresse waren durch Zahlen ersetzt worden.

Verräterische Suchanfrage

Dadurch konnten zwar unterschiedliche Suchanfragen noch als von einer einzigen Person stammend ausgemacht, aber nicht mehr festgestellt werden, wer diese Person war. Zumindest war das der Plan. Denn innerhalb weniger Tage identifizierten Journalisten der „New York Times“ den Nutzer Nr. 4417749 mithilfe seiner Suchanfragen wie zum Beispiel „männliche Singles um die 60“, „Gesundheitstee“ und „Gartenbaufirmen in Lilburn, Ga“ als die 62 Jahre alte, verwitwete Thelma Arnold aus Lilburn im US-Bundesstaat Georgia. „Meine Güte, das ist mein ganzes Privatleben“, erzählte sie dem Reporter der „Times“. „Ich wusste ja nicht, dass mir die ganze Zeit jemand über die Schulter schaute.“ Der durch diese Berichterstattung ausgelöste Skandal kostete den Leiter der Technologieabteilung von AOL und zwei weitere Angestellte ihre Posten.

Und trotzdem unternahm nur zwei Monate später der Internet-Filmverleih Netflix etwas ganz Ähnliches, indem er den Netflix Prize ausschrieb, einen Wettbewerb für Software-Entwicklerteams. Ein Preisgeld von einer Million Dollar wartete auf das siegreiche Team, dem es gelang, das Filmempfehlungssystem von Netflix um mindestens zehn Prozent zu verbessern. Zum Testen stellte Netflix 100 Millionen Daten ausgeliehener Filme von fast einer halben Million Kunden zur Verfügung. Auch hier waren alle personenbezogenen Merkmale sorgfältig entfernt worden, und dennoch gelang es auch hier, einen Kunden zu identifizieren: eine Mutter aus dem konservativen Mittleren Westen der USA, die im Geheimen lesbisch war.

Forscher an der University of Texas in Austin hatten die Netflix-Daten mit anderen, öffentlich zugänglichen Informationen abgeglichen. Sie fanden schnell heraus, dass die Filmbewertungen eines der anonymisierten Netflix-Kunden genau mit denen einer namentlich genannten Rezensentin der Internet Movie Database (IMDb) übereinstimmten. Ganz allgemein zeigten die Forscher, dass sie einen Netflix-Kunden in 84 Prozent der Fälle schon anhand von Bewertungen von sechs weniger geläufigen Filme identifizieren konnten. War auch das Datum der Bewertungen bekannt, konnte der Kunde mit 99-prozentiger Wahrscheinlichkeit unter fast 500 000 Kunden in der Datenbank identifiziert werden.

Mit Daten gegen Stau und Krebs
Big Data gegen den Stau: Forscher arbeiten an Systemen, die Verkehrsdaten in Echtzeit auswerten. Ziel ist es, dank intelligenter Steuerung das tägliche Stop and Go auf den Autobahnen zu vermeiden. Die Informationen liefern Sensoren in den Autos und am Straßenrand. Ein Pilotprojekt läuft derzeit beispielsweise in der Rhein-Main-Region, allerdings nur mit rund 120 Autos. Langfristig ist sogar das vollautomatische Autofahren denkbar – der Computer übernimmt das Steuer. Quelle: dpa
Es waren nicht nur gute Wünsche, die US-Präsident Barack Obama zur Wiederwahl verholfen haben: Das Wahlkampf-Team des Demokraten wertete Informationen über die Wähler aus, um gerade Unentschlossene zu überzeugen. Dabei griffen die Helfer auch auf Soziale Netzwerke zurück. Quelle: dpa
Was sagen die Facebook-Freunde über die Bonität eines Nutzers aus? Das wollten die Auskunftei Schufa und das Hasso-Plattner-Institut in Potsdam im Sommer 2012 erforschen. Doch nach massiver Kritik beendeten sie ihr Projekt rasch wieder. Dabei wollten die beiden Organisationen lediglich auf öffentlich verfügbare Daten zugreifen. „Die Schufa darf nicht zum Big Brother des Wirtschaftslebens werden“, warnte etwa Verbraucherministerin Ilse Aigner ( CSU). Auch andere sind mit Big-Data-Projekten gescheitert. Quelle: dapd
Bewegungsdaten sind für die Werbewirtschaft Gold wert. Der Mobilfunk-Anbieter O2 wollte sie deswegen vermarkten und sich damit neue Einnahmequellen erschließen. Dafür gründete er Anfang Oktober die Tochtergesellschaft Telefónica Dynamic Insights. In Deutschland muss die Telefónica-Tochter allerdings auf dieses Geschäft verzichten: Der Handel mit über Handys gewonnenen Standortdaten sei grundsätzlich verboten, teilte die Bundesregierung mit. Quelle: AP
Welches Medikament wirkt am besten? Die Auswertung großer Datenmengen soll dabei helfen, für jeden Patienten eine individuelle Therapie zu entwickeln. So könnten die Mediziner eines Tages die Beschaffenheit von Tumoren genau analysieren und die Behandlung genau darauf zuschneiden. Quelle: dpa
Damit die Energiewende gelingt, müssen die Stromnetze intelligenter werden. Big-Data-Technologien können helfen, das stark schwankende Stromangebot von Windrädern und Solaranlagen zu managen. Quelle: dpa
Welche Geschenke interessieren welchen Kunden? Und welchen Preis würde er dafür zahlen? Der US-Einzelhändler Sears wertet große Datenmengen aus, um maßgeschneiderte Angebote samt individuell festgelegter Preise zu machen. Dabei fließen Informationen über registrierte Kunden ebenso ein wie die Preise von Konkurrenten und die Verfügbarkeit von Produkten. Die Berechnungen erledigt ein Big-Data-System auf der Grundlage von Hadoop-Technik, an dem der Konzern drei Jahre gearbeitet hat. Quelle: dapd

Im Fall von AOL enthüllte der Inhalt der Suchanfragen die Betreffenden, im Fall von Netflix war es ein Vergleich der Daten mit anderen Quellen. In beiden Fällen war den Unternehmen nicht bewusst, wie sehr Big Data die Re-Identifikation von Daten fördert.

Dafür gibt es zwei Gründe: Wir sammeln immer mehr Daten, und wir kombinieren immer mehr Daten. Paul Ohm, Juraprofessor an der University of Colorado in Boulder und Experte für den durch De-Anonymisierung ausgelösten Schaden, erklärt, dass man kaum etwas dagegen unternehmen kann: Wenn erst einmal genügend Daten zur Verfügung stehen, ist eine perfekte Anonymisierung auch bei großer Sorgfalt nicht mehr möglich. Schon heute fühlen daher viele Menschen sich in ihrer Privatsphäre verletzt. Wie wird das erst mit zunehmender Verbreitung der Big-Data-Methoden sein?

Im Vergleich zur DDR vor einem Vierteljahrhundert ist Überwachung heute leichter zu bewerkstelligen, billiger und umfassender. Das Aufzeichnen persönlicher Daten ist oft ein integraler Bestandteil der Dinge, die wir täglich benutzen, von Webseiten bis zu Smartphone-Apps. Natürlich: Wenn Unternehmen Daten sammeln, um mehr Geld zu verdienen, müssen wir nicht fürchten, dass dies die gleichen Konsequenzen hat, wie von der Stasi überwacht worden zu sein. Aber die Privatwirtschaft ist nicht der einzige Sektor, der sich mit Big Data vollsaugt. Auch die Behörden tun das.

Für vorhergesagtes zukünftiges Verhalten bestrafen

Eigens für diese Datenverarbeitung errichtet die US-Regierung gigantische Datenzentren wie das für die NSA etwa in Fort Williams, Utah, das 1,2 Milliarden Dollar kosten soll. Und alle Behörden verlangen ständig nach immer mehr Information, längst nicht mehr nur die Geheimdienste bei der Terrorabwehr. Wenn auch der Geldverkehr, die Patientenakten und selbst Facebook-Statusaktualisierungen der Bürger überwacht werden, wird die Menge der Daten unfassbar groß – so groß, dass auch der Staat sie nicht mehr verarbeiten kann. Warum also speichert der Staat all diese Daten?

Algorithmen helfen bei Polizeiermittlungen

Die Antwort bietet einen Hinweis darauf, wie das Prinzip der Überwachung sich im Big-Data-Zeitalter wandelt. Früher gab es Geheimdienstler, die Krokodilklemmen an die Telefonleitung eines Verdächtigen anschlossen und versuchten, so viel wie möglich über diesen Menschen zu erfahren. Heutzutage ist der Ansatz ein anderer. Genau wie Google oder Facebook gehen auch die Geheimdienste davon aus, dass der Mensch die Summe seiner sozialen Beziehungen, Internet-Aktivitäten sowie der Produktion und des Konsums von informationellen Inhalten ist.

Um über jemanden Nachforschungen anzustellen, müssen die Analysten im weitestmöglichen Rahmen Daten zu einem Menschen sammeln – nicht nur über die Freunde und Kollegen, sondern auch über deren Freunde und Kollegen. Und weil der Staat nie im Voraus weiß, wen er sich als Nächstes vornehmen möchte, sammelt und speichert er all diese Daten.

Wie viele Daten wir erzeugen
Riesiges Datenwachstum
iPads
Großstädte
Berge
Mauer
HD-Filme
Tomographie

John Anderton ist Leiter einer Sondereinheit der Polizei in Washington, D. C., die an diesem Morgen ein Haus in einem Wohnviertel stürmt – wenige Minuten bevor Howard Marks außer sich vor Wut seine Frau, die er gerade beim Ehebruch ertappt hat, mit einer Schere erstechen kann. Für Anderton ist das nur ein Routinefall: „Im Auftrag des Verbrechensvorsorgedezernats des District of Columbia“, sagt er, „nehme ich Sie hiermit fest. Sie werden des zukünftigen Mordes an Sarah Marks beschuldigt, den Sie heute begangen hätten …“ Während Marks abgeführt wird, schreit er: „Aber ich habe doch noch gar nichts getan!“

Die Eingangsszene des Films „Minority Report“ gibt Einblick in eine Gesellschaft, in der Verbrechen so genau vorausgesagt werden können, dass die Polizei den Täter schon festnimmt, bevor er die Tat begehen kann. Menschen kommen nicht ins Gefängnis für etwas, das sie getan haben, sondern für ein lediglich vorhergesagtes Verhalten. Im Film sind drei präkognitiv begabte Medien, nicht eine Datenanalyse die Vorhersagequelle der Polizei. Aber die beunruhigende Zukunftsvision in „Minority Report“ zeigt, wohin ein hemmungsloser Einsatz von Big-Data-Analysen führen kann: in eine Zukunft, in der jemand schon aufgrund einer individualisierten Vorhersage seines zukünftigen Verhaltens für schuldig erklärt wird.

Erste Ansätze gibt es bereits. In den Vereinigten Staaten verwenden die Bewährungsausschüsse heute schon in mehr als der Hälfte aller Bundesstaaten Verhaltensvorhersagen auf der Grundlage einer Datenanalyse, wenn sie entscheiden, ob eine Haftstrafe zur Bewährung ausgesetzt wird. In immer mehr Städten der USA – von Los Angeles bis Richmond, Virginia – gibt es Predictive Policing: Aufgrund einer Big-Data-Analyse werden Straßen, Gruppen, ja einzelne Menschen überwacht, bloß weil ein Algorithmus sie als anfälliger für Verbrechen identifiziert hat.

Big Data zum Verbrechen zu verhindern

In Memphis, Tennessee, liefert ein Datenanalyseprogramm namens Blue CRUSH der Polizei relativ genaue Angaben, wo (einige Straßenblöcke) und wann (einige Stunden an bestimmten Wochentagen) sie ihre Kräfte konzentrieren sollte. Die Polizei in Richmond wiederum korreliert die Verbrechensstatistik mit zusätzlichen Daten. Die Richmonder Polizei hatte etwa den Verdacht, dass Waffenverkaufsmessen zu einem Anstieg der Gewaltkriminalität führten; die Big-Data-Analyse bestätigte das, allerdings mit der unerwarteten Feinheit, dass der Spitzenwert bei Gewaltverbrechen zwei Wochen nach einer Gun Show auftrat und nicht schon unmittelbar danach.

Diese Systeme versuchen Verbrechen zu verhindern, indem sie vorhersagen, wer sie begehen könnte. Dies weist auf einen neuen Verwendungszweck für Big Data hin: die Verhinderung von Verbrechen. Das mag nach Science-Fiction klingen, aber in der alltäglichen Banalität unserer Flughäfen werden erste Schritte gewagt. Ein Forschungsprojekt namens FAST im Auftrag des Heimatschutzministeriums der USA versucht etwaige Terroristen auszumachen, indem es Herzschlag, Atemfrequenz, Körpersprache und andere physiologische Faktoren verfolgt. Bei Tests habe das Programm, so das Heimatschutzministerium, zu 70 Prozent korrekt funktioniert. Allerdings bleibt unklar, was das genau bedeutet; mussten die Studienteilnehmer Terroristen spielen, damit ihre angeblichen bösen Absichten entdeckt würden?

Wie Unternehmen ihre IT-Systeme schützen können
Das Nationale Cyber-Abwehrzentrum im Gebäude des Bundesamtes für Sicherheit in der Informationstechnik Quelle: REUTERS
Eine Viren-Warnung auf einem Computer-Bildschirm Quelle: dpa
Ein Mann ist via WLAN mit seinem Laptop im Internet Quelle: dpa
Kabel an einem Server Quelle: dpa
Ein E-Mail-Postfach Quelle: AP
Eine Frau vor einem Computer Quelle: REUTERS
Eine Hand hält einen USB-Stick Quelle: dpa

Potenzielle Täter bestrafen

Zunächst klingt es ja verlockend, ein Verbrechen zu verhindern, bevor es begangen werden kann. Ist das nicht bei Weitem einer nachträglichen Bestrafung des Täters vorzuziehen? Aber dieser Weg ist gefährlich. Wenn wir mithilfe von Big Data vorhersagen können, wer in der Zukunft ein Verbrechen begehen wird, sind wir möglicherweise nicht damit zufrieden, das Verbrechen zu verhindern, sondern wollen auch den potenziellen Täter bestrafen.

In vielen Fällen wird im Namen der Prävention die Datenanalyse bereits eingesetzt. Mit ihrer Hilfe werden wir in Gruppen von Menschen mit ähnlichen Eigenschaften eingeteilt und dann oft wie diese behandelt. In den USA verursachen Oberstufenschüler mit guten Noten statistisch gesehen weniger Verkehrsunfälle – für einige ihrer Mitschüler mit weniger guten Noten bedeutet das höhere Versicherungsprämien.

Das ist die Idee des sogenannten Profiling in der heutigen Small-Data-Welt: Man findet ein Merkmal in den Daten, legt eine Gruppe von Menschen fest, die alle dieses Merkmal aufweisen, und unterwirft sie besonderen Kontrollen. Im Gegensatz dazu funktionieren Big-Data-Vorhersagen anders: Die nichtkausale Big-Data-Analyse erkennt oft einfach die besten Vorhersagefaktoren aus dem Meer an verfügbarer Information. Das Wichtigste dabei ist, dass man mit Big Data versucht, auf Einzelne und nicht auf Gruppen abzuzielen.

Das klingt akzeptabel, wenn es nur darum geht, unerwünschtes Verhalten zu verhindern, wird aber gefährlich, sobald wir Big-Data-Vorhersagen dazu verwenden, um über Schuld und Strafe zu entscheiden für eine Tat, die noch gar nicht begangen wurde. Schon die Idee, jemanden lediglich aufgrund seiner Neigungen zu bestrafen, ist abstoßend. Jemandem eine mögliche zukünftige Tat vorzuwerfen, negiert den Kern von Gerechtigkeit: dass man etwas getan haben muss, bevor man dafür zur Verantwortung gezogen wird.

Von wegen im Zweifel für den Angeklagten

Verbrecherische Gedanken sind nicht verboten, solange man sie nicht in die Tat umsetzt. Es ist eines der Fundamente unserer Gesellschaft, dass individuelle Verantwortung an die Entscheidungs- und Handlungsfreiheit des Einzelnen geknüpft ist. Wenn aber Algorithmen unsere Zukunft fehlerfrei vorhersehen könnten, dann könnten wir in dieser Zukunft nicht mehr frei entscheiden, wie wir handeln. Wir würden uns genau so verhalten, wie es der Algorithmus vorhersagt. Ironischerweise wären wir dann aber auch, da wir ja keine andere Wahl hätten, von jeder Verantwortung frei.

Natürlich ist eine derartig perfekte Vorhersage der Zukunft nicht möglich. Stattdessen werden Big-Data-Analysen für eine bestimmte Person ein bestimmtes Verhalten mit einer bestimmten Wahrscheinlichkeit vorhersagen. Nehmen wir als Beispiel die Forschungen von Professor Richard Berk, der an der University of Pennsylvania Statistik und Kriminologie lehrt. Er behauptet, mit seiner Methode vorhersagen zu können, ob ein auf Bewährung freigelassener Häftling in der Zukunft in ein Tötungsdelikt verwickelt sein wird.

Als Input setzt er zahlreiche Variablen ein, darunter den Haftgrund und das Datum der ersten Verurteilung, aber auch demografische Angaben wie Alter und Geschlecht. Berk meint, dass er einen zukünftigen Mord mit Beteiligung eines auf Bewährung Freigekommenen mit mindestens 75 Prozent Wahrscheinlichkeit vorhersagen kann. Das ist nicht schlecht. Es bedeutet allerdings auch, dass eine Entscheidung über den Bewährungsantrag eines Gefangenen in bis zu einem Viertel der Fälle falsch ausfiele.

In Arbeit
Bitte entschuldigen Sie. Dieses Element gibt es nicht mehr.

Das Kernproblem beim Einsatz solcher Verfahren aber ist nicht das mögliche Risiko für die Gesellschaft, sondern dass dadurch unschuldige Menschen für etwas bestraft werden, das sie nicht getan haben. Indem wir einschreiten, bevor es zur Tat kommt, erfahren wir auch nie, ob die Vorhersage zutreffend war. Einerseits lassen wir dem Schicksal nicht seinen Lauf, und andererseits ziehen wir Menschen für etwas zur Verantwortung, das sie nur vorhergesagt tun werden. Solche Vorhersagen aber können nie widerlegt werden.

Das wäre das Ende der Unschuldsvermutung, auf der unser Rechtssystem und unser Gerechtigkeitsgefühl beruhen. Dadurch, dass wir jemanden zur Verantwortung ziehen für ein lediglich vorhergesagtes zukünftiges Handeln, das er aber vielleicht nie getan hätte, verweigern wir den Menschen die Fähigkeit, moralische Entscheidungen zu treffen.

Kollektivierung der Entscheidungsfreiheit

Wir reden hier nicht nur von staatlicher Strafverfolgung; die Gefahr erstreckt sich auf alle Bereiche. Etwa die Entscheidung eines Unternehmens, einem Mitarbeiter zu kündigen, die Entscheidung eines Krankenhauses, Patienten eine Operation zu verweigern, oder auch die Entscheidung, sich von seinem Partner scheiden zu lassen.

Vielleicht wäre eine Gesellschaft mit einem solchen System sicherer, aber ein wesentliches Stück unseres Menschseins – unsere Fähigkeit, selbst über unser Handeln zu entscheiden und dafür verantwortlich zu sein – ginge verloren. Big Data würde damit zu einem Werkzeug der Kollektivierung unserer Entscheidungsfreiheit und der Vernichtung des freien Willens in unserer Gesellschaft.

Natürlich bietet Big Data zahlreiche Vorteile. Big Data ist nützlich, gegenwärtige und zukünftige Risiken einschätzen und unser Handeln entsprechend anpassen zu können. Big-Data-Vorhersagen helfen Patienten und Versicherern, Kreditgebern und Verbrauchern. Aber Big Data sagt nichts über Kausalzusammenhänge.

Jemanden zur Verantwortung zu ziehen setzt aber voraus, dass die Person, über die wir richten, sich für ein bestimmtes Handeln entschieden hat. Diese Entscheidung muss kausal sein für das Verhalten. Gerade weil Big Data auf Korrelationen beruht, ist es zur Beurteilung von Kausalität und der Zuweisung von Schuld ungeeignet. Die Schwierigkeit liegt darin, dass wir Menschen die Welt stets durch die Brille von Ursache und Wirkung sehen. Big Data ist daher konstant gefährdet, für solche kausale Zwecke missbraucht zu werden.

Redaktion: Sebastian Matthes

Jetzt auf wiwo.de

Sie wollen wissen, was die Wirtschaft bewegt? Hier geht es direkt zu den aktuellsten Beiträgen der WirtschaftsWoche.
Diesen Artikel teilen:
  • Artikel teilen per:
  • Artikel teilen per:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%