WiWo App Jetzt gratis testen
Anzeigen

Big Data Wie uns die eigenen Daten verdächtig machen

Seite 5/5

Von wegen im Zweifel für den Angeklagten

Verbrecherische Gedanken sind nicht verboten, solange man sie nicht in die Tat umsetzt. Es ist eines der Fundamente unserer Gesellschaft, dass individuelle Verantwortung an die Entscheidungs- und Handlungsfreiheit des Einzelnen geknüpft ist. Wenn aber Algorithmen unsere Zukunft fehlerfrei vorhersehen könnten, dann könnten wir in dieser Zukunft nicht mehr frei entscheiden, wie wir handeln. Wir würden uns genau so verhalten, wie es der Algorithmus vorhersagt. Ironischerweise wären wir dann aber auch, da wir ja keine andere Wahl hätten, von jeder Verantwortung frei.

Natürlich ist eine derartig perfekte Vorhersage der Zukunft nicht möglich. Stattdessen werden Big-Data-Analysen für eine bestimmte Person ein bestimmtes Verhalten mit einer bestimmten Wahrscheinlichkeit vorhersagen. Nehmen wir als Beispiel die Forschungen von Professor Richard Berk, der an der University of Pennsylvania Statistik und Kriminologie lehrt. Er behauptet, mit seiner Methode vorhersagen zu können, ob ein auf Bewährung freigelassener Häftling in der Zukunft in ein Tötungsdelikt verwickelt sein wird.

Als Input setzt er zahlreiche Variablen ein, darunter den Haftgrund und das Datum der ersten Verurteilung, aber auch demografische Angaben wie Alter und Geschlecht. Berk meint, dass er einen zukünftigen Mord mit Beteiligung eines auf Bewährung Freigekommenen mit mindestens 75 Prozent Wahrscheinlichkeit vorhersagen kann. Das ist nicht schlecht. Es bedeutet allerdings auch, dass eine Entscheidung über den Bewährungsantrag eines Gefangenen in bis zu einem Viertel der Fälle falsch ausfiele.

In Arbeit
Bitte entschuldigen Sie. Dieses Element gibt es nicht mehr.

Das Kernproblem beim Einsatz solcher Verfahren aber ist nicht das mögliche Risiko für die Gesellschaft, sondern dass dadurch unschuldige Menschen für etwas bestraft werden, das sie nicht getan haben. Indem wir einschreiten, bevor es zur Tat kommt, erfahren wir auch nie, ob die Vorhersage zutreffend war. Einerseits lassen wir dem Schicksal nicht seinen Lauf, und andererseits ziehen wir Menschen für etwas zur Verantwortung, das sie nur vorhergesagt tun werden. Solche Vorhersagen aber können nie widerlegt werden.

Das wäre das Ende der Unschuldsvermutung, auf der unser Rechtssystem und unser Gerechtigkeitsgefühl beruhen. Dadurch, dass wir jemanden zur Verantwortung ziehen für ein lediglich vorhergesagtes zukünftiges Handeln, das er aber vielleicht nie getan hätte, verweigern wir den Menschen die Fähigkeit, moralische Entscheidungen zu treffen.

Kollektivierung der Entscheidungsfreiheit

Wir reden hier nicht nur von staatlicher Strafverfolgung; die Gefahr erstreckt sich auf alle Bereiche. Etwa die Entscheidung eines Unternehmens, einem Mitarbeiter zu kündigen, die Entscheidung eines Krankenhauses, Patienten eine Operation zu verweigern, oder auch die Entscheidung, sich von seinem Partner scheiden zu lassen.

Vielleicht wäre eine Gesellschaft mit einem solchen System sicherer, aber ein wesentliches Stück unseres Menschseins – unsere Fähigkeit, selbst über unser Handeln zu entscheiden und dafür verantwortlich zu sein – ginge verloren. Big Data würde damit zu einem Werkzeug der Kollektivierung unserer Entscheidungsfreiheit und der Vernichtung des freien Willens in unserer Gesellschaft.

Natürlich bietet Big Data zahlreiche Vorteile. Big Data ist nützlich, gegenwärtige und zukünftige Risiken einschätzen und unser Handeln entsprechend anpassen zu können. Big-Data-Vorhersagen helfen Patienten und Versicherern, Kreditgebern und Verbrauchern. Aber Big Data sagt nichts über Kausalzusammenhänge.

Jemanden zur Verantwortung zu ziehen setzt aber voraus, dass die Person, über die wir richten, sich für ein bestimmtes Handeln entschieden hat. Diese Entscheidung muss kausal sein für das Verhalten. Gerade weil Big Data auf Korrelationen beruht, ist es zur Beurteilung von Kausalität und der Zuweisung von Schuld ungeeignet. Die Schwierigkeit liegt darin, dass wir Menschen die Welt stets durch die Brille von Ursache und Wirkung sehen. Big Data ist daher konstant gefährdet, für solche kausale Zwecke missbraucht zu werden.

Redaktion: Sebastian Matthes

Inhalt
Artikel auf einer Seite lesen
Zur Startseite
Diesen Artikel teilen:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Benachrichtigung aktivieren
Dürfen wir Sie in Ihrem Browser über die wichtigsten Themen der WirtschaftsWoche informieren? Sie erhalten 1 bis 3 Meldungen pro Tag.
Fast geschafft
Erlauben Sie www.wiwo.de, Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert
Wir halten Sie ab sofort über die wichtigsten Themen der WirtschaftsWoche auf dem Laufenden. Sie erhalten 1 bis 3 Meldungen pro Tag.
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%