Algorithmen Big Data schafft den Zufall ab

Die neue Qualität von Daten ist eines der großen Themen auf der  Computermesse Cebit. Experten diskutieren die Möglichkeiten von Big Data – und lassen die Massen damit ratlos zurück. Dabei haben die Algorithmen unseren Alltag bereits fest im Griff.

  • Teilen per:
  • Teilen per:

Stellen Sie sich vor, Sie kommen nach einem langen Arbeitstag nach Hause, die Wohnung ist bereits angenehm temperiert, ihre Lieblings-TV-Sendung ist eingeschaltet und am Kühlschrank blinkt ein Rezept für genau das Sandwich, auf das sie gerade Hunger haben. Nichts geschieht zufällig, alles passiert genauso, wie Sie es sich wünschen – wie von Zauberhand. Auch bei der Arbeit läuft es rund: Binnen Sekunden erhalten Sie umfangreiche Analysen, die Ihnen genau zeigen, wo sich das nächste Investment lohnt oder wie sie die Arbeitsabläufe Ihres Teams optimieren können.

Möglich macht diese Vision die intelligente Auswertung von Daten. In Teilen ist sie schon Realität und die zwei kleinen Beispiele zeigen, wie sehr Big Data unser Leben in Zukunft noch beeinflussen wird. Der Begriff Big Data meint große Datenmengen, die auf neue Weise sortiert und analysiert werden, so dass im Alltag nur noch wenige Dinge dem Zufall überlassen bleiben.

Dahinter steckt komplexe Mathematik, die jeden Nicht-Mathematiker, Nicht-Informatiker und Nicht-Statistiker zurückschrecken lässt. Doch das genaue Hinschauen wird immer wichtiger. „Nur wer versteht, wie die neue Welt funktioniert, kann sie auch mitgestalten und in ihr mitentscheiden“, ist sich der Wissenschaftsjournalist Rudi Klausnitzer sicher.

Rudi Klausnitzer:

Auf mehr als 220 Seiten setzt er sich in seinem neuen Buch „Das Ende des Zufalls – Wie Big Data uns und unser Leben vorhersagbar macht“ mit dem neuen Trend auseinander. Etwa 1400 Dokumente, diverse Bücher und Gespräche mit Experten sind die Grundlage seines Werks, das die spannende Welt der Daten auf den unterschiedlichsten Eben beleuchtet: Über Anwendungsbeispiele, Probleme, Herausforderungen und neue Berufsbilder.

Ohne Zweifel: Das Auswerten von Daten hat mit der Technisierung unserer Gesellschaft einen unglaublichen Schub erhalten. Blogger Martin Weigert hat sich erst jüngst in einem lesenswerten Beitrag auf netzwertig.de ausführlich mit diesem Phänomen beschäftigt.

Wie viele Daten wir erzeugen
Riesiges Datenwachstum
iPads
Großstädte
Berge
Mauer
HD-Filme
Tomographie

Gleichzeitig hat Big Data etliche Berufszweige aufgewühlt – vor allem die IT-Branche. Auf der diesjährigen Computer-Messe Cebit steht das Thema im Mittelpunkt vieler Expertengespräche. Dabei wird es zum einen, um die neuen technischen Herausforderungen der Super-Daten-Analyse, über nötige Investitionen und nicht zuletzt über Fachkräftemangel gehen. Denn obwohl Daten in und von Unternehmen schon lange ausgiebig analysiert werden, müssen die Unternehmen aktuell in allen Bereichen nachrüsten. Denn Big Data meint eine andere Dimension von Daten.

Mit dem Erfolg des Internets und vor allem der großen Verbreitung digitaler und mobiler Kommunikationsmöglichkeiten haben sich die Datenmengen nicht nur verändert, sondern sind auch gigantisch angewachsen. „90 Prozent aller heute auf der Welt existierenden Daten wurden in den letzten zwei Jahren generiert. Jeden Tag kreieren wir zweieinhalb Mal so viele Daten, wie wir 2004 im Monat im gesamten, globalen Internet bewegten“, schreibt Klausnitzer. Wir bewegen uns im Bereich der Peta-, Extra- und Zetabytes (1.000.000.000.000.000.000.000 Byte).

Was heute schon geht

Regierungen, Unternehmen und Forscher haben längst damit begonnen, die Menge an Daten neu auszuwerten und einzusetzen. Das hat eine neue Qualität. Klausnitzer schildert als Beispiel einen erbosten Vaters, der den Supermarkt um die Ecke aufsucht und dort den Geschäftsführer zur Rede stellt. Der Grund: Seine Tochter im Teenager-Alter werde mit Coupons für Babykleidung und Kinderbetten überhäuft. Ob man sie zum schwanger werden verführen wolle? Am Ende stellt sich heraus, dass die Tochter durchaus schwanger war.

Doch warum wusste der Supermarkt-Manager vor dem werdenden Großvater von der Schwangerschaft seiner Tochter? Ganz einfach: Jeder Einkauf der jungen Frau wurde gespeichert. Bei der Analyse der Daten erkannte das Marketing-Team des Unternehmens, dass sich die Schwangere genauso verhielt wie andere werdende Mütter zuvor. Die kaufen nämlich beispielsweise mehr mehr Körperlotion - aus Angst vor Schwangerschaftsstreifen.

Genauso funktioniert auch der Onlinehändler Amazon. Das eigene Kaufverhalten wird mit dem anderer Kunden verglichen, die ähnliche Artikel anklicken. So hat es der Konzern durch den geschickten Einsatz von Algorithmen geschafft, seine Kunden digital zu beraten. Auch Google speichert alle Suchanfragen und filtert so durch das sogenannte „PageRank“ die Ergebnisse aus, die der Suchende vermutlich finden möchte. Barack Obama hat sich im letzten US-Wahlkampf zum wahren Datenkönig entpuppt. Sein Team analysierte persönliche Daten potentieller Wähler in den jeweiligen Bundesstaaten und bekam so heraus, mit welcher Ansprache Obama dort wohl am besten landen würde.

In Arbeit
Bitte entschuldigen Sie. Dieses Element gibt es nicht mehr.

Politiker, Unternehmer, Wissenschaftler – alle wollen mit Hilfe technischer Mitteln dem Zufall ein Schnippchen schlagen. „Ich kennen kein Unternehmen, in dem keine Logdaten anfallen“, sagt Stefan Edlich von der Technischen Universität Berlin. „Und schon aus den Logdaten lässt sich Gold rausholen, weil sich dadurch das Surfverhalten der User genau analysieren lässt.“ Das ist die Grundlage auf der Amazon sein Empfehlungswesen aufgebaut hat.

In einem Punkt scheinen sich die Experten einig zu sein: Wer die Zukunft mitbestimmen will, muss heute in den Bereich Big Data investieren. Auf Intuition, Bauchgefühl oder auch mal den Zufall mag sich heute kaum noch jemand verlassen. „Je früher man investiert, desto wahrscheinlicher, dass man mit angreifen kann“, sagt Stefan Edlich von der TU Berlin. Wer sich der modernen Datenanalyse im Zeichen von Big Data widmen möchte, steht allerdings vor großen Herausforderungen. Beispielsweise der Quantität der zu analysierenden Daten.

Die neue Quantität und Qualität der Daten

Buchautor Klausnitzer: „Das Riesenausmaß der Daten erlaubt uns zu sagen, ,Korrelation reicht‘. Wir können Daten analysieren, ohne vorher ein Modell von dem zu haben, was wir zeigen können. Wir werfen die Daten in die großen Analysemaschinen und statistische Algorithmen finden, wo die Wissenschaft bisher keine erkennen konnte.“

Doch woher kommen diese Datenberge, die am Ende dafür sorgen, dass Zufälle in unserem Alltag eliminiert werden? Da sind zum einen die schon erwähnten Logdaten. Dann gibt es die normalen Daten, die jeder einzelne Bürger bei Behörden oder auch Unternehmen hinterlässt. Dazu kommen jene Daten, die in sozialen Netzwerken geteilt werden – und die dadurch entstehenden Verbindungen zwischen Personen, die sich ebenfalls nutzen lassen. Smarte Stromnetze tauschen Informationen aus. Autos sind mit Elektrotechnik vollgestopft, die nichts anderes macht, als Sensordaten von A nach B zu transferieren.

Relativ neu ist der Trend des Selbstvermessens, der wohl der vorläufige Gipfel der freiwilligen Datenabgabe im Netz ist. Seinen Ursprung hat diese sogenannte Quantified-Self-Bewegung zum Speichern der eigenen Körper-Daten im Bereich der Gesundheit. Erfasst werden die privatesten Informationen: Wie lange habe ich geschlafen, wie viel Sex hatte ich, wie viel habe ich mich bewegt, wie ist mein Blutdruck? Sogar der Urin lässt sich dank neuer App kontrollieren. Dabei helfen meistens Applikationen am Smartphone, die alle Informationen genau speichern. Vor allem im sportlichen Bereich werden die Ergebnisse sogar geteilt und mit denen von Freunden verglichen.

"Ganz böse Mathematik"


Die Kunst von Big Data besteht darin, den richtigen Algorithmus zu entdecken. Um die richtigen Rechenformeln zu finden, schreiben Unternehmen riesige Wettbewerbe aus. Quelle: dpa, Montage

In Zeiten leerer Gesundheitskassen, fördern Regierungen und Behörden den Trend, denn der genaue Blick auf den eigenen Körper kann vielleicht eines Tages dafür sorgen, dass Symptome frühzeitiger erkannt und sinnvolle Behandlungen rechtzeitig eingesetzt werden können. Wenn es um die eigene Gesundheit geht, kann das neue Sammeln und Analysieren von Daten also quasi als Arzt-Ersatz fungieren – so die Hoffnung vieler, die sich daran beteiligen.

Viel mehr als Tabellen und keine Fachkompetenz

Diese Fülle an Quellen und Formen hebt die Daten von heute nicht nur quantitativ auf ein neues Niveau. Wir haben es auch qualitativ mit ganz anderen Informationen zu tun. Es reicht nicht die vernetzten Informationen einfach in Reihen und Kolumnen zu packen. Die unstrukturierten Daten müssen bereinigt werden. Bilder, Musik, Kontaktnetze, Blutbilder – all das muss in Zahlen umgewandelt werden, um es mathematisch nutzbar zu machen.

„Das ist ganz böse Mathematik“, sagt Stefan Edlich von der TU Berlin. „Es muss eine technische Architektur um die Daten herum aufgebaut werden“, sagt er. Die Kunst sei es, den richtigen Algorithmus zu entdecken, der dafür sorgt, dass das gewünschte Ergebnis ausgespuckt wird. Um die richtigen Rechenformeln zu finden, schreiben Unternehmen riesige Wettbewerbe aus. Berühmt sind die Aktionen des Startups Kaggle, dass sich auf diesem Weg das Wissen der Netzgemeinde zunutze machte.

Die wichtigsten IT-Trends

Die Idee dahinter erklärte Jeremy Howard, Chefwissenschaftler von Kaggle, im vergangenen Sommer mit den Worten: „Wettbewerbe bringen Menschen aus verschiedenen Bereichen mit ganz unterschiedlichen Fragestellungen zusammen. So beschäftigen sich Menschen mit Sachen, die sie sich nie angesehen hätten.“ Diese stärkere vernetzte Zusammenarbeit, der richtige Algorithmus und die Korrelation der Daten sind also ein Muss, damit das Big-Data-Vorhersage-Modell am Ende funktioniert.“ Denn der Algorithmus ist laut Experten der Schlüssel zum Erfolg, auch wenn das abgedroschen klingen mag.

Jürgen Boiselle vom Datenexperten Teradata formuliert es so: „Die Rohdaten sind wie ein Diamant, der freigeschliffen werden muss.“ Der Spezialist gehört ebenfalls zu dem Kreis, der im Zuge der Cebit zu dem Thema Big Data referieren wird. Sein Thema: Die Kombination aus Big Data und Marketing, wovon er den Unternehmen hohe Umsätze verspricht. Und genau zu diesem Zweck würden die meisten Big-Data-Anwendungen aktuell auch genutzt. Er, wie fast jeder in der Branche, schreit im Hinblick auf den Fachkräftemangel in der IT-Branche auf. „Wir brauchen Leute, die das technische Fachwissen, Know-how in Bezug auf das Unternehmen und die Kreativität für mögliche Anwendungsfelder mitbringen“, sagt er.

Wir sind vorhersehbar

Fasst man all diese Trends, Entwicklungen und Stimmungen zusammen, bleibt ein Gefühl zurück: Big Data ist keine Eintagsfliege, es ist ein Trend, der sich massiv weiter entwickeln wird. Klausnitzer untermauerte diese These mit den Forschungsergebnissen des Physikers Alpert-László Barabási. Er sagt, „dass die Analyse der elektronischen Datenspuren unsers digitalen Lebenstils ein klares Bild ergeben: Viele Muster im menschlichen Verhalten, von denen wir bis jetzt der Meinung waren, dass sie zufällig seien, folgen vorhersehbaren Gesetzen.“ Was den Physiker selbst am meisten erstaunte war, dass seine Versuchsreihe eine Vorhersehbarkeit von mindestens 80 Prozent ergab. Es scheint so zu sein, dass mit dem Grad unseres Vernetztseins auch die Vorhersagbarkeit unseres Handelns genauer zu bestimmen ist.

Wenn man sich nun überlegt, in welche Richtung sich unsere Vernetzung im Alltag mit Entwicklungen wie Google Glass, Smart Grids oder smarten Autos noch weiter steigern lässt, scheint es auf einmal alles andere als unwahrscheinlich, dass sich mit der puren Auswertung von Daten, Zufälle verringern lassen.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%