Wer als Beschäftigter im Einzelhandel beim Internetportal Stepstone.de auf Jobsuche geht und entsprechende Vakanzen sucht, bekommt auch schon mal freie Stellen in Callcentern angezeigt. Defekte Suchmechanismen? Eigenleben der Webseite? Mitnichten: „Auch wenn der Wechselwillige nicht explizit nach derartigen Positionen sucht, so konnten wir dennoch feststellen, dass es offensichtlich eine breite Schnittmenge bei derartigen Jobs gibt und die Suchenden auch an einer solchen Anstellung Interesse haben“, sagt Sebastian Dettmers, Geschäftsführer des Düsseldorfer Unternehmens.
Hinter dieser Erkenntnis steckt keine Zauberei, sondern IT in Form einer besonderen Variante der Big-Data-Analyse, genannt Predictive Analytics. Diese Analysen setzen sich mit der Vorhersage („prediction“) von Zukunft und Trends auseinander. Das zentrale Element von Predictive Analytics ist der Prädiktor – eine Variable, die für eine einzelne Person oder Einheit gemessen wird, um Verhalten vorherzusagen.
Dank solcher Nutzungszenarien wird Big Data, also die blitzschnelle Auswertung gigantischer Datenmengen, gerade flügge: Der globale Markt für Big Data wächst bis 2019 um jährlich 23 Prozent, so die Prognose von Marktforscher IDC, und wäre dann 48,6 Milliarden Dollar schwer. Während die einen in dieser Entwicklung aus Datenschutzgründen den Untergang des Abendlandes sehen, ziehen andere daraus bereits massiven Nutzen für ihr Business.
Das Würzburger Marktforschungshaus BARC sieht in Predictive Analytics einen wichtigen Schlüssel für die Wettbewerbsfähigkeit von Unternehmen. Diese als Blick in die Kristallkugel zu verstehende Technologie biete ein breites Spektrum an Einsatzmöglichkeiten: „Das reicht von klassischen Kundenwert- und Erfolgsprognosen über Vermeidung von Vertragskündigungen und Preis-, Absatz- und Bedarfsprognosen bis zu neuen Aufgaben wie Social-Media-Monitoring oder Vorhersage von Maschinenausfällen“, sagt BARC-Analyst Lars Iffert.
In der Praxis verläuft das so: Unternehmen wie das Jobportal Stepstone sammeln Millionen – andere gar Milliarden – Datensätze. Bei Stepstone werden vor allem die Interaktionen der Nutzer gespeichert: Von welcher Webseite kommen sie, wohin surfen sie, welche Jobs suchen sie. Aufgrund dieser Gemengelage findet die Software dann Korrelationen. Ein Mensch könnte das in der gigantischen Datenmenge gar nicht stemmen. „Bei unserer Jobsuche hat das vor allem sprachliche Gründe: In einem Unternehmen wird ein Supply-Chain-Manager gesucht, woanders schlicht ein Einkäufer, hier ist die Software cleverer und kann schneller Zusammenhänge erkennen“, sagt Dettmers.
BSH Hausgeräte GmbH, die frühere Bosch Siemens Hausgeräte, wertet mit Daten aus, welche Produktionsmaschinen ausfallgefährdet sind. Europas Marktführer produziert allein in seiner Fabrik im oberbayrischen Traunreut täglich mehr als 6000 Einbauherde. Nach Rechnung von Ernst Schroll, dem Chef der Lieferkette bei BSH, benötigen die Maschinen dafür 1,6 Millionen Einzelteile. Auf Basis einer Big-Data-Lösung von SAP haben die Oberbayern die Planungszeiten um bis zu 50 Prozent sowie die Durchlaufzeiten verkürzen können. Dadurch laufen Herde, Waschmaschinen und Geschirrspüler jetzt schneller vom Band.
Höhere Qualität durch bessere Planung
Auch BSH nutzt dabei Predictive Analytics: „Bei Produkteinführungen können wir nun über eine Vorprüfung feststellen, ob die Prozesse irgendwo haken und die Produktion gefährden könnten“, sagt Manager Schroll. Das sei vorher lediglich nach Start der Produktion möglich gewesen. „Wir planen nun schneller und zuverlässiger“, sagt Schroll. Wenn es heute bei BSH Probleme mit Lieferungen gibt oder sich Qualitätsmängel bei Einzelteilen zeigen, zeigt das System mögliche Risiken in der Lieferkette auf – und das, bevor die potenziell fehlerhaften Teile überhaupt verbaut werden. Die Grundlage für solche Risikoabwägungen sind vorausschauende Big-Data-Analysen.
Solche Berechnungen helfen auch Unternehmen jenseits der Fertigungsindustrie: Die deutsche Niederlassung des weltgrößten Kosmetikkonzerns L’Oréal etwa verlässt sich nicht mehr nur auf Forschung und Entwicklung. Hier tüfteln die Big-Data-Spezialisten daran, dass die Kunden keine anonyme Masse mehr sind, sondern dass sie beispielsweise in den sozialen Netzwerken wie Facebook schneller das finden, was sie tatsächlich interessiert.
Markenführung durch Konsumentenanalyse
„Wir möchten zukünftig im digitalen Marketing keine Ansprache für ein einzelnes Produkt machen, sondern für eine Zielgruppe“, sagt Felix Schmidt, Chief Data Officer bei L’Oréal Deutschland. „Sucht der Konsument einen Alltagsduft, möchte er vielleicht seiner Mutter etwas zum Muttertag schenken oder ist es ein Duft zum Ausgehen am Freitagabend, den er sucht? Das wollen wir vorab erkennen, damit seine Erfahrung mit unseren Marken genau zu diesem speziellen Anlass passt.“ Derartige vorausschauende Konsumentenanalysen sorgen beispielsweise auch dafür, dass der trockene Hauttyp beim nächsten Besuch der Webseite auch garantiert keine Anzeigen mehr für ein Pflegeprodukt für Menschen mit fettender Haut angezeigt bekommt.
Damit diese Mechanismen greifen, ist neben der IT vor allem eines wichtig: fähige Mitarbeiter. Zu sehr hat man sich in den Anfängen von Big Data auf die Algorithmen als solches verlassen und zu wenig auf Mitarbeiter, die wissen, wie man den Honig aus den Analysen saugt. Soll heißen: die einschätzen können, wie Daten überhaupt zu interpretieren sind. „Die größte Hürde ist der Mangel an qualifizierten Mitarbeitern, insbesondere für Big-Data-Analytics und mobile Technologien“, sagt Uwe Dumslaff von der Unternehmensberatung Capgemini.
Inzwischen setzen viele Unternehmen zwar gleich mehrere Big-Data-Anwendungen ein. Aber die große Mehrheit kann ihre Projekte nur mit teuren externen Partnern realisieren, so die Consultants. Das bedeutet: „Deutschlands Unternehmen müssen sich personell verstärken, damit Big Data auch Beautiful Data wird“, sagt Capgemini-Manager Dumslaff. Sonst bleibt die Technologie ein Stochern im Nebel.