Process Mining „Der Nutzen ist dort am größten, wo die Prozesse Mist sind“

Wil van der Aalst ist Informatikprofessor an der RWTH Aachen und ab September Chief Scientist beim deutschen Start-up Celonis. Quelle: PR

Der Informatiker Wil van der Aalst gilt als Gottvater des Process Mining. Jetzt heuert er beim Münchner Milliarden-Start-up Celonis an. Warum nur? Ein Gespräch über das derzeit wohl heißeste Megathema der IT-Welt.

  • Teilen per:
  • Teilen per:

Wil van der Aalst ist Informatikprofessor an der RWTH Aachen und ab September Chief Scientist beim deutschen Start-up Celonis.

WirtschaftsWoche: Herr van der Aalst, in der IT ist Process Mining aktuell ein Megathema – auch wenn keiner so richtig kapiert, was das eigentlich ist. Können Sie Nicht-Informatikern mal auf einfache Weise verständlich machen, worum es da geht?
Wil van der Aalst: In den Datenbanken und Informationssystemen von Unternehmen sind abertausende Tabellen mit Zeitstempel oder Daten gespeichert. Jede Firma – ob Krankenhaus, ein Automobilbauer oder eine Chemiefabrik – verfügt über solche Ereignisdaten. Allein in SAP-Systemen findet man hunderttausende dieser Tabellen. Das Ziel von Process Mining ist es, diese Daten zu analysieren, um daraus automatisiert Prozessmodelle abzuleiten, die zeigen, wo genau es zu Engpässen, Abweichungen oder Verzögerungen kommt. Mittels dieser Diagnose lassen sich die Prozesse im Unternehmen verbessern.

Das hört sich eigentlich ziemlich simpel an…
Das ist es auch – und ich bin erstaunt, dass es so lange gedauert hat, bis solche Analysen Standard wurden. Ich beschäftige mich seit Ende der Neunzigerjahre damit – und es ist eigentlich sehr logisch, diese Ereignisdaten in Unternehmen so auszuwerten. Der Grundgedanke ist schlicht sehr einfach.

Sie gelten als Erfinder dieser IT-Disziplin, der wichtige theoretische Grundlagen gelegt hat. Wie sind Sie auf das Thema gekommen?
Ich habe mich zunächst mit Workflow-Management-Technologien befasst, also der Automatisierung von Geschäftsprozessen. Ich habe eigene Workflow-Management-Systeme entwickelt und das erste Lehrbuch in diesem Bereich geschrieben. Zu jener Zeit habe ich geglaubt, das Thema wird unglaublich wichtig und jedes Unternehmen wird es benutzen…

… aber es kam anders. Warum?
Ende der Neunziger war Workflow Management zwar weit verbreitet, aber es funktionierte in vielen Unternehmen schlicht nicht. Ich war in vielen Projekten als Berater dabei, in denen Unternehmen Software gekauft – diese dann aber nie eingesetzt haben. Der Grund war: Wenn Menschen über Prozesse reden, wirkt das meist sehr simpel – es ist eine Art von Powerpoint-Realität. Wenn man dann aber versucht, die Prozesse zu strukturieren und zu automatisieren, sieht man, dass die Wirklichkeit sehr viel komplexer ist.

Ihre Schlussfolgerung?
Diese Erkenntnis war für mich der Grund, den Ansatz umzudrehen: Nicht die Prozesse müssen so oder so ausgeführt werden, sondern: Bevor wir Prozesse automatisieren und verbessern, lasst uns doch erst einmal nachschauen, wie ein Ablauf in der Praxis vonstatten geht. Das war aus wissenschaftlicher Sicht eine spannende Frage, weil man ausgehend von Daten versucht abzuleiten, was im Unternehmen tatsächlich passiert. 

Wie unterscheidet sich denn Ihr Ansatz von früheren Versuchen, die IT-Systeme mittels intelligenter Algorithmen zu durchleuchten?
Früher gab es zwei Bereiche: Das erwähnte Workflow Management oder Prozess Management und das sogenannte Data Mining, also die Datenanalyse mit bestimmten mathematischen Modellen. Nur: Die Prozessmodellierer haben nicht auf die Daten geblickt, und die Data Miner nicht auf die Prozesse – ich habe hingegen beides im Process Mining kombiniert.

Wieso ist das so wichtig?
Das sehen Sie an einem Praxisbeispiel: Nehmen Sie etwa „Order-to-Cash“, also den Prozess vom Eingang einer Kundenbestellung bis zur Bezahlung der offenen Forderung durch den Kunden. Dieser Prozess existiert in jedem Unternehmen – und wenn man ihn in einer Powerpoint-Präsentation darstellt, sehen die Prozessschritte vergleichsweise simpel aus. Wenn man dann aber in einem großen deutschen Industriekonzern analysiert, was hier tatsächlich in der Praxis passiert, dann findet man 900.000 verschiedene Prozess-Varianten. Das hat mit Abweichungen und Sonderfällen zu tun – und dies kann niemand per Hand modellieren.

Aber mittels Process Mining ist das möglich?
Wir sprechen hier oft von einer sogenannten Pareto-Verteilung, das bedeutet: 80 Prozent aller Fälle laufen fehlerfrei durch einen Prozess, die sind relativ simpel zu beschreiben. Aber es sind gerade die letzten 20 Prozent, die viel mehr Variabilität haben – und die letztlich die Ursache für alle Probleme und Verzögerungen in einem Geschäftsprozess sind. Wenn man per Hand modelliert, beschränkt man sich hingegen nur auf die 80 funktionierenden Prozent – aber das Potenzial für Verbesserungen liegt in jenen 20 Prozent.

Wie kann ich von den Daten auf tatsächliche Verzögerungen oder sonstige Probleme in Prozessen schließen, wie ist das möglich?
Indem man mittels Algorithmen eine grafische Darstellung von Aktivitäten im Prozess ermittelt. Diese Aktivitäten sind miteinander verbunden und können etwa in einer Sequenz hintereinander, parallel nebeneinander oder in einer Schleife ablaufen. In SAP-Systemen etwa gibt es viele Beispiele für Bestellprozesse. Aus einer großen Menge von Beispielen kann man die grafische Darstellung automatisch erzeugen – das klingt simpel, ist aber nicht trivial. Dieses Modell zeigt dann, was tatsächlich in einem Prozess passiert.

Das eine ist das Modell – das ist eine Art automatisierte Prozessmodellierung basierend auf den Daten. Wie kommt man von diesem Modell zur Problemlösung oder Fehlervermeidung?
Engpässe oder sonstige Probleme kann man sehr einfach aufzeigen, indem man die Daten gewissermaßen auf dem digital erzeugten Modell abspielt. Dadurch sieht man etwa, welche Aktivitäten aufeinander folgen und wie lange diese dauern. Engpässe zu finden ist trivial; Abweichungen sind etwas komplizierter. Das macht man über einen sogenannten Konformitätscheck: Hier modelliert man das Prozessmodell, das man erwartet – und spielt dann die realen Daten auf diesem Modell ab. Die Konformitätsprüfung zeigt dann an, wo Abweichungen erfolgen, wie häufig und wie schlimm diese sind. 

Wo liegt Ihrer Einschätzung nach das größte Potenzial für Process Mining?
Die Antworten durch Process Mining sind meist sehr generisch. Es hat eigentlich immer mit Compliance- oder mit Performance-Problemen zu tun. Es gibt eine große Zahl von Beispielen in klassischen Einkaufs- oder Verkaufsprozessen: Hier lassen sich durch sehr einfache Maßnahmen überflüssige Schritte aus dem Prozess eliminieren und so locker Millionen Euro einsparen. Das sind Standardprozesse, die sehr einfach und schnell optimiert werden können. Andere Anwendungen betreffen Produktionsprozesse, etwa beim Lackieren von Autos: Auch solche Prozesse lassen sich mittels Process Mining optimieren – hier sehe ich sogar ein noch größeres Potenzial, aber es ist schwieriger zu heben.

Und wo sind die Grenzen der Technologie?
Mit Process Mining ist es immer möglich zu zeigen, was tatsächlich passiert ist – da gibt es praktisch keine Grenzen. Aber wenn man Process Mining benutzt, um vorherzusagen, was in Zukunft passieren wird, gibt es sehr viele Limitationen. Denn wenn man nicht über viel Daten verfügt und ein Prozess sehr kompliziert ist, lässt sich eben nur wenig vorhersagen – das ist unrealistisch.

Das interessiert WiWo-Leser heute besonders

Geldanlage Das Russland-Risiko: Diese deutschen Aktien leiden besonders unter dem Ukraine-Krieg

Der russische Angriffskrieg auf die Ukraine belastet die Börsen. Welche deutschen Aktien besonders betroffen sind, zeigt unsere Analyse.

Krisenversicherung Warum Anleger spätestens jetzt Gold kaufen sollten

Der Krieg in der Ukraine und die Abkopplung Russlands von der Weltwirtschaft sind extreme Inflationsbeschleuniger. Mit Gold wollen Anleger sich davor schützen – und einer neuerlichen Euro-Krise entgehen.

Flüssigerdgas Diese LNG-Aktien bieten die besten Rendite-Chancen

Mit verflüssigtem Erdgas aus den USA und Katar will die Bundesregierung die Abhängigkeit von Gaslieferungen aus Russland mindern. Über Nacht wird das nicht klappen. Doch LNG-Aktien bieten nun gute Chancen.

 Was heute noch wichtig ist, lesen Sie hier

Warum haben ausgerechnet Anbieter von Unternehmenssoftware wie etwa SAP, Oracle oder Microsoft das Thema so lange vernachlässigt, obwohl die ja eben über diesen Datenschatz verfügen?
Das ist eine gute Frage. Ich habe ungefähr seit dem Jahr 2000 Kontakt mit Unternehmen wie SAP und IBM und versucht, sie von Process Mining zu überzeugen. Aber ganz ehrlich – sie waren damals nicht daran interessiert.

Mit welcher Begründung nicht?
Weil die Kunden sie nicht danach gefragt haben. Oft investieren große Anbieter erst, wenn Kunden nach bestimmten Lösungen fragen. Aber wenn die Kunden gar nicht wissen, was technologisch möglich ist, passiert das eben lange Zeit nicht. Wegen dieser Zurückhaltung mussten die IT-Konzerne jetzt hinterher laufen, IBM beispielsweise hat MyInvenio gekauft, SAP kürzlich Signavio. Auch viele Zuschauer haben auf Vorträgen immer begeistert darauf reagiert, was mit Process Mining alles möglich ist – in der Praxis ist dann in vielen Unternehmen aber lange Zeit wenig passiert...

Warum das?
Das hat vor allem politische Gründe. Für viele im Unternehmen hat es gar keinen Vorteil, Prozesse transparent zu machen. Denn mit Process Mining findet man nie gute Sachen – die Technologie ist also eine Art Negativ-Detektor: Der Nutzen von Process Mining ist am größten, wenn die Prozesse Mist sind. Aus diesem Grund gibt es in vielen Firmen Widerstände und Beharrungskräfte dagegen.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%