Trotz der Reife von Tools, die Daten mit größerer Granularität nutzen, und der quantitativen Explosion von Daten, die den Entscheidungsträgern zur Verfügung stehen, verfolgen die meisten Organisationen (Unternehmen, Institutionen, Gemeinden, Öffentlicher Dienst.) immer noch einen empirischen Ansatz für die Analyse und Steuerung von Geschäftsprozessen, so Jürgen Klein, Platform Lead Data & Analytics bei Prodware.
Die kontinuierliche Optimierung von Prozessen ist ein grundlegendes Anliegen jeder Organisation. Der wirtschaftliche Erfolg Japans in der Nachkriegszeit wurde unter anderem durch eine Praxis erklärt, die auf der kontinuierlichen Verbesserung von Prozessen basierte. KAIZEN wurde ursprünglich von Masaaki Imai im Westen eingeführt. Heute ist „KAIZEN“ neben der Qualitätsmanagementmethode „Lean Six Sigma“ als wesentliche Säule der Wettbewerbsstrategie eines Unternehmens anerkannt.
Wenn Unternehmen, Produkte und Märkte komplexer und segmentierter geworden sind, stehen sie vor zwei Hauptschwierigkeiten: eine gemeinsame Definition der Prozesse zu finden und diese genau zu erfassen.
Organisatorische Prozesse und Datenherausforderungen
Trotz des Einsatzes von Tools zur Entscheidungshilfe und des Bewusstseins für die wirtschaftliche Bedeutung von Daten, beschränken sich die Entscheidungsträger nach wie vor auf das Sichtbare, was sie auf eine begrenzte Sicht auf die Prozesse einschränkt. Darüber hinaus ist die Prozessanalyse nach wie vor eine zeitaufwändige und fehleranfällige Tätigkeit. Der Einsatz spezialisierter Berater ist daher bei vielen Organisationen nach wie vor beliebt. In der Praxis bleiben viele Prozesse oft ineffizient, veraltet, unverstanden, ignoriert und anders, als sie sein sollten. Schlimmer noch, manche Organisationen glauben, dass die Einführung eines Prozesses ausreicht, und ignorieren dabei, dass Prozesse dynamische Systeme sind, die als solche schnell veraltet oder sogar schädlich sein können. Darüber hinaus kann es die Entwicklung einer Organisation beeinträchtigen, wenn die Ergebnisse der Nutzung von Prozessen nicht gemessen werden. Ganz zu schweigen von der Notwendigkeit, Prozesse zu planen, bei denen der Mensch im Mittelpunkt steht.
Diese Situation wird noch dadurch verkompliziert, dass eine Organisation von einer Reihe von Prozessen gesteuert wird, die auf unterschiedlichen Ebenen arbeiten und manchmal aus verschiedenen Epochen stammen. Aus diesem Grund gibt es meist keine Meta-Prozesse, die eine Übersicht über alle diese Ebenen und ihre Struktur ermöglichen. Von der Einkaufsabteilung bis zum Marketing kann das Prozessmanagement schnell wie ein Labyrinth aussehen. Dies kann dazu führen, dass Entscheidungsträger eine falsche Vorstellung davon haben, wie ihre Organisation wirklich funktioniert, und nicht wissen, welche Methoden sie anwenden können, um Verbesserungsmöglichkeiten zu identifizieren.
Natürlich können BI-Lösungen einen wertvollen Beitrag leisten, indem sie Entscheidungsträgern helfen, bestimmte Prozesse besser zu verstehen. Dennoch bedarf es immer einer Annahme darüber, wo man ansetzen muss, um zu sehen, wo die Dinge gut oder schlecht funktionieren. Mit anderen Worten: Der Entscheidungsträger gerät in eine Art Teufelskreis, in dem er im Voraus wissen muss, wo die Quellen für die Optimierungen liegen, die er doch eigentlich als Ergebnis seiner Analyse finden sollte. Wenn man sich auf eine BI-Lösung beschränkt, ist es schwierig, die Vorteile von Prozessen/Aktionsplänen, die sich aus Verbesserungsszenarien ergeben, zu bewerten, die Beziehungen zwischen verschiedenen heterogenen Datenquellen zu verstehen, etc. BI-Tools sind für die deskriptive Analyse konzipiert, während Unternehmen diese Grenze nun erweitern müssen. Letztlich sind diese Tools in der Lage, vordefinierte Fragen zu beantworten, gehen aber nicht darüber hinaus.
Process Mining: Prozesse verstehen, um sie zu optimieren
In den meisten Organisationen erzeugt jeder Prozess mittlerweile sehr große Datenmengen. Diese enormen Mengen werden von BI-Tools in der Regel nicht ausreichend genutzt. Eine der neuen Möglichkeiten, diese Prozesse besser zu verstehen, nennt sich Process Mining, eine Analysemethode, die darauf abzielt, die internen Prozesse einer Organisation aufzudecken, zu analysieren und zu verbessern, indem sie Daten aus Ereignisprotokollierungssystemen („Logs“) extrahiert, die häufig in ERP-Systemen verfügbar sind. Process Mining nimmt eine besondere und neue Position ein, die sich an der Schnittstelle zwischen Datenextraktion und Modellierung befindet. Organisationen sollten Process Mining wichtiges zusätzliches Analysewerkzeug verstehen, während BI-Tools für Businessmonitoring- und Reportingzwecke eingesetzt werden sollten. Somit besteht der relevanteste und umfassendste Ansatz darin, beide zu nutzen. Eine zukünftige Innovation wäre dann, sich eine Hybridisierung zwischen den beiden Systemen innerhalb eines einzigen Geräts vorzustellen, in dem die komplementären Aspekte zusammenarbeiten.
Der größte Mehrwert des Process Mining ist sein Realismus. Es bietet eine klare, visuelle Darstellung der Prozesse, wie sie in der Organisation tatsächlich ablaufen, und zwar von Anfang bis Ende, auf der Grundlage von quantifizierbaren Daten. So hilft es dem Entscheidungsträger, über Annahmen hinauszugehen, um sich neue Fragen stellen zu können. Mit anderen Worten, es wird möglich, Prozesse auf verschiedenen Zeitskalen miteinander zu vergleichen, Engpässe, sich wiederholende Aufgaben und unberücksichtigte Aufgaben zu identifizieren, die genaue Ursache eines Problems zu ermitteln, die Effizienz von Prozessen zu quantifizieren, automatisierbare Aufgaben zu identifizieren, neue KPIs einzuführen, die der Realität entsprechen, Warnschwellen festzulegen und Lösungen zur Verbesserung von Prozessen im Allgemeinen zu finden.
Diese Idee des visuellen Verständnisses ist von entscheidender Bedeutung, zumal Versuche, einen Prozess zu ändern, dessen Komplexität unterschätzt wird, zum Scheitern verurteilt sind. Process Mining verschiebt die Grenzen der organisatorischen Umsetzung dieser komplexen Materie und verwandelt Daten mit geringem Wert in eine Quelle zur Steigerung der Wettbewerbsfähigkeit.
Zwei Beispiele verdeutlichen die Relevanz. Das erste betrifft die NASA, deren Verfahrensfehler bei einem technischen Element den Zerfall des Mars Climate Orbiter-Satelliten im Wert von 193 Millionen US-Dollar verursachte. Der zweite Fall bezieht sich auf Microsoft Azure. Das Unternehmen aus Redmond verzeichnete insgesamt 4,46 Milliarden Stunden Ausfallzeit, weil ihr Standard-Bereitstellungsprozess nicht korrekt befolgt wurde.
Process Mining: Am Anfang waren die Daten
Eine Strategie zur Nutzung von Process Mining darf die Bedeutung von Daten nicht unterschätzen. Die Organisation muss so weit entwickelt sein, dass sie weiß, welche Daten sie hat und gleichzeitig deren Qualität sicherstellen. Auch die Existenz von Datensilos spielt bei der Analyse eine große Rolle. So wird die Darstellung von Prozessen durch das Vorhandensein einer zentralisierten Data Platform / Data Fabric vereinfacht.
Die Fragen, die durch Process Mining in einer Organisation aufgeworfen werden, beschränken sich nicht nur auf die technologische Dimension. Sie betreffen auch das Verständnis und die Zustimmung aller Beteiligten. Es ist nicht überraschend, dass Unverständnis zu Ablehnung führen kann. Wie kann man eine Änderung der Methodik rechtfertigen, ohne den Grund und das Ziel zu erklären und sich auf konkrete Fakten zu stützen? Wie kann man sich auf Daten verlassen, wenn sich die Definition von Daten je nach den Ansprechpartnern innerhalb der Organisation ändert?
Daher ist es über das Konzept der vorhandenen Werkzeuge und Architektur hinaus notwendig, eine Datenkultur zu entwickeln, die sich durch die Fähigkeit auszeichnet, Daten, ihre Definition, ihren Ursprung, ihre Bedeutung und ihre Grenzen zu verstehen. Ohne diese starke und gemeinsam geteilte Kultur setzt sich die Organisation dem Risiko aus, Prozesse aus Gründen zu ändern, die die Menschen, die in der Organisation arbeiten oder mit ihr in Verbindung stehen, nicht verstehen.
Von reaktiv zu prädiktiv
Ohne Process Mining werden Organisationen auch weiterhin nur auf Probleme reagieren. Es ist jedoch von entscheidender Bedeutung, dass sie ihre Grenzen erweitern. Die neue Grenze, die es zu erreichen gilt, ist der schrittweise Übergang von einer reaktiven Haltung zu einem prädiktiven Ansatz. Dies kann durch die Kombination von maschinellen Lernalgorithmen („Machine Learning“) erreicht werden, um die verschiedenen möglichen Entwicklungen von Prozessen vorherzusagen.
Während sich das Process Mining auf die Beobachtung vergangener und gegenwärtiger Situationen konzentriert, geht die Künstliche Intelligenz einen Schritt weiter und wird zu einem echten Assistenten für den Experten, der mit der Untersuchung von Prozessen beauftragt ist. Ein intelligentes System kann Daten in Echtzeit analysieren und Empfehlungen aussprechen, bevor die Probleme entstehen. Ein solches System ist auch in der Lage, die Beziehung zwischen zwei unterschiedlichen Elementen, die denselben Prozess abbilden, zu verstehen. Die Beobachtung von Daten, die durch Algorithmen strukturiert sind, geht also über das hinaus, was der Mensch zu verstehen vermag.
Die andere Herausforderung für Unternehmen ist die Automatisierung von Aufgaben innerhalb von Prozessen. Das Ziel ist es, dabei zu helfen, sich auf die Aufgaben mit hohem Mehrwert zu konzentrieren, indem der zeitraubende Aspekt aufgegeben wird. Diese Vision verwirklicht sich in dem Gedanken des “ Augmented human “ am Arbeitsplatz, den die Expertin für Augmented Reality, Helen Papagiannis, in „Augmented human: how technology is shaping the new reality“ entwickelt hat.
Die zunehmende und notwendige Automatisierung von Organisationen ist nicht neu. McKinsey schätzt, dass 31 % der Unternehmen mindestens eine Funktion vollständig automatisiert haben. Ohne Process Mining kann sich die Identifizierung von Prozessen, die einfach zu automatisieren sind und einen hohen Mehrwert bieten, jedoch als kompliziert erweisen. Das Ziel ist es, schnell signifikante Produktivitätssteigerungen zu erzielen und so zu einer positiven Dynamik bei der Einführung der Automatisierung innerhalb der Organisation beizutragen.
Process Mining sollte in erster Linie als diagnostisches Instrument zur Ergänzung strategischer Unternehmenssteuerungs- und Analysesoftware betrachtet werden.
Die Zukunft gehört den Unternehmen, die einen vollständigen Überblick über ihre internen Prozesse haben und in der Lage sind, diese in Echtzeit anhand verschiedener quantifizierbarer Kriterien weiterzuentwickeln. Dieser Bedarf an Verständnis und Anpassungsfähigkeit wird sich in den kommenden Jahren mit der Entwicklung autonomer, dezentralisierter Organisationen noch verstärken. Sie werden zwangsläufig eine größere Kontrolle über ihre Prozesse benötigen. Die Entwicklung einer Wirtschaft, in der Maschinen über vollständige Transaktionsautonomie verfügen (Machine-to-machine, M2M), erfordert auch ein umfassendes Verständnis der Struktur und Funktionsweise von Prozessen.
Process Mining kann als technologische Version des antiken Mottos „Erkenne dich selbst“ betrachtet werden. Denn nur wenn wir uns selbst immer besser kennen, können wir eine harmonische Beziehung zu anderen Menschen eingehen. Was für Personen gilt, gilt auch für Unternehmen. Sie sind schließlich auch (juristische) Personen.
Sie haben eine Meinung zu diesem Thema oder wollen sich selbst als Experte einbringen? Nur zu!
Nutzen Sie unser Portal aktiv um Aufmerksamkeit für Ihr Unternehmen und Ihre Dienstleistung zu schaffen. Sie positionieren sich als Experte, geben Ihr Fachwissen weiter und können per Interview oder Fachartikel auf aktuelle Trends und Themen hinweisen und einen direkten Zugang zu 20.000 Lesern Ihrer Zielgruppe erreichen.
Schicken Sie uns eine kurze Mail an info@der-prozessmanager.de und teilen Sie uns Ihre Idee zum Artikel mit.