Manchen mittelständischen Unternehmen fällt es noch schwer, ihr Geschäftsmodell mit datengestützten Analysen zu stärken. Hier einige praktische Beispiele, die sinnvoll und einfach umzusetzen sind.
Über kaum ein Technologiethema wurde in den letzten Jahren so viel geschrieben wie über den Wert von Daten in der digitalen Ökonomie. Das Datenvolumen steigt seit Jahren explosionsartig an und wird auch in den kommenden Jahren weiter zulegen. IDC geht laut Statista bis 2025 von 181 Zettabyte Daten auf der ganzen Welt aus – eine Steigerung von 182 Prozent innerhalb von fünf Jahren.
Data Analytics im Kontext von aktiver Preispolitik
Gerade für KMUs gibt es jedoch Use Cases für Digital Analytics und Künstliche Intelligenz, die konkrete Mehrwerte schaffen und sich schnell rechnen. Ein Beispiel dafür ist die kontinuierliche Anpassung und Optimierung von Preisen.
Preissetzung ist im Mittelstand oft noch „Chefsache“ und hängt nicht selten vom Bauchgefühl ab. Dabei gibt es einfache und effektive Data-Analytics-Anwendungen für diese Thematik. Diese konsolidieren Daten zur Nachfrageentwicklung, Preissensibilität sowie zu Kreuzpreis-Elastizitäten (Nachfrageänderung infolge von Preisänderungen) der Vergangenheit. Diese Daten generieren Unternehmen üblicherweise automatisch entweder direkt aus dem ERP-System oder – etwas umständlicher – aus der Abrechnungssoftware der Buchhaltung.
Analysesoftware wie Alteryx, Tableau, Fivetran, oder – für die etwas Geübteren – Stata oder R helfen, die Daten in die Form zu bringen, die es braucht, um eine dynamische, kontinuierliche Preissetzung beziehunsweise Kalkulation aufzusetzen. Zudem kann dadurch der optimale Preiskorridor für Produkte oder Produktgruppen für den jeweiligen Zeitpunkt und das adressierte Kundensegment ermittelt werden – Stichwort: Dynamic Pricing. Dies schließt auch Rabatt- und Konditionsstrukturen mit ein.
Hat ein Unternehmen einmal ein Preismodell aufgesetzt, dann kann dies nicht nur dabei helfen, die richtigen intrinsischen Preise zu definieren. Es ist auch in der Lage, schnell auf Marktverwerfungen auf der Absatz- und Einkaufsseite zu reagieren. Die Herausforderung dabei ist, dass ein Preismodell selten am Reißbrett entsteht – es muss sich entwickeln. Deshalb ist ein lernendes Modell ratsam, das kontinuierlich angepasst und optimiert werden kann.
Ein Preismodell mit Daten füttern
Zum initialen Aufsetzen empfiehlt es sich, die folgenden Daten in die Auswertung einfließen zu lassen:
Unternehmenspezifische Daten
– Produktkosten für zu bepreisende Ware
– Lagerbestände
– Preisentwicklung
Marktdaten
– Preise von Wettbewerbern
– Wettbewerbsintensität
Makroökonomische Daten
– Einkommensstruktur/Kaufkraft von Kunden
– Verbrauchervertrauensindex
– Saisonalität
Tipp: Oft ist die Preissetzung historisch gewachsen und analog der Nachfrage strukturiert. Was auf den ersten Blick intuitiv wirkt, kann in der Praxis zu merkwürdigen Auswüchsen führen.
Ein Beispiel: Ein größerer Artikel, der mehr Materialaufwand verursacht, ist plötzlich günstiger bepreist als ein kleinerer, vergleichbarer Artikel. Solche Muster sind mit einem einfachen Größen-Preis Korrelationscheck schnell entdeckt und können erhebliche Ergebniseffekte bei der Bereinigung nach sich ziehen.
Risikofrüherkennung mithilfe von Business Intelligence
Täglich verändern sich Marktgegebenheiten, Anforderungen und Erwartungen an ein Unternehmen und an diejenigen, die es steuern. Dabei bleibt es nicht aus, dass den Verantwortlichen bei ihrem unternehmerischen Handeln sowie beim Treffen von Entscheidungen Fehler unterlaufen können. Aus den Herausforderungen, die Unternehmen sich in Zeiten von Krieg in Europa, Inflation und zerrütteten Lieferketten stellen müssen, werden erst dann existenzbedrohende Probleme, wenn die Fehler nicht erkannt werden. Beziehungsweise dem Management die Informationen fehlen, die den tatsächlichen Zustand des eigenen Unternehmens wiedergeben.
Eine Business Intelligence (BI)-Software erlaubt es, Datenquellen zu vereinen und ein stringentes Risikocontrolling aufzusetzen. Durch die Verbindung von Datenquellen in Verbindung mit einem hohen Grad an Self-Service-Möglichkeiten können BI-Lösungen die Controlling-Abteilung entlasten und die Informationen dorthin transportieren, wo sie bestmöglich interpretiert werden können. Mittlerweile bedienen sich viele BI-Anwendungen auch KI-Komponenten, die Datenauswertungen automatisieren und nach Auffälligkeiten durchsuchen.
Wichtig ist, vor der Implementierung die konzeptionelle Ausgestaltung systematisch und ganzheitlich zu durchdenken. Dann fällt die Auswahl des passenden Systems, wie PowerBI, Tableau oder Qlik für die individuellen Anforderungen und Rahmenbedingungen nicht mehr schwer.
Tipp: Probieren Sie doch einfach mal die KI-Addins von BI-Softwarelösungen aus. Oft etwas unscheinbar, haben fast alle diese Tools sogenannte “Data Preparation”-Vorschläge. Das sind semi-autonome Umsetzungen von Mappings, Joins oder Datenaufbereitungsmechanismen. Damit lassen sich in kürzester Zeit große Datenmengen bereinigen und automatisiert für die Analyse aufbereiten. Die Künstliche Intelligenz geht dann sogar noch einen Schritt weiter: sie leitet eigenständig Analysehypothesen ab und macht oftmals bereits erste Vorschläge zur Optimierung.
Datengestützte Prozessdigitalisierung
Oft wird von komplett digitalisierten Fabriken geredet, als wären diese schon längst Realität. Doch tatsächlich sind wir von flächendeckender autonomer Wertschöpfung – also Smart Factory und automatisierten Overhead-Prozessen in der (mittelständischen) Industrie noch viele Jahre entfernt.
Kurzfristig erfolgversprechend, jedoch oftmals unterschätzt, sind punktuelle Initiativen zur Prozessdigitalisierung. Häufig scheitert die Hebung dieser Potenziale jedoch noch am Fehlen einer gut strukturierten, sauberen Datenbasis. Um diese zu schaffen, helfen Data Governance-Richtlinien. Ein absoluter Quick-Win ist in diesem Zusammenhang die Einführung von klaren Datenqualitätskriterien – beispielsweise niedergeschrieben in der Zielvereinbarung für Führungskräfte.
Folgende Kriterien an erhobene Daten sind empfehlenswert:
- Vollständigkeit
- Eindeutigkeit
- Korrektheit
- Aktualität
- Genauigkeit
- Konsistenz
- Redundanzfreiheit
- Relevanz
- Einheitlichkeit
- Zuverlässigkeit
- Verständlichkeit
Sind diese Qualitätskriterien gegeben, sind automatisierte Rechnungseingangsprüfungen, digitale Freigabeprozesse oder ein einfacher Workflow für den Versand des Monatsberichts nur noch Formsache.
Tipp: Oftmals hilft dabei schon der Blick in die Microsoft 365 Suite. Mit Power Automate lassen sich einfache Workstreams schnell automatisieren. Für Unternehmen, die ohnehin die Microsoft 365 Suite nutzen, ist Power Automate kostenfrei. Allerdings: Eine gute Datenstruktur ist die Voraussetzung.
Automatisierter, dynamischer Wettbewerbsvergleich
“Best in class” und “Benchmarking” sind Buzzwords, die im Top-Management vermutlich niemals aus der Mode kommen. Doch oft ist die konkrete Umsetzung solcher Vorhaben sehr herausfordernd. Auch wenn es in der Praxis unzählige Benchmarks gibt, helfen sie selten bei der optimierten Steuerung eines Unternehmens. Man spricht in diesem Kontext auch von Value Benchmarking.
Die Grundlage von Value Benchmarking sind Daten – viele Daten. Und es gilt, Wettbewerbsdaten, Studien und öffentlich verfügbare Daten in eine Form zu bringen, die Rückschlüsse auf das eigene Unternehmen zulässt. Fokussiert auf wenige KPIs lässt sich einfach und schnell ein Frühwarnsystem implementieren, das eine schnelle Indikation liefert, ob das Unternehmen noch auf dem richtigen Weg ist.
Tipp: Idealerweise analysiert ein Unternehmen die gesamte Wertschöpfungskette mit Hilfe von Benchmarks und sucht gemeinsam mit Lieferanten und Kunden datengetrieben nach Potenzialen. Das ist oft der Anfang eines für alle Seiten zielführenden Prozesses der kontinuierlichen Daten-Teilung. Es lohnt sich also regelmäßig und systematisch mit Lieferanten und Kunden zu sprechen.
Darkweb Monitoring
Laut einer Bitkom-Studie sehen 45 Prozent der deutschen Unternehmen ihre geschäftliche Existenz durch Cyberangriffe bedroht. Mehr als jedes dritte Unternehmen gab an, dass ihm bereits sensible Daten gestohlen wurden und mehr als jedes vierte Unternehmen wurde bereits Opfer digitaler Sabotage.
Eine relativ unaufwändige Möglichkeit, solche Cyberattacken zu erkennen, bevor sie stattfinden, ist das sogenannte Darkweb Monitoring. Dabei prüfen spezielle Tools, ob im Darknet aktuelle Informationen zum eigenen Unternehmen kursieren, beziehungsweise gehandelt werden. Oft existieren solche Angebote bereits Wochen vor einem Cyberangriff – genug Zeit, um wirksame Gegenmaßnahmen zu ergreifen. Ein systematisches Monitoring solcher Signale kann helfen, wochenlange Systemausfälle oder hohe Lösegeldzahlungen an digitale Erpresser zu vermeiden.
Tipp: Auch ohne gesperrte Systeme oder entwendete Geschäftsgeheimnisse können die Schäden durch Cyberangriffe enorm sein – beispielsweise durch die Veröffentlichung vertraulicher, unternehmensinterner Daten. Der Aufwand für ein Darkweb Monitoring fällt gegenüber diesen signifikanten Risiken kaum ins Gewicht.
Wettbewerbsfähiger mit ganzheitlicher Transformation
Die in diesem Beitrag vorgestellten Use Cases können helfen kurzfristig Kosten zu sparen, Erlöse zu steigern und bessere Entscheidungen zu treffen. Doch der Effekt aus der Implementierung einzelner punktueller Digital Analytics- oder KI-Maßnahmen ist nur gering im Vergleich zur Transformation eines Unternehmens hin zu einer datengetriebenen Organisation.
Bei einer solchen nachhaltigen Weiterentwicklung des Geschäftsmodells entstehen Daten nicht nur als “Abfallprodukte”, sondern sind ein zentrales Element zur Steuerung und Wertgenerierung. Für eine derartige Transformation, die erfahrungsgemäß viele Jahre dauert, haben sich folgende fünf Schritte bewährt:
- Datenstrategie entwickeln: Wertorientiert und eng verzahnt mit der Digital- sowie Geschäftsstrategie – mit klarer Zuständigkeit im Top-Management (kein IT-Projekt).
- Organisationsdesign anpassen: Neue Stellenprofile entwickeln, bestehende Stellenprofile um Datenkompetenz ergänzen und Operating Model entsprechend weiterentwickeln.
- Technologische Voraussetzungen schaffen: Datenbanken, BI-Software, etc. auswählen und implementieren.
- Momentum aufbauen: Erste Anwendungen für „Quick wins“ etablieren, um sichtbare Erfolge zu schaffen und die Basis der Promotoren sukzessive zu erweitern.
- Skalieren: Strukturen Schritt für Schritt weiterentwickeln und professionalisieren und dabei Freiraum zum Experimentieren lassen. Zwanglose Formate wie beispielsweise Hackathons können wahre Innovationskatalysatoren sein.
Digital Analytics und Künstliche Intelligenz können schnell und wirksam greifbare Verbesserungen in mittelständischen Unternehmen bewirken. Digital führende Unternehmen gehen bereits heute weit über solche punktuellen Implementierungen hinaus und arbeiten an der ganzheitlichen Transformation zur datengetriebenen Organisation. Ihre signifikant gesteigerte Wettbewerbsfähigkeit wird in den nächsten Jahren zunehmend Druck auf alle anderen Unternehmen ausüben.
Sie haben eine Meinung zu diesem Thema oder wollen sich selbst als Experte einbringen? Nur zu!
Nutzen Sie unser Portal aktiv um Aufmerksamkeit für Ihr Unternehmen und Ihre Dienstleistung zu schaffen. Sie positionieren sich als Experte, geben Ihr Fachwissen weiter und können per Interview oder Fachartikel auf aktuelle Trends und Themen hinweisen und einen direkten Zugang zu 20.000 Lesern Ihrer Zielgruppe erreichen.
Schicken Sie uns eine kurze Mail an info@der-prozessmanager.de und teilen Sie uns Ihre Idee zum Artikel mit.