Wer genau(er) hinsieht, merkt es schnell: Technologische Konzepte, die in der Data & Analytics-Welt in den vergangenen zehn bis fünfzehn Jahren bestens funktioniert haben, taugen schon bald nicht mehr. Denn viele Unternehmen benötigen mittlerweile deutlich detailliertere analytische Kenntnisse, wenn es um ihre angebotenen Produkte und Services geht. Hierbei bildet die zuverlässige Auswertung der verfügbaren Daten das Herzstück, egal ob im Controlling, im Rechnungswesen oder im Finanzwesen. Hinzu kommt der offenkundige Trend in Richtung Produktindividualisierung.

Das bedingt, dass Unternehmen möglichst exakt wissen wollen, inwieweit sich diese Vorgehensweise prinzipiell für sie lohnen könnte. Wenn dem so ist, müssen sie wissen, an welcher Stelle sie mit einer Individualisierung ansetzen sollten. Die notwendigen Daten für diese Neuausrichtung liefern ihnen Data & Analytics. Strategisch gilt es jedoch genau auszuwählen, welche modernen, innovativen Methoden und Werkzeuge im jeweiligen Fall konkret dafür erforderlich sind. Vor diesem Hintergrund wird Technologie zum Service – und zwar insbesondere in der Form, dass sich Unternehmen immer mehr öffnen für eine Cloud-orientierte Nutzung von Services.

Das hat den wesentlichen Vorteil, dass Technologien nicht mehr selbst inhouse aufgebaut werden müssen. Stattdessen nutzen die Unternehmen teils komplette Softwarelösungen von verschiedenen Cloud-Anbietern als Managed Services. Die Erfahrung zeigt zugleich aber auch, dass sie sehr oft auf hybride Architekturen oder auch cloud-native Architekturen in größeren Kubernets-Clustern setzen.

Neue Ära der Arbeit mit Daten

In der Data & Analytics-Welt dominieren Cloud-Architekturen mittlerweile klar und dies vor allem, weil Unternehmen oft die angebotenen Services nicht eigenständig betreiben könnten. Schließlich verfügen sie in den seltensten Fällen über das notwendige Know-how und auch die notwendigen Ressourcen für die teilweise sehr komplexen Technologien. In früheren Zeiten konnte man etwa im BI-Bereich noch viel erreichen durch den Aufbau eines kleinen Data Warehouses, um damit Daten zu verteilen oder Planungsszenarien zu erstellen.

Mittlerweile aber hat eine komplett neue Ära Einzug gehalten. Heute müssen Anwender häufiger Daten zeitnah laden und verarbeiten können – auch unterschiedliche Quellen wie Sensordaten, die zumeist in einer großen Zahl und in komplizierten Verfahren an vielen Orten gesammelt werden. „Klassische“ Technologien geben dies vielfach nicht mehr her. Stattdessen sind Spezialtechnologien erforderlich wie zum Beispiel Object Stores oder Massive-Parallel-Processing-Lösungen, die anders als noch vor drei Jahren heute selbst für kritische Datenmengen zu erschwinglichen Preisen trainiert werden können. Je nach Anwendungsfall sind aber natürlich auch Kombinationen möglich.

Dabei werden parallel zu den bestehenden Systemen für spezielle Anforderungen zusätzlich die entsprechenden speziellen Technologien genutzt. Entscheidend ist es dann, die unterschiedlichen Themenfelder und Technologien jeweils sauber miteinander zu orchestrieren. Passt am Ende alles zusammen, führt dies zu optimalen Ergebnissen.

Mehr Usability für mehr Anwenderakzeptanz

Immer größere Datenmengen werden in zunehmend mehr Anwendungsfällen verarbeitet. Im Zuge dessen erweitert sich natürlich auch der Kreis der Anwender – und für dieses breitere Publikum sollte man die Usability noch einmal deutlich verbessern. Denn um gewünschte Ziele erfolgreich zu erreichen, müssen Eintrittshürden möglichst niedrig gehalten werden. Unter dieser Voraussetzung bleibt sichergestellt, dass die User die verschiedenen Technologieprodukte im Tagesgeschäft auch wirklich nutzen.

Um zunehmende Datenvolumina automatisiert zu ordnen und zu vereinheitlichen, sind Business-Glossare und Data Catalogs probate Mittel. So können Unternehmen über ein eigenes Business-Glossar alle Geschäftsbegriffe in einer einheitlichen, gemeinsamen Sprache präzise definieren. Damit ist nachfolgend gewährleistet, dass bei der Datenanalyse unternehmensweit stets dieselben Definitionen verwendet werden. Data Catalogs ermöglichen mit ihren bedienerfreundlichen Oberflächen, dass auch Anwender ohne spezifisches Datenbank-Know-how auf Informationen aus unterschiedlichen Datenquellen zugreifen und die Daten für Analysen nutzen können.

Nicht zuletzt unterstützen Metadaten-Management-Lösungen außerdem dabei, mit den Daten und modellierten Inhalten besser und unkomplizierter zu arbeiten. Auf diese Weise lassen sich heute selbst kritische Datenmengen schnell und unkompliziert managen, wie es vor fünf Jahren noch nahezu unvorstellbar gewesen wäre.

Sie haben eine Meinung zu diesem Thema oder wollen sich selbst als Experte einbringen? Nur zu!

Nutzen Sie unser Portal aktiv um Aufmerksamkeit für Ihr Unternehmen und Ihre Dienstleistung zu schaffen. Sie positionieren sich als Experte, geben Ihr Fachwissen weiter und können per Interview oder Fachartikel auf aktuelle Trends und Themen hinweisen und einen direkten Zugang zu 20.000 Lesern Ihrer Zielgruppe erreichen.

Schicken Sie uns eine kurze Mail an info@der-prozessmanager.de und teilen Sie uns Ihre Idee zum Artikel mit.

Andere Leser haben sich zusätzlich folgende Artikel angesehen: