Grundlage für fundierte Entscheidungen: Big Data
Big Data ist ein Schlagwort der Stunde. Doch die Frage muss eigentlich lauten: wie sieht eine „Data-driven Company“ aus? Dies stellt für jedes Unternehmen eine individuelle Fragestellung dar, die es zu beantworten gilt. Der Business Intelligence Experte Michael Müller und der Digitalisierungsexperte Elmar Nathe erläutern im Gespräch mit der TREND-REPORT-Redaktion den Status quo bei Big-Data-Projekten.
Big Data ist in aller Munde, aber wo stehen wir und die Technologie überhaupt?
Michael Müller: Big Data hat die Sichtweise auf Daten verändert. Es sind nicht nur neue Technologien verfügbar, sondern auch neue Methoden. Neben dem ganzen Habitat von hadoop, haben auch die traditionellen Datenbanken in den letzten Jahren erheblich Sprünge gemacht. Ganz neue Technologien und Sprachen wie R haben das komplette Thema ‚machine learning‘ auf eine neue Ebene gehoben. Im Bereich der Datenintegration setzen sich neue Methoden und Architekturen durch. Mehrere Firmen haben bewiesen, dass sich mit Daten allein Geld verdienen lässt, vielerorts werden Daten als das neue Öl bezeichnet. Die Konsequenz hieraus ist, dass sich viele fragen, wie kann meine Firma, wie kann ich, davon profitieren? Welche Verbesserungen können durch Daten erreicht werden? Wie werden wir ‚Data Driven‘?
Elmar Nathe: Genau hier treffen wir die Herausforderungen der Unternehmen auf fachlicher Ebene. Mit der reinen „Technologie“ Big Data lassen sich nur opportunistische, kurz- und mittelfristige Ziele verfolgen. Wer den Weg zur Data-Driven-Company gehen will, muss sein Geschäftsmodell hinterfragen und erheben, welche Daten eine strategischen Wert für das Unternehmen haben. Dies bietet auf zwei Ebenen Optimierungspotenziale: Zum einen können operative Entscheidungen mittels Big Data in der Umsetzung revolutioniert werden, zum anderen können Daten neue Einnahmequellen erschließen, z. B. indem relevante Daten an Kunden und Dritte verkauft werden. Beide Ebenen können zu einem neuen, digitalen Geschäftsmodell führen.
Welche Herausforderungen gibt es? Welche Probleme sind noch nicht gelöst?
Michael Müller: Der Wunsch nach einer Data Driven Company löst häufig die Frage aus, welche Daten sind vorhanden? Häufig existieren Inseln von Daten, die in sich gut ausgewertet werden können, aber außerhalb des eingesetzten Bereiches kaum bekannt sind. Zudem sind meist die Zusammenhänge zwischen den Inseln nicht klar, da Gemeinsamkeiten vorhanden sind, aber die Schlüssel nicht passen.
Diese Probleme reichen meist weit zurück und genau dafür sind nun Lösungen verfügbar. Mit neuen Methoden wird die Datenintegration einfach. Themen wie Data Warehouse Automation und Data Vault sorgen für deutlich schnellere Datenintegration, bieten Auditfähigkeit und bieten „near realtime“ Möglichkeiten, die auch nachträglich noch umgesetzt werden können.
Für die Übersicht über die vorhandenen Daten haben wir mit einem Geschäftsobjektmodell hervorragende Erfahrungen gemacht. Wenn man dies nicht losgelöst von den Systemen betrachtet, sondern es mit dem Data Warehouse und den operativen Systemen aktiv verknüpft und zum Teil des Releasemanagement macht, erhält man ein aktuelles System, das sich den Veränderungen anpasst.
Das klingt alles sehr kompliziert und nach viel Aufwand. Warum beschäftigen sich so viele Unternehmen denn überhaupt mit Big Data?
Elmar Nathe: Natürlich laufen in der Gegenwart noch viele Pilotprojekte mit dem Hauptziel den Umgang mit den neuen Technologien zu erlernen und explorativ Anwendungsmöglichkeiten zu suchen. Ein wichtiges Leitmotiv für den Einsatz von Big Data ist das Redesign und die Automatisierung von operativen Entscheidungen. Nehmen wir als Beispiel „Predictive Maintenance“: Ziel hierbei ist es, die Auslastung der Fertigungsanlagen zu erhöhen und die Planbarkeit des Fertigungsprozesses zu erhöhen. Es geht also darum, die zentrale Entscheidung, wann eine Maschine gewartet werden soll, zu automatisieren und mittels Big Data dramatisch zu verbessern. Dazu muss analysiert werden, wie diese Entscheidung zu fällen ist und welche Informationen dazu benötigt werden. Das ist nicht nur eine technische bzw. eine methodische Herausforderung: Ohne die Adaption der Organisation, Entscheidungskompetenzen und Prozesse geht es nicht.
Welche Methoden beziehungsweise Werkzeuge können genutzt werden, um das strukturiert zu machen?
Elmar Nathe: In der Praxis haben sich einige Methoden bei der Transformation zur Data-Driven-Company bewährt. Der Business Model Canvas ist ein exzellentes Werkzeug, um ein Geschäftsmodell auf seine wesentlichen Komponenten zu reduzieren und auf seine wirtschaftlichen Erfolgschancen zu überprüfen. Daten sind hierbei ein wesentlichen Key Asset innerhalb des Geschäftsmodells. Wie aber mit den Daten eine neue Value Proposition für das Unternehmen und wie mit den Daten neue Umsatzpotenziale erschließen? Das von Michael erwähnte Geschäftsobjektmodell ist für Bestimmung der strategischen Daten eine sehr gute Basis. Eine um die Modellierung der Entscheidungen – vorzugsweise mit dem Standard DMN – ergänzte Prozessmodellierung ist sehr wertvoll, wenn es darum geht das neue Geschäftsmodell zu operationalisieren. Prozesse, Entscheidungen und Daten bilden einen wichtigen Dreiklang, wenn es darum geht, mit Big Data den Weg zum daten-getriebenen Unternehmen zu beschreiten.
Bei der beschriebenen Methode spielen die Daten eine wichtige Rolle. Wie sorgen Unternehmen dafür, dass die Qualität der Daten stimmt?
Michael Müller: Mit der Datenqualität steigt und fällt die Aussagekraft der analytischen Modelle. Neben dem sicherstellen, dass alle Daten korrekt in das Data Warehouse geladen wurden, bedeutet das vor allem eine Überprüfung und Plausibilisierung der Daten.
Die Plausibilisierung und anschließende Überprüfung der Daten bringt nicht nur technische Probleme zu tage, mitunter liegt die Ursache in der Zusammenarbeit. Hier Lösungen zu finden, kann zu massiven Verbesserungen nicht nur bei den Daten führen. So lassen sich schon in der Datenaufbereitung Schätze heben.
Elmar Nathe: Sehr richtig, Michael. Wenn ich dann diese „Datenschätze“ in den Prozessen an die relevanten Entscheidungen heranführe, haben die Unternehmen schon sehr viel erreicht. Mittels flexiblen IT-Architekturen kann dann mit schnellen Daten agile Prozesse implementiert werden, die schnellstmöglich auf Veränderung im operativen Geschäft reagieren können. Wird noch Predictive Analytics genutzt kann der Prozess sogar agieren statt nur zu reagieren.
Wie läuft so ein Big Data Projekt überhaupt ab?
Elmar Nathe: Die komplette Bereitstellung aller Daten ist trotz aller technischen und methodischen Verbesserungen immer noch ein erheblicher organisatorischer Aufwand. Ein agiles, iteratives Vorgehen erlaubt eine sukzessive Umsetzung und ein frühes Erreichen erster Erfolge.
Zunächst reicht ein grobes Geschäftsobjektmodell über die wichtigsten Teile des Unternehmens. Das sollte so früh wirklich sehr grob sein – ein Tag für die Erstellung reicht – und soll eine erste Orientierung bieten. Mit jedem weiteren Schritt, wird dieses Geschäftsobjektmodell dann verbessert.
Anhand aktueller Probleme werden 3-4 mögliche Aktionsfelder ausgewählt. Für diese werden nun die Daten gesucht und analysiert und anhand der verfügbaren Daten entschieden, in welchem Aktionsfeld gearbeitet werden soll. Im Rahmen der Datenintegration erfolgt neben der Prüfung der Datenqualität, auch eine schnelle Bereitstellung zur Auswertung von unkonsolidierten Daten.
Bei diesem iterativen Ansatz ist die Pflege des Geschäftsobjektmodells sowie weiterer Metadaten extrem wichtig. Darüber kann allen Beteiligten dasselbe Verständnis der zu Grunde liegenden Daten vermittelt werden.
Weitere Informationen unter:
www.mid.de