Die TREND-REPORT-Redaktion sprach mit Robert Schmitz, Area Vice President Southern Europe & Russia bei QlikTech GmbH, über den Stand und die Zukunft der Datenanalyse.

Herr Schmitz, in welchem Stadium der Anwendung von Data-Analytics-Verfahren befinden sich die großen Unternehmen, wo steht der Mittelstand?

Großkonzerne haben wesentlich früher als der Mittelstand angefangen, Daten zu analysieren und systematisch aufgrund digitaler Informationen Entscheidungsprozesse zu optimieren sowie datengetrieben ihren Unternehmenswert zu erhöhen. Dafür benötigten sie früher entsprechende Investitionen in komplexe Lösungen, was den SMB aufgrund schmalerer Budgets verständlicherweise erst einmal schwerer fiel. Heute sind diese Zeiten vorbei.

Technologien, die als SaaS verfügbar sind, selbst Cloud- und Multicloud-fähig sind, Analyse und Visualisierung von Daten unabhängig vom Speicherort ermöglichen und problemlos skalierbar sind, machen datengetriebene Unternehmenssteuerung für Organisationen aller Art und Größe gleichermaßen attraktiv. Business Intelligence (BI)-Lösungen mit ausgeprägtem Selfservice-Charakter adressieren außerdem Daten-Enthusiasten mit unterschiedlichsten Vorkenntnissen und Analyse-Ansprüchen – vom Anwender, der einfach seine Daten und Kennzahlen auf wenigen individuellen Dashboards verfügbar haben möchte über den Power-User, der selbst Analytics-Apps erstellt, bis hin zum Data Scientist, der zum Beispiel auch mit R- und Python-Integrationen umgehen kann.

Der Mittelstand hat die Möglichkeiten von Data-Analytics-Verfahren vielleicht erst später für sich genutzt, dafür sehen wir heute viele kleinere und mittelgroße Champions ihrer Branchen, die schnell und dynamisch individuelle Analytics-Szenarien auf- und umsetzen, kurze Wege im Unternehmen nutzen und sich rasch in der Welt der Analytics Economy bewegen. Gemeinsam haben Konzerne, große Organisationen und Mittelständler natürlich, dass die Arbeit mit Daten aus allen Quellen die Produktivität erhöht, die Mitarbeiter zum intuitiven Data Storytelling motiviert und insgesamt die Datenkompetenz in einer Organisation erhöht.

Welche Herausforderungen bestehen durch die Anbindung an vor- und nachgelagerte IT-Systeme für Unternehmen?

Jedes Unternehmen muss individuell betrachtet werden. Sowohl die Vorstellungen der Unternehmensführung als auch die Anforderungen und Wünsche in den Fachabteilungen sind wichtig, um die Transformation zur datengesteuerten Organisation optimal zu gestalten. Auch der genaue Blick auf die Datenbasis ist entscheidend: Welche Datenquellen sollen angebunden werden? Vor allem strukturierte Data-Warehouse-Daten? Echtzeit-Maschinendaten? Unstrukturierte Social-Media- oder News-Feed-Informationen? Wie komplex sind die Daten? Ist das Datenvolumen extrem groß? Das sind alles elementare Parameter. Präzision ist hier sehr wichtig, um die Datenqualität dauerhaft zu sichern und valide Ergebnisse auch in Big-Data- und Echtzeit-Umgebungen gewährleisten zu können. Beispiel Industrie 4.0: Wer hier eine „Mikrometer-Genauigkeit“ im Produktionsbereich erreichen muss, will genaue und zeitnahe Analysen, sobald eine Maschine auch nur etwas aus dem Plan läuft. Da die Anzahl der Datenquellen und -formate permanent steigt, setzt eine offene Analytics-Plattform auf ein lebendiges Ökosystem an Konnektoren und APIs, um Daten entweder aus Vorsystemen zu laden oder sie direkt anzubinden, was für noch mehr Performanz sorgt.

Wo und wie generieren Unternehmen aus Daten echte Mehrwerte?

 Unternehmen generieren Mehrwert quer durch alle Branchen auf unterschiedlichste und oft auch einzigartige Art und Weise. Nehmen wir einen großen Autoglas-Experten mit vielen Filialen: Die eigenen Daten geben genau Auskunft darüber, wann sie wo welche Windschutzscheibe verkauft haben. Hieraus lassen sich auch schon Rückschlüsse ziehen – z.B. Korrelationen zwischen der Neigung der Windschutzscheibe und der Anfälligkeit für Steinschlag. In Verbindung mit den frei zugänglichen Daten der Zulassungsbehörden kann dann genau bestimmt werden, wieviel Scheiben eines Modells zum Beispiel in einer Filiale in Düsseldorf auf Lager gehalten werden sollten, um diese schnell auszutauschen. Gelichzeitig werden zu hohe Lagerkosten durch zu viel vorrätige Scheiben vermieden.

Mittlerweile lassen sich Data-Analytics-Projekte innerhalb der Unternehmensstrategie so unkompliziert gestalten, dass man auch ohne ein sechsmonatiges Training erfolgreich Datenanalyse und -visualisierung in seine Arbeit integrieren und sie so verbessern kann.

Robert Schmitz, Area Vice President Southern Europe & Russia bei QlikTech GmbH

Mit welchen weiteren Entwicklungen im Bereich Data Analytics rechnen Sie in naher Zukunft – gerade auch mit Blick auf KI? Und welche Kenntnisse müssen Mitarbeiter dafür mitbringen?

 Bei KI, wo die Gesellschaft gerade erst am Anfang steht, erwarten wir in den nächsten Jahren eine enorme Entwicklung. Hier wird es entscheidend sein, die Anwender mitzunehmen, damit sie die neuen Möglichkeiten ohne großen Aufwand auch nutzen können. Das Thema Daten-Analyse wurde bis vor einigen Jahren vielerorts vor allem von Spezialisten wahrgenommen. Diese haben die Systeme konfiguriert und entsprechende Funktionen zur Verfügung gestellt. Sollten Veränderungen vorgenommen werden, waren auch nur diese Experten zu Anpassungen in der Lage. Dementsprechend dauerte es dann auch.

Mittlerweile lassen sich Data-Analytics-Projekte innerhalb der Unternehmensstrategie so unkompliziert gestalten, dass man auch ohne ein sechsmonatiges Training erfolgreich Datenanalyse und -visualisierung in seine Arbeit integrieren und sie so verbessern kann. Die Anwendungen müssen so einfach sein, dass man mit allen verfügbaren Daten arbeiten kann, ohne Informatiker oder KI-Spezialist zu sein. Bei der Durchführung hilft eine zentral gemanagte Governance, die rollenbasierten Datenzugriff gewährleistet und das intuitive Erforschen von Daten in einem klaren, verwalteten Rahmen eröffnet. Bei der Aufbereitung und Bereitstellung der Daten helfen kognitive Systeme, die durch KI die Sicherung der Datenqualität unterstützen. Es geht ja nicht um Entscheidungs-Automation, sondern darum, Mitarbeitern datenbasierte und vor allem verständliche Entscheidungsgrundlagen zur Verfügung zu stellen.

Dass es sich für Unternehmen lohnt, in eine datensouveräne Kultur zu investieren, beweist die aktuelle Data-Literacy-Forschung: Demnach lässt sich der Unternehmenswert – je nach Größe einer Organisation – um mehrere hundert Millionen US-Dollar steigern, wenn Datenkompetenz von allen tatsächlich gelebt wird.

Welchen Stellenwert nimmt momentan und in Zukunft Natural Language Processing (NLP) ein?

NLP ist ein Riesenthema, bei dem wir in den nächsten Jahren noch enorme Fortschritte erwarten. Präsent ist das Thema vielen Menschen derzeit vor allem im Consumer-Bereich, durch die Fähigkeiten von Alexa, Siri, und Co. Im Business-Umfeld spielt NLP aber mindestens eine ebenso große Rolle: als schnelles Ein- und Ausgabe-Medium für geschäftsrelevante Informationen, für deren kombinierte, unmittelbare Betrachtung sowie für Analyse und Bewertung. Wir sprechen hier von Conversational Analytics – also dem Umsetzen von Datenanalysen in Form einer gesprochenen Unterhaltung. Mit der Übernahme von Crunch Bot und Crunch Data haben wir uns hier bewusst positioniert – und sind überzeugt, dass die Akzeptanz und Begeisterung für die Arbeit mit Daten durch Conversational Analytics weiter steigt.

CC BY-ND 4.0 DE

 

 

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.