Das Data Warehouse in der Cloud

Mit den Daten eines Unternehmens Wertschöpfung zu betreiben, ist naheliegend und viele Unternehmen entwickeln Datenstrategien. Grundlegend dafür ist die Zusammenführung der unterschiedlichen Datenquellen in einem Data Warehouse. Dieses in der Cloud zu hosten, ist aufgrund der Kosten absolut naheliegend. Aber will man es richtig machen, sollte man auf die Expertise und die Vorteile spezialisierter Anbieter bauen. Pierre Thompson-Lukas, Regional Director DACH bei Snowflake Computing, erläutert im Interview mit der TREND REPORT-Redaktion, wie nahe Unternehmen der „Single Source of Truth“ kommen können.

Herr Thompson-Lukas, wie beurteilen Sie den Technologiedreiklang aus (I)IoT, Blockchain und KI?
Es handelt sich hierbei um drei Aspekte, von denen jeder für sich das Potenzial hat, altbewährte Geschäftsmodelle, Industrien und Jobs tiefgreifend zu verändern oder sogar obsolet zu machen. Mit Blick auf die aktuelle Situation im deutschsprachigen Raum finde ich jedoch die Bezeichnung als Dreiklang etwas irreführend: Wenngleich es für IoT und KI in unserem (Arbeits-)Alltag mittlerweile konkrete Anwendungsfelder gibt, wie zum Beispiel Predictive Maintenance, Smart Factory oder autonomes Fahren, ist das für Blockchain (noch) nicht der Fall. Das ergeben zumindest meine Gespräche mit Führungskräften deutscher Konzerne. Diese Technologie ist konzeptionell und angetrieben durch virtuelle Währungen. Sie ist zwar sexy und vielversprechend, genießt zurzeit aber noch ein Nischendasein.
Ich denke aber, dass sich dieser Status quo in den nächsten zwei Jahren erheblich wandeln wird und das Marktverständnis mit Angebot und Nachfrage in etlichen Branchen in Frage gestellt werden wird. Die Veränderungen könnten hierbei ähnlich tiefgreifend sein wie das Erdbeben, das durch Streaming-Plattformen ausgelöst wurde. Vermutlich werden Finanzinstitute, Energieversorger und der Handel davon zuerst betroffen sein.

Es entsteht in jedem Fall eine enorme Datenmenge. Welche Vorgehensweise empfehlen Sie und warum?
Eine Grundgewissheit vorweg: Der Markt für On-Premises-Rechenzentren und -Datenbanken ist definitiv tot.
Die Speicherung von Daten leistet an sich keinerlei Wertbeitrag. Wenn große Technologieanbieter wie Amazon, Alibaba, Google und Microsoft schier unbegrenzte Speicherkapazität für kleinste Geldsummen pro Terabyte bereitstellen, macht es keinen Sinn, diese Aufgabe inhouse durchzuführen. Dementsprechend beginnt jede Datenstrategie, die ich im Jahre 2019 gesehen habe, mit dem Wort „Cloud“. Darüber hinaus hat quasi jedes Unternehmen heute das Ziel, „datengetrieben“ zu sein, und damit beginnt der spannende Teil: Wertschöpfung aus Daten.
Ein Unternehmen sollte seinen Mitarbeitern jederzeit die Möglichkeit geben, auf Daten zuzugreifen und sie auswerten zu können. Nachdem sich die NoSQL-Datalake-Konzepte in den vergangenen Jahren als hochkomplex und untauglich erwiesen haben, ist das elastische Cloud-Data-Warehouse das Rückgrat der Datenwertschöpfung.

Können Sie uns ein Beispiel erläutern? Wie gehen Sie konkret bei der Implementierung vor?
Nach meiner Ansicht befinden wir uns bereits mitten in einem neuen Zeitalter: dem der Data Economy. Nur Unternehmen, die in der Lage sind, den Rohstoff „Daten“ am effizientesten zu heben, am günstigsten zu speichern, wertstiftend zu veredeln und in bestehende oder neue Geschäftsmodelle zu integrieren, werden Erfolg haben. Mit einer Anlehnung an die Evolutionstheorie spreche ich hier auch gerne vom „Daten-Darwinismus“. Wer sich nicht anpasst oder Vorteile aus dieser (neuen) Welt zieht, wird von den anderen überholt und bleibt auf der Strecke. Nehmen wir beispielsweise ein deutsches Industrieunternehmen wie Siemens. In der Vergangenheit waren Bau und Betrieb von hochkomplexen industriellen Anlagen das Markenzeichen des Konzerns. Doch es hat sich etwas signifikant verändert: Die Energie- und Kraftwerksparte wird zugunsten von digitalen Geschäftsmodellen aus dem Konzern ausgegliedert. Dies geschieht sicherlich, weil der Siemens-Vorstand die Zukunft in Geschäftsmodellen sieht, die auf digitale Daten; Stichwort „Digitale Fabrik“.
So gehen wir auch in Projekten mit unseren Kunden vor. Wir betrachten alle Aufgaben vom Ziel her. Das heißt: Nicht die Datenquelle ist der Ausgangspunkt, sondern die Frage „Wie sieht ihr zukünftiges Geschäftsmodell aus?“. Davon ausgehend arbeiten wir uns immer weiter zurück, bis wir den Prozess von Datenquelle bis Endkunden verstanden haben. Erst dann gehen wir in eine Diskussion über sinnvolle Zielvorgaben und den Mehrwert unserer technischen Lösungen. Das ist wichtig, denn erst jetzt haben wir ein ganzheitliches Verständnis von den Anforderungen des Kunden und können dessen Vorhaben optimal unterstützen. Daneben gibt es natürlich auch ganz pragmatische Projekte, in welchen Kunden ihre bestehende Infrastruktur zugunsten von Performance und Kosteneinsparungen durch Snowflake austauschen.

Datengetriebene Entscheidungen spielen eine immer größere Rolle. Wie beraten Sie in diesem Kontext Ihre Kunden?
Datengetrieben ist wohl das gängige Wort, suggeriert aber auch, dass Bits und Bytes die Führung übernommen haben oder zukünftig übernehmen sollen. Daten sind aber frei von Moral, Ethik, Kultur etc. Vielmehr beschreiben oder repräsentieren sie einen bestimmten Zustand. Mir ist wichtig zu verdeutlichen, dass der Mensch am Ruder sitzt. Führungspersönlichkeiten entwickeln die unternehmerische Vision, Manager treffen die wichtigsten Entscheidungen zur Umsetzung und Mitarbeiter überführen sie ins Business. Auf all diesen Ebenen unterstützen Daten bei der Frage, ob Entscheidungen aufgrund von historischen Daten, Referenzwerten oder Prognosemodellen mit einer gewissen Wahrscheinlichkeit erfolgversprechend sind.
Damit das funktioniert, ist aber eine Datendemokratisierung nötig. Jeder Mitarbeiter muss in der Lage sein, auf Basis von Daten seine Entscheidung zu untermauern. Dafür sind Systeme unabdingbar, die technisch barrierefrei und inklusiv sind, also Zugriff auf und Arbeit mit Daten ohne Spezialwissen ermöglichen. Auf diesem Weg spielen Technologien wie Snowflake eine bedeutende Rolle: Sie sind einfach implementierbar, reagieren hochflexibel auf neue Anforderungen und Services mit wenig Wertschöpfung lassen sich automatisieren.
Natürlich bietet ein Cloud-Data-Warehouse nicht die Lösung aller Aufgaben, aber es ist das Herz der unternehmenswichtigen Datenpipeline.

Wie können die verschiedenen Datenquellen in Ihrem Data Warehouse zusammengeführt und genutzt werden?
Die meisten Unternehmen formulieren als Idealziel die Vorstellung eines konsolidierten Datenpools, welcher alle (relevanten) Daten an einem Ort konsistent zusammenführt; die oft beschworene „Single Source of Truth“. Darüber hinaus soll dieser Pool für jeden Anwendungsfall und Nutzer zugänglich und dabei zugleich sicher vor Missbrauch sowie möglichst wartungsarm sein.
Diesem Ideal kommen wir mit Snowflake äußerst nahe. Snowflake ist neutral gegenüber der Cloud-Infrastruktur und auf AWS und Azure verfügbar. Wenn ein Kunde bereits Daten dort hat, können diese ohne viel Aufwand in unser Warehouse geladen werden.
Aber auch von On-Premises oder bei Vorliegen komplexerer Datenstrukturen ist das Laden der Daten in unser Data Warehouse sehr effizient, denn beinahe alle klassischen und jüngeren ETL-/ELT-Werkzeuge besitzen einen Konnektor zu Snowflake. Neben den damit verbundenen vordefinierten Ladezeiten können wir mit dem Zusatzprogramm Snowpipe auch einen kontinuierlichen Datenstream in das System ermöglichen.
Ein besonderes Alleinstellungsmerkmal ist, dass Snowflake sowohl strukturierte als auch semi-strukturierte Daten verarbeiten kann. Damit ist der Kunde in der Lage, innerhalb von Snowflake ein Enterprise-Data-Warehouse und ein Data Lake zu vereinen. Die Nutzung wiederum bedarf dann keines Spezialwissens, da sich unser Data Warehouse vollständig in der SQL-Welt bewegt. Das entsprechende Know-how wird heute bereits im Grundstudium jedes IT-nahen Studiengangs vermittelt. Im Frontend haben unsere Anwender dann die gleiche Flexibilität. Alle gängigen Analytics-Werkzeuge und -Plattformen sind in der Lage, nativ auf Snowflake zuzugreifen.

Welche Vorteile haben Ihre Kunden davon?
Wir sind immer wieder begeistert, welche Mehrwerte Kunden jeglicher Größe und aus allen Branchen mit unserer Technologie generieren. Im Kern handelt es sich hierbei um vier Säulen, die immer wieder genannt werden:

  • schnellere und bessere Entscheidungsfindung durch Datenzugriff für „Jedermann“
  • signifikante Kosteneinsparungen im Bereich Skalierung von Datenmanagement und Analytics
  • erheblich verbesserte Customer Experience auf Basis von Daten
  • Erschließung neuer Geschäftsmodelle durch Monetarisierung von Daten

Gemäß einer Forrester-Studie zu einem Fall mit einem petabyte großen Datenvolumen, waren wir zum Beispiel in der Lage, einen ROI von 604 Prozent zu erzeugen, was in dem konkreten Fall knapp sechs Millionen USD entsprach und sich unter anderem aus Einsparungen in Lizenzgebühren, Speicher und Administrationsaufwand summierte.
Neben den reinen Businesszahlen, also dem „Was“, ziehen unsere Kunden aber auch einen unmittelbaren Mehrwert aus der Art und Weise, „wie“ wir mit ihnen partnerschaftlich zusammenarbeiten und sie bei der Umsetzung ihrer Ziele unterstützen. Dies schlägt sich zum Beispiel in unserem Net Promoter Score von 71, gegenüber dem Branchendurchschnitt von 21, nieder.
Besonders stolz sind wir aber auf das Ergebnis der Marktstudie von „Dresner Advisory“ (Auswertung von Anwenderfeedback), wonach Snowflake führend gegenüber allen Wettbewerbern im Bereich Vertrieb, technischer Support, Consulting und Wertbeitrag ist.

Wie entwickelt sich Ihr Data Warehouse weiter?
Aktuell sind wir Vorreiter einer Revolution im Data-Warehouse-Markt, die durchaus Parallelen zu Salesforce im CRM-Markt oder Apple im Smartphone-Markt zulässt. Es gibt im Jahr 2019 keine IT-Abteilung, die ohne Cloud- und Data-Warehouse-Strategie auskommt. Snowflake ist damit im Sweetspot und zugleich Enabler der Data Economy, welche angetrieben wird durch Big Data, IoT, KI etc.
Snowflake wird weiterhin daran arbeiten, die flexibelste und breiteste Datenplattform für seine Kunden anzubieten. Wir haben einen erheblichen technologischen Vorsprung vor unseren Wettbewerbern, sind uns aber sehr bewusst, dass dies nicht selbstverständlich ist. Wir werden weiterhin möglichst nah an unseren Kunden sein, um deren Bedürfnisse zu verstehen, und dies in unsere Entwicklung einfließen lassen.

Wie begegnen Sie den Herausforderungen hinsichtlich GDPR und Datenschutz?
Ich würde das nicht als Herausforderung, sondern als Chance formulieren, denn ein modernes Data Warehouse sollte seinen Kunden den Umgang mit GDPR und Datenschutz erleichtern. Anwender vertrauen unserem System hochsensitive Daten an und wir wissen mit dieser Verantwortung sehr gut umzugehen. Wir sind an die Einhaltung europäischer Datenschutzstandards gebunden: Jeder Snowflake-Kunde hat die Möglichkeit seine Daten im europäischen Rechtsraum zu speichern. Abhängig vom Cloudanbieter sind die Serverstandorte aktuell beispielsweise in Frankfurt oder Amsterdam.
Konkret besteht eine Kernanforderung des GDPR zum Beispiel darin, dass eine Organisation weiß, welche Daten sie überhaupt vorhält, wer Zugriff auf diese hat und wem sie zugeordnet sind. In diesem Sinne vermeidet die einzigartige Architektur und Organisation von Daten in Snowflake, dass Daten dupliziert werden müssen, um sie mit anderen zu teilen oder für Testzwecke nutzbar zu machen.
Daneben hat Snowflake eine Vielzahl von Schutzmechanismen bereits nativ integriert, die bei den meisten anderen Lösungen separat hinzugekauft und gewartet werden müssen. Ohne Anspruch auf Vollständigkeit sind das zum Beispiel die automatisch- vollständige Verschlüsselung von Daten im Speicher und Transport, multi-faktor Authentifizierung, rollenbasierte Zugriffskontrolle, regelmäßige Änderung der Verschlüsselungs-Keys, bei Bedarf dedizierte Instanz in der AWS Virtual Private Cloud uvm.
Unser Anspruch ist es die Anforderungen hinsichtlich GDPR und Datenschutz besser als Wettbewerber zu lösen. Dementsprechend hat der Schutz von Daten unserer Kunden höchste Priorität. In allen Projekten sprechen wir diese Thematik proaktiv an und beweisen unseren Kunden, dass wir auf diesem Themenfeld hervorragend positioniert sind.

Über den Interviewpartner:

Pierre Thompson-Lukas (Diplom Wirtschaftsinformatiker, Bachelor of Laws) war 12 Jahre bei der Marine, bevor er in den Softwarevertrieb eingestiegen ist. Ab 2014 arbeitete er als Sales Director bei Tableau Software. Seit 2019 ist er Regional Director DACH bei Snowflake und zeichnet außerdem für den Vertrieb in Deutschland, Österreich und der Schweiz verantwortlich.

Weitere Informationen unter:
www.snowflake.com

Bildquelle / Lizenz: Snowflake Computing

1 Antwort

Trackbacks & Pingbacks

  1. […] Lesen Sie dazu auch das Interview „Das Data Warehouse in der Cloud“ mit Pierre Thompson-… […]

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.