Open Source- Quelle und Zukunft der Innovation

Gastbeitrag: Jim Whitehurst

Open Source hat sich für viele Anwendungsszenarien in den Unternehmen und im Privatleben durchgesetzt und wird auch zukünftig Innovation und Kreativität inspirieren.

 

Red Hat arbeitet sehr eng mit der Open-Source-Community zusam­men und liefert Beiträge zur Community-getriebenen Innovation, die viele der weltweit wichtigsten Open-Source-Initiativen vorantreibt. Anschließend testet und prüft das Unternehmen die besten Ideen und Software und stellt sicher, dass sie bereit für den kommerziellen Ein­satz, das heißt sicher und stabil, sind. Red Hat bietet Support für die Software und kooperiert mit einem umfangreichen Partnersystem auf der ganzen Welt, um deren Lösungen ebenfalls für den Einsatz in Unternehmen zu zertifizieren.

Open Source hat sich auf dem Markt durchgesetzt, dies zeigt sich auf verschiedenen Gebieten: Jeder nutzt hunderte Mal am Tag Open-Source-Software, ohne es zu merken. Jedes Mal, wenn ein User im Web surft, E-Mails versendet, mit Freunden online chattet, Musik streamt, Video Games spielt oder mit seinem Smartphone telefoniert, verwendet er wahrscheinlich irgendeine Art von Open-Source-Software. In Unternehmen kommen Open-Source-Lösungen in allen Branchen für vielfältige Zwecke zum Einsatz, angefangen von Cloud Computing über die Applikationsentwicklung und Big Data bis zu Speichersystemen.

Einige assoziieren Open Source mit dem Betriebssystem Linux. Im Unterschied zu anderen kommerziellen Betriebssystemen, wie bei­spielsweise Windows, ist Linux kostenlos und wird kontinuierlich durch die Fähigkeiten und Erfahrungen von Tausenden von Menschen aktualisiert sowie erweitert – und nicht nur von einem einzigen Ent­wicklerteam. Dadurch erzielt Open Source eine höhere Innovationsge­schwindigkeit als proprietäre Softwarehersteller. Gleichzeitig ist dieser Innovationsgrad ein wichtiger Grund dafür, warum sich die Open-Source-Ent­wicklung als Standard für viele Technologien und in Unternehmen durchgesetzt hat.
 

Open Source ist mehr als Linux

Open Source lässt sich bis zu den Anfängen des Internet zurück­verfolgen und vieles darin basiert auf Open-Source-Technologien. Linux wurde 1991 von dem Finnen Linus Torvalds entwickelt, dem die Idee dazu aus Frustration über teure Software kam. Die Open-Source-Werte und -Prinzipien finden aber auch Anwendung außerhalb der Softwarewelt. Für Red Hat ist Open Source nicht nur eine Methode, um Software zu entwickeln und zu lizenzieren, sondern auch eine Grundhaltung.

Lebensbereiche nach Open-Source-Prinzipien anzugehen heißt, bereit zu sein für den transparenten und offenen Austausch und die Zusammenarbeit mit anderen, das Scheitern als Chance für Verbesserungen anzusehen und davon auszugehen, dass andere auch so handeln. Das bedeutet außerdem, eine aktive Rolle bei der Verbesserung der Welt einzunehmen. Dies ist nur möglich, wenn jeder Zugriff zu den benötigten Informationen hat und über die Möglichkeit verfügt, Neues beizutragen.

Torvalds ist der Erfinder von Linux. Das wirklich Besondere und Inspirierende aber daran ist, dass sobald er das Betriebssystem veröffentlichte jeder, der wollte, Beiträge beisteuern und die Idee mit Leben füllen konnte.
Open Source ist eine wahrhaft globale Bewegung, die auf Mitwirkung, individuellen Ideen und Beiträgen vieler statt nur weniger beruht. Viele der weltweit größten Probleme wurden durch den Einsatz von Open-Source-Technologien gelöst. Zudem ist die Innovationsrate innerhalb der Open-Source-Community beachtlich. Der Erfolg von Open Source ist nicht allein ein Verdienst großer IT-Unternehmen. Ohne die Entwickler-Communities und deren enthusiastische Unterstützung könnte Open Source nicht existieren.

OpenAI, Tesla, Facebook und Google sind alles angesagte Unternehmen und Wegbereiter der Innovation beim Einsatz von Open Source. Eine Welt ohne sie ist heute nicht mehr vorstellbar.
 

Open-Source-Technologien ermöglichen schnellere Innovationen

Open-Source-Technologien wie Linux sind äußerst populär und bieten Unternehmen ein enormes Potenzial für schnellere Innovationen. Wie bei jeder anderen Software oder Smartphone-App wollen Anwender sich darauf verlassen, dass sie fehler- und unterbrechungsfrei sowie sicher arbeitet. Wenn das IT-System einer Bank täglich Transaktionen im Wert von Millionen von Euro mit Linux verarbeitet ist es essenziell, dass die Bank mit einem Open-Source-Spezialisten wie Red Hat zusammenarbeitet, um einen stabilen und sicheren Betrieb zu gewährleisten. Red Hat beispielsweise bietet Subskriptions-basierte Produkte, die dazu beitragen.

In der Vergangenheit standen Anbieter wie Red Hat vor der Herausforderung, dass viele Unternehmen den Grundgedanken von Open Source nicht verstanden. Sie hatten oft Fragen dazu, wie eine vollständig offene und freie Umgebung sicher sein kann. Danach wird kaum noch gefragt. Heute nutzen nahezu alle Banken, Fluggesellschaften, Behörden und Einzelhändler in den USA in bestimmten Bereichen Open-Source-Lösungen – oft sogar für den unternehmenskritischen Betrieb.

Viele dieser Organisationen haben erkannt, dass sie mehr agile Open-Source-Lösungen einsetzen müssen, um im Wettbewerb mit den kleinen, schnellen und intelligenten Unternehmen überleben zu können. Viele namhafte Firmen sind untergegangen, da es ihnen nicht gelungen ist, die Anforderungen moderner Kunden aufzugreifen.
Da Innovation bei Open Source schneller erfolgt und offene Plattformen Unternehmen bei der Einführung digitaler Geschäftsmodelle und Services auf Basis zukunftsfähiger IT-Systeme unterstützen können, entwickelt sich Open Source zum Standard.

Darüber hinaus bieten selbst führende Unternehmen wie Microsoft und Apple heute Linux-kompatible Software an. Festzustellen ist, dass Open Source endgültig die Herzen und Köpfe der großen Unternehmen gewonnen hat. Red Hat ist das erste Unternehmen, dass die Schwelle eines jährlichen Umsatzes von zwei Milliarden US-Dollar überschritten hat – ein Beleg für die große Popularität von Open Source.
 

Die Community bildet das Zentrum von Open Source

Jahrelang haben Closed-Source-Anbieter Linux und Open Source als Bedrohung angesehen und haben ihren Kunden von einem Einsatz abgeraten. Durch den Einsatz engagierter Entwickler, von Open-Source-Communities und Unternehmen wie Red Hat, ist Open Source erfolgreicher als je zuvor und für viele Menschen ein bedeutender Teil ihres Alltags.
In diesem Zusammenhang sei daran erinnert, dass die Community das Zentrum von Open Source bildet. Das ist das sprichwörtliche Geheimnis. Die Beobachtung der Arbeit von Open-Source-Communities und speziell die Kooperation bei der Problemlösung – unter gleichen Wettbewerbsbedingungen für alle, damit sich die besten Ideen durchsetzen – ist enorm leistungsfördernd.
 

Warum sollte man sich mit Open Source befassen?

Wenn es sie nicht gäbe, wäre so vieles, was als gegeben hingenommen wird, nicht möglich. Ohne die Cloud und das Web würde das Leben für jedermann anders aussehen. Beides würde es vermutlich geben, aber nicht so wie Cloud und Web heute bekannt sind.

Dass jeder mit anderen zusammenarbeiten kann, um eine Idee oder ein Projekt voranzubringen, dessen Ergebnis alle nutzen können, ist eine radikale Vorstellung. Etwas ganz besonderes ist es, wenn ein öffentlich entwickeltes Tool in einer Technologie zum Einsatz kommt, die einer besseren Patientenversorgung oder der Bildung zu Gute kommt. Durch die Bündelung von Wissen und den Zugang zu Patientendaten sind Krankenhäuser und Ärzte in der Lage, gemeinsam Therapien und die Patientenversorgung zu verbessern. Es ist unglaublich, mitzuerleben, wie Open-Source-Technologien die Innovation auf diesen Gebieten fördert.

Opern Source wird auch zukünftig die Innovation und Kreativität inspirieren.
Mehr noch: Die Offenheit in allen Aspekten der Gesellschaft, der Kunst und Kultur wird in nicht allzu ferner Zukunft zur grundlegenden Art des Handelns. Es gibt heute schon faszinierende Beispiele für Offenheit, Kooperation und Partizipation in der Musik und Kunst. Das alles ist erst der Anfang. Offenheit wird zum Standard für eine bessere und schnellere Innovation.

 

Red Hat

 

Autorenvita: Jim Whitehurst

Jim Whitehurst ist President und CEO von Red Hat.

James „Jim“ Whitehurst ist President und Chief Executive Officer von Red Hat, dem weltweit führenden Anbieter von Open-Source-Lösungen. Whitehurst ist ein begeisterter Verfechter von Open Source als Innovationskatalysator in Unternehmen.
Seit er sich Red Hat im Januar 2008 anschloss, hat er den Umsatz des Unternehmens mehr als verdoppelt und den Börsenwert verdreifacht. Bevor er zu Red Hat kam, war Whitehurst sechs Jahre bei Delta Air Lines. Dort trieb er die internationale Expansion des Unternehmens maßgeblich voran und leitete als Chief Operating Officer sämtliche Aspekte des Airline-Betriebs, vom Vertrieb bis hin zur Strategie.
Zuvor war er bei The Boston Consulting Group tätig, hatte verschiedene Führungspositionen in der Unternehmensentwicklung inne und arbeitete in Chicago, Hongkong und Shanghai sowie als Partner am Standort Atlanta mit einer Vielzahl an Kunden aus verschiedensten Branchen.

 

 

Bilder / Quellen / Lizenz

Digitalisierung ist mehr als pure Effizienzsteigerung

Wir sprachen mit Herrn Dr. Wenzel und Herrn Dr. Schulz, beide Geschäftsführer von 3DSE Management Consultants, über die Digitalisierung in Forschung und Entwicklung. Wichtig, so betonen beide, ist es, zu verstehen, dass Digitalisierung nicht bedeutet, pure Effizienzsteigerung zu betreiben. Vielmehr ginge es darum, neue Services in Produkte zu integrieren und dies schon direkt beim Produktkonzept zu bedenken. Diese neuen Services verlangen nach einem neuen Verständnis der Digitalisierung und einer entsprechenden Integration im Produktentwicklungsprozess. Die Digitalisierung der Produktion ist also Voraussetzung für die Digitalisierung im Produkt.

Herr Dr. Wenzel, welche typischen Fehler machen Unternehmen bei der Entwicklung im Kontext der Digitalisierung?

Dr. Wenzel: „Neue disruptive Geschäftsmodelle können das ganze Spiel verändern.“

Der erste und größte Fehler besteht darin, Digitalisierung als reines Effizienzthema zu betrachten. Wer lediglich die Entwicklungsprozesse automatisiert, um dadurch Geld zu sparen und die Profitabilität zu steigern, der vergisst den Kern der Digitalisierung. Neue disruptive Geschäftsmodelle können das ganze Spiel verändern. Sie kennen vielleicht den Begriff „Innovators Dilemma“: Führende Unternehmen scheitern teilweise daran, dass sie das, was sie machen, richtig gut machen. Sie achten zu sehr auf Effizienzsteigerung und vergessen dabei das Marktumfeld auf der Geschäftsmodellebene. Der zweite typische Fehler ist, dass Unternehmen in der Entwicklung entweder sehr operativ getrieben sind oder total strategischen Visionen hinterherlaufen und keine Taktik entwickeln, mit der sie Digitalisierung erfolgreich umsetzen können. Das führt dann manchmal zu „Dream-on“-Themen, also nicht umsetzbaren Visionen, da die Sprünge viel zu groß sind. Taktik heißt z.B., man identifiziert Zwischenschritte bei denen die notwendige Kompetenz vorhanden ist. Schritte, auf die man Einfluss nehmen kann, mit denen man lernen kann, um dann erst den nächsten Schritt zu gehen. Der dritte typische Fehler besteht darin, Digitalisierung als rein methodisches, toolgestütztes Thema zu betrachten. Dabei werden die Aspekte, die wir unter dem Stichwort Strategie und Innovation besprochen haben – wie Kultur, Change-Management und Leadership – einfach vergessen oder nicht hoch genug priorisiert.

Wie helfen Sie Unternehmen, Entwicklungsrisiken zu vermeiden bzw. früh genug zu erkennen?

Zunächst definieren wir mit den Unternehmen gemeinsam einen Nordstern, also einen Fix- oder Orientierungspunkt, zu dem die Reise hingehen soll. Dann erarbeiten wir die kritischen Erfolgsfaktoren und Stellhebel für die Unternehmen sowie „Frühindikatoren“, an denen wir später feststellen, ob wir noch auf dem richtigen Weg sind. Wir nennen das den „inneren Kompass“ – die Menschen müssen spüren, ob sie noch auf dem richtigen Weg sind, oder nicht. Das müssen keine harten Kennzahlen sein, sondern können durchaus qualitative Kenngrößen sein. Dann erarbeiten wir  mit dem Kunden die strategischen Stoßrichtungen, die alle relevanten Veränderungsbereiche berücksichtigen. Das sind in der Regel drei bis sechs Stoßrichtungen, über die wir die Veränderung einläuten können. Des Weiteren erarbeiten wir mit dem Kunden eine stimmige Roadmap. Stimmig heißt, basierend auf den Fragestellungen: „Was kann das Unternehmen? Wo steht das Unternehmen? Was sind die Einstiegsthemen? Was ist die mittelfristig mögliche Ziellösung? Und was ist die Vision, auf die wir langfristig zusteuern?“ Darüber hinaus bieten wir Best-Practice-Austausch – Unternehmen lernen, was andere machen. In Zukunft werden wir ein Lab aufbauen, in dem Mittelständler die Möglichkeit haben, in einem horizontalen Netzwerk Produkte zu entwickeln und wir geben ihnen eine passende Entwicklungsmethodik dazu.

Herr Dr. Schulz, was bedeutet für Sie die agile Produktentwicklung?

Dr. Schulz fordert „von monolithischen Produkten wegzugehen und stärker zu modularisieren und in Features zu denken.“

Vor allem Risikominimierung, die man im Wesentlichen durch drei Ansatzpunkte erreichen kann.
Erstens: Durch eine agile Produktentwicklung kann sehr flexibel auf kurzfristigen Marktbedarf in hoher Geschwindigkeit reagiert werden. Man muss nicht drei, vier Jahre warten, bis man eine Lösung für ein Kundenbedürfnis hat. Der zweite wesentliche Ansatzpunkt besteht darin, neue Features quasi „testweise“ in den Markt zu bringen und zu lernen, ob beim Kunden ein Bedarf besteht und wie diese Features angenommen werden. Über die Datenrückführung und die damit verbundenen Insights über den Kunden und sein Nutzungsverhalten wird eine solche nachgeschobene Funktionalität in kurzen Zyklen verbessert. Dies ist vollkommen konträr zur bisherigen Praxis mit langen und frühen Konzeptphasen und sehr viel Planung zum Zweck einer komplett ausentwickelten Funktionalität. Dafür besteht nicht mehr das große Risiko, dass man nach langer Vorlaufzeit erst spät erkennt, etwas entwickelt zu haben, was der Kunde gar nicht haben wollte.
Der dritte Ansatzpunkt sorgt dafür, dass man in sehr kurzen Iterationen arbeitet, an deren Ende man immer wieder anhand eines – in der Fachsprache sogenannten – „working prototypes“ versucht, den kompletten Funktionsumfang auslieferungsfähig zu erzeugen. In allen drei Ansatzpunkten ist die entscheidende Voraussetzung, von monolithischen Produkten wegzugehen und stärker zu modularisieren und in Features zu denken.

Herr Dr. Wenzel, welche Bedeutung hat in Zukunft die künstliche Intelligenz im Innovationsprozess?

Ich glaube, sie hat einen sehr hohen Einfluss. Hierzu möchte ich auf zwei sehr interessante Aspekte eingehen: Wir sind uns sicher, dass schlaue Computer in vielen Unternehmen Arbeiten übernehmen werden, die bisher Menschen und Ingenieure gemacht haben. Dabei meine ich nicht nur banale Aufgaben, sondern beispielsweise auch Bots, die Antworten auf Kunden und Lieferanteanfragen geben. Mittlerweile gibt es schon Programme, die Teile von Produkten entwerfen oder ganze Produkte auslegen können. Stichwort: generative design. Ein Kotflügel kann so von einem Computer gestaltet werden. Vielleicht brauchen wir in Zukunft keine Controller mehr in der Entwicklung – das können Computer irgendwann sicher auch. Sie werden wahrscheinlich sogar den Budget- und Ressourcenfluss besser managen können als einzelne Menschen.
Wir werden Sprachcomputer, wie wir sie heute im Smartphone mit Siri oder zu Hause mit Alexa haben, auch in der Entwicklung sehen. Das wird Meetings verändern, da man Fragen an den Computer stellen kann und direkt im Meeting Antworten parat hat. Man wird Termine und Schnittstellen, auch technische, über den Computer organisieren können.
Der zweite Aspekt: Natürlich wird KI dazu genutzt werden, das Kundenverhalten zu prognostizieren, wie wir es auch von Google kennen. Bei der Entwicklung neuer Produkte wird das immer wichtiger werden.

„Mittlerweile gibt es schon Programme, die Teile von Produkten entwerfen oder ganze Produkte auslegen können.“

Worauf müssen Unternehmen in diesem Kontext achten?

Zunächst benötigen sie die Kompetenz, solche Technologien und ihren Nutzen einzuschätzen. Es gilt jetzt, die Begriffe KI, AI, Machine Leraning, Deep Leraning, etc. nicht mit Träumereien, Dream-Ons, zu belegen, sondern harte Kompetenzen aufzubauen und zu lernen. Diese Themen müssen jetzt im Unternehmen etabliert werden. Des Weiteren benötigt KI Daten, aus denen sie lernen kann – gerade beim Thema Kundenverhalten. Das heißt, ich brauche eine Entwicklungsumgebung, eine Cloud, worin ich die Daten sammle und ich benötige Experten, die die Algorithmen entwickeln um gute Ableitungen zu treffen.
Außerdem müssen Unternehmen darauf achten, überhaupt die Kundenschnittstelle zu besetzen und das nicht einem Smartphone zu überlassen. Um User-Nutzerdaten überhaupt generieren zu können, reicht es nicht, nur zum Googlen zu animieren.

Welche Rolle wird Augmented Reality in Zukunft im Product Lifecycle einnehmen?

AR bzw. die computergestützte Erweiterung der Realität wird heute schon in der Entwicklung eingesetzt. Sie ermöglicht einen Wissenstransfer. Im Prinzip hängen dabei an Prototypen oder Fahrzeugen virtuelle Informationen, die dem Entwickler helfen, schnell zu wissen, was sich hinter dem Produkt versteckt. Vergleichbares gilt auch für den Service. Darüber hinaus können wir AR für den Test von Produkten nutzen und durch sie den Kunden leichter einbinden – Produkte frühzeitig zu verifizieren und zu bewerten..

Herr Dr. Schulz, wie schafft man es, eine gemeinsame Entwicklung mit unterschiedlichen Projektpartnern und mit deren unterschiedlichen Zielen erfolgreich aufzusetzen?

Man muss von den häufig eher „vertikal“ geprägten Beziehungen zwischen Kunden und Lieferanten wegkommen und versuchen, eine gemeinsame Perspektive für alle Beteiligten zu schaffen. Alle benötigen in irgendeiner Art und Weise einen Mehrwert aus dieser Kooperation bzw. den Ergebnissen, wobei die Mehrwerte der Partner sich durchaus unterscheiden dürfen. Wir glauben, dass sich die Zusammenarbeitsverhältnisse zukünftig stark verschieben werden, weg von den klassischen OEM-Lieferantenbeziehungen hin zu partnerschaftlichen Beziehungen. Zum einen lassen sich durch partnerschaftliche Beziehungen die notwendigen Investitionen besser schultern, zum anderen ist nur noch auf diese Weise der Zugang zu bestimmten Schlüsseltechnologien möglich, da Unternehmen, die diese Schlüsseltechnologien besitzen, sehr wohl um ihren Wert wissen und nicht mehr bereit sind, sich in eine klassische Lieferantenbeziehung zu begeben.

Was müssen deutsche Hightech-Unternehmen machen, um ihren Forschungsvorsprung nachhaltig zu festigen?

Zunächst müssen sie aus den eben genannten Gründen stärker in Netzwerken und Kooperationen denken. Der zweite wichtige Punkt ist die Bereitschaft, in „Erkenntnisgewinn“ zu investieren – also die Bereitschaft Dinge zu testen und zu akzeptieren, dass dabei möglicherweise Investitionen verloren gehen, aber dadurch Klarheit entsteht, dass diese Richtung nicht die richtige ist. Sie müssen bereit sein, entsprechende Ausdauer zu haben und nicht auf kurzfristige Erfolge zu hoffen. Zudem müssen Unternehmen sich sehr stark selber in Frage stellen können, was ihre Abläufe und Strukturen, aber auch was ihre Produkte und Services betrifft. Das ist ein ganz wesentlicher Punkt des digitalen Mindsets, der digitalen DNA. Sie müssen immer wieder prüfen, wo Disruption entstehen und sie gefährden kann. Auf diese Felder müssen sie dann selbst gehen, also an der eigenen Disruption arbeiten. Außerdem muss man jetzt konsequent und sehr zügig in den digitalen Wandel investieren und darf nicht weiterhin in einer abwartenden Position verharren. Alles muss daran gesetzt werden, das Thema für sich selbst passend auszugestalten. Dabei ist entscheidend, sich mehrere Optionen offen zu halten und sich nicht zu früh zu eng festzulegen. Man benötigt mehrere Pfade und sollte bewusst die Erfolgsmuster anderer digitaler Spieler studieren und, wenn sinnvoll, auf sich übertragen.

Inwieweit können Sie den Technologietransfer zwischen Universitäten und Unternehmen beratend unterstützen?

Wir agieren branchenübergreifend in unterschiedlichsten Industrien und sehen woran gearbeitet wird. Wir kennen daher den Bedarf der Industrie und wissen, welche Schwierigkeiten es in der Anwendung und Umsetzung gewisser Dinge gibt. Das können wir in Richtung Universitäten zurückspiegeln. Die Universitäten erhalten so Aufschluss hinsichtlich der Umsetzungsreife und des Umsetzungsgrads gewisser Ansätze und bzgl. bestimmter Handlungsfelder der Industrie.  Andersherum sehen wir in Technologie- und Forschungsinstituten an welchen Themen gearbeitet wird, was wir natürlich als Impuls an unsere Kunden weitergeben können.

 

Weitere Informationen unter:
www.3dse.de

3DSE hat eine Leitstudie zur Digitalisierung der F&E herausgebracht und veranstaltet dazu am Do, 13. Juli, 10:30 ein Webinar. Weitere Informationen hierzu unter: http://fue-leitstudie.de/

Digitalisierung der Retail Supply Chain

Über 50 Jahre Erfahrung in der Retail Supply Chain aus Fernost, aber keine Zeit sich auszuruhen. Digitalisierung und wachsende Endkundenanforderungen verändern die Supply Chain so schnell und nachhaltig, wie kaum eine Entwicklung zuvor.

Supply Chain im Wandel

Immer die aktuellsten Trends, beste Preise und die Ware aus nachhaltiger Quelle sind nur die offensichtlichen Anforderungen heutiger Endkunden, und die tägliche Herausforderung etablierter und neuer Händler. Offline, Online oder Multichannel ist dabei unwichtig – hauptsache die Ware ist zum rechten Zeitpunkt verfügbar.

Weitere Anforderungen, wie nachhaltige Produktion, CO2-optimierte Beschaffungswege oder individualisierte Produkte, werden immer wichtiger. In allen Kanälen war die Transparenz über Produktpreis, Verfügbarkeit, Qualität und Kundenerfahrungen zugleich nie höher als heute.

Transparenz

Um dem anhaltenden Trend zu verzahntem Mobile E-Commerce zu folgen, bauen die Händler die Grenzen zwischen den Vertriebskanälen zunehmend ab. Immer neue, inspirierende und überraschende Einkaufswelten zu schaffen, erfordert ihre volle Aufmerksamkeit. Die verfügbaren Ressourcen und Budgets müssen konzentriert werden – die Lieferketten müssen dabei einfach funktionieren.

Häufig werden deshalb Teile dieser Lieferketten outgesourced. Dazu gehört die Transparenz über die Lieferketten inklusive der Bestände an den diversen Lager- und Verkaufspunkten genauso wie die Übersicht über flexible Reaktionsmöglichkeiten auf Störungen im Ablauf. Aber auch die Sicherheit und Qualität der Produkte, der Hersteller und der Transportwege bei möglichst niedrigen Kosten fallen in diese Kategorie.

Als Megatrend unterstützt die Digitalisierung den Wandel des Handels nachhaltig. Manuelle Prozesse werden reduziert und durch digitale, medienbruchfreie Abläufe ersetzt. Hermes-OTTO International bietet konkret mehrere sich modular ergänzende Dienstleistungen an. Ziel ist, Händler weltweit in allen Aspekten der Digitalisierung der Lieferketten zu unterstützen.

Beschaffungsprozesse digitalisieren

Das kann nur nachhaltig gelingen, wenn auch die eigene Organisation voll digital denkt und handelt. Die Unternehmenskultur der Tochterfirma der Otto Group setzt dabei auf einen offenen und partnerschaftlichen Dialog aller Prozessbeteiligten.
Die zentrale Erkenntnis aus fast 20 Jahren Projektmanagement, Prozessoptimierung und Systemeinführungen in internationalen Beschaffungsorganisationen im Kontext der aktuellen Marktanforderungen ist, dass Mensch, Prozess und Technik in allen Projekten in Einklang gebracht werden müssen.

Die Beschaffungsprozesse sind dabei besonders herausfordernd, da viele global verteilte Prozessbeteiligte in die Veränderungsprojekte eingebunden und motiviert werden müssen. Die Vermeidung von Medienbrüchen und eine durchgängig entlang der gesamten Prozesskette gemeinsam genutzte Systemlandschaft erfüllt damit quasi automatisch die Maxime der Digitalisierung. Der Umgang mit rechtlichen, kulturellen und letztlich auch sprachlichen Unterschieden in den Beschaffungsmärkten bestimmt dabei die Akzeptanz der technischen Lösung oder Prozessveränderung.

Gearbeitet wird daher mit einer Order Management- und Supply Chain Tracking-Plattform, die von ihren Kunden erfolgreich genutzt wird.
Bereits seit 2002 arbeiten Lieferanten aus Deutschland, China, Bangladesh und vielen anderen Ländern auf dieser digitalen Auftragsplattform.

Software-as-a-Service Cloud-Plattform

Im Jahr 2013 wurde die technische Basis erneuert und die Hermes SCM Plattform als Software-as-a-Service Cloud-Plattform etabliert. Händler können Ihre Beschaffungsdaten über Standardschnittstellen mit dem eigenen ERP-System einfach mit der Plattform austauschen. Der fachliche Fokus erweiterte sich von einer reinen Order Management Plattform auf eine umfassende Supply Chain Tracking und Management Plattform.

Die enge Zusammenarbeit mit den Kunden führt zu stetigen Verbesserungen der Lösungen. Auf Händlerwunsch wurden zum Beispiel Vorlaufprozesse wie Lieferantenbuchungen, Anbindung der Container- und Schiffstrackingdaten von INTTRA, Anbindung von weiteren Tracking-Daten aus dem Hermes-Partnernetzwerk und weiterer Spediteure und nicht zuletzt das umfassende Dokumentenmanagement vom strategischen Partner Tradelink eingebunden.

Die Software-as-a-Service Plattform erlaubt dabei umfassende Flexibilität in der Definition der einzelnen Prozessschritte und der Händler-individuellen Konfiguration der Datenstrukturen. Vor allem aber wächst die Plattform mit dem Beschaffungsvolumen des Händlers bei 24/7 Verfügbarkeit.

Gemeinsam den Wandel meistern

Wichtig ist die Begleitung des Kunden durch Spezialisten. Eine umfassende Prozessaufnahme, Best Practice Empfehlungen aus bisherigen Einführungen, Schnittstellenprogrammierung wo notwendig und internationaler Rollout mit tausenden Lieferantennutzern auf allen Kontinenten inklusive begleitendem Support und Training sind daher Teil des Leistungsangebots von Hermes-OTTO International.

In erfolgreichen Projekten u.a. mit ihren Kunden Witt Gruppe und Bonprix konnte die Zukunftsfähigkeit der Lösungen schon unter Beweis gestellt werden:
Dokumentenflüsse sind digitalisiert, die Zollanmeldung erfolgt auf Basis digital-signierter Dokumente, die Handelsdokumente müssen nicht manuell nacherfasst werden und die Archivierung kann digital ohne weiteren Scan erfolgen.

Die Digitalisierung der Beschaffungsprozesse ist der logische nächste Schritt in der Optimierung der komplexen Beschaffungskette durch die Kombination einer Vielzahl etablierter und neuer Technologien und Dienste, mit dem Ziel die Endkundenbelieferung verlässlich zu gewährleisten.

 

Autor

Florian Lemberg Division Manager SCM Solutions, Hermes-OTTO International

Florian Lemberg ist Division Manager SCM Solutions bei Hermes-OTTO International
florian.lemberg@hermes-ottoint.com

Über das Unternehmen:

Hermes-OTTO International

 

CCO – Pixaby

 

Grenzenlose Kommunikation für Arbeitsplatz der Zukunft

Arbeiten 4.0: Moderne Kommunikationslösungen, reißen Grenzen am Arbeitsplatz der Zukunft ein

 

Gastsbeitrag von Wolfhart Krischke, Geschäftsleiter Avaya Deutschland GmbH

 

Die Digitalisierung und Automatisierung der Arbeitswelt macht vielen Arbeitnehmern Angst. Schließlich übernehmen Maschinen inzwischen viele Arbeiten und führen sie häufig sogar schneller und präziser aus als menschliche Mitarbeiter. Dennoch besteht kein Grund zur Panik: Durch die Digitalisierung entstehen auch neue Tätigkeitsfelder. So werden laut einem Bericht des Weltwirtschaftsforums (World Economic Forum) 65 Prozent der Kinder von heute später einmal in Berufen arbeiten, die heute noch gar nicht existieren[1].

 

Herausforderungen für Unternehmen und Mitarbeiter

Die Arbeitswelt befindet sich also in einem starken Wandel, in dem die Digitalisierung traditionelle Berufe und Aufgaben neu definiert und uns vor Augen führt, dass auch wir uns weiterentwickeln müssen. Daneben stellt die demografische Entwicklung, speziell die sinkende Anzahl der erwerbsfähigen Personen, Unternehmen vor neue Herausforderungen. Der in vielen Bereichen herrschende Fachkräftemangel und dadurch ausgelöste „War for Talents“ wird durch diese Entwicklung zusätzlich verschärft.

Gleichzeitig verändern sich mit dem technischen Fortschritt die Ansprüche der Mitarbeiter an ihren Arbeitsplatz. Menschen der Generation Y – die zwischen 1980 und 1999 geboren wurden – haben andere Anforderungen als die Generation X: Statt Prestige und Geld ist ihnen vor allem Spaß an der Arbeit und Selbstverwirklichung wichtig. Hinzu kommen eine ausgeglichene Work-Life-Balance und Flexibilität.

Smarte digitale Tools sind für sie selbstverständlich.
Laut einer aktuellen YouGov-Umfrage[2] im Auftrag unseres Unternehmens fordern Büro-Angestellte eine Abkehr von Schreibtisch-gebundener Kommunikationstechnologie wie „dumb phones“:

Statt Büro-Telefone, mit denen sie nur Anrufe tätigen können, wünschen sie sich smarte Mobil- und Cloudtechnologie, um auch außerhalb des Büros effizient arbeiten zu können. Generation Z, die noch mehr als Generation Y die „Digital Natives“ verkörpert, wird diesen Trend noch verstärken.

 

Der Arbeitsplatz der neuen Generation(en)

Im Kampf um die besten Mitarbeiter können es sich Unternehmen nicht erlauben, die Ansprüche der neuen Generationen zu ignorieren. Sie erfordern ein neues Arbeitsumfeld mit modernster technischer Ausstattung, einer umfassenden Sicherheitsstrategie, die auch Mobilgeräte abdeckt, und alternativen Raumkonzepten. Hier geht der Trendweg von festen Arbeitsplätzen und hin zu flexiblen Arbeitsbereichen, die unterschiedlichen Anforderungen gerecht werden.
Mitarbeiter wählen dann jeweils das für ihr Projekt oder ihre Aufgabe am besten geeignete Arbeitsumfeld. So eignet sich das Raumkonzept „Picnic Table“ etwa für gemeinsames Brainstorming oder Teamwork, während Räume nach dem „Library-Konzept“ selbständiges, konzentriertes und ungestörtes Arbeiten ermöglichen.

Im Spannungsfeld zwischen Digitalisierung, Globalisierung und demografischem Wandel wird der Arbeitsplatz der Zukunft immer stärker von Mobilität geprägt sein. Mitarbeiter an verschiedenen Standorten und in wechselnden Teams zu beschäftigen funktioniert jedoch nur, wenn Unternehmen ihren Angestellten mittels moderner Kommunikationslösungen ortsunabhängigen, sicheren Zugriff auf das Firmennetzwerk bieten.
So können Mitarbeiter zum Beispiel per Videokonferenz über Zeitzonen und Ländergrenzen hinweg auf Knopfdruck virtuell zusammenarbeiten. Dank dieser „sozialen Mobilität“ ist physische Mobilität immer seltener nötig und Zeitzonen und Ländergrenzen spielen am Arbeitsplatz der Zukunft keine Rolle mehr.

Die Überwindung von Grenzen geschieht zunehmend auch zwischen Unternehmensabteilungen: Zwar sind die Bereiche Contact Center (CC) und Unified Communication (UC) räumlich und technisch häufig noch getrennt, doch im Zuge der Digitalisierung zerfließen die Grenzen zunehmend. Durch Kommunikationssysteme, die UC und CC integrieren und speziell auf die Bedürfnisse der Anwender zugeschnitten sind, werden Mitarbeiter in Zukunft über alle Medienkanäle effizient untereinander, mit Kunden oder mit externen Dienstleistern kommunizieren können.

 

Virtuelle Zusammenarbeit als neuer Maßstab

Die Vorteile von Videokommunikation gegenüber reiner E-Mail-Kommunikation belegte das Fraunhofer-Institut sogar in einer Untersuchung. Die Studie „Virtuelle Teams. Kollaboration auf Distanz mit und ohne Video im Vergleich“ zeigte, dass Videokommunikation zu stärkerem Engagement und einer besseren Arbeitsatmosphäre führt.

Auch der Messenger nimmt bei der Zusammenarbeit eine immer wichtigere Rolle ein. Mit ihm lassen sich kleinere Angelegenheiten schnell klären oder Dateien austauschen und die Statusanzeige weist stets darauf hin, ob Kollegen aktuell verfügbar oder in Meetings sind.

Virtuelle Kommunikation eignet sich aber auch für die Zusammenarbeit mit externen Dienstleistern. Dank verschiedener Rollenkonzepte und individuell festlegbaren Zugriffsrechten kann bei virtuellen Collaboration-Tools sowohl für Gruppen wie auch Einzelpersonen genau definiert werden, wer welche Informationen lesen oder Dokumente bearbeiten darf.

Unterstützt durch künstliche Intelligenz (KI) werden Kommunikationslösungen bestimmte Arbeitsprozesse bald noch effizienter gestalten. Auf der Textebene ist KI inzwischen relativ gut entwickelt – in einigen Unternehmen beantworten Chatbots bereits einfache Kundenanfragen – während sich der Sprachbereich derzeit noch deutlich schwieriger gestaltet.
Doch Apples Siri oder Amazons Alexa lassen schon jetzt erahnen, wie virtuelle Assistenten Menschen künftig bei der Arbeit unterstützen könnten, etwa bei der Buchung von Geschäftsreisen, der Suche nach oder dem Aufbereiten von Daten und Dokumenten.

 

Herausforderungen in Chancen verwandeln

Die Digitalisierung führt in der Tat zu tiefgreifenden Veränderungen am Arbeitsplatz und zwingt uns, unsere Rolle zu überdenken und uns weiterzuentwickeln. Aber mit den richtigen Mitteln lassen sich die Herausforderungen in Chancen verwandeln. Denn innovative und sichere Kommunikationslösungen ermöglichen uns, berufliche Pflichten künftig besser denn je mit unseren persönlichen Ansprüchen zu vereinbaren, Grenzen einzureißen und enger zusammenzuwachsen.

 

 

Über unseren Autor:

Wolfhart Krischke ist seit 2016 als Geschäftsleiter der Avaya Deutschland GmbH tätig und verfügt über umfangreiche und langjährige Erfahrungen im ITK-Umfeld. Nach Abschluss seines Studiums in Hamburg leitete Wolfhart Krischke als CCO von AMF internationale Telekommunikationsprojekte im europäischen und asiatischen Raum. Dabei konnte er umfangreiche Praxis- und Projekterfahrung gewinnen.

 

Seit mehr als 10 Jahren leitet er Unternehmen in Deutschland, darunter als Geschäftsführer von CosmoCom wie auch Enghouse Interactive. Vor seinem Engagement bei Avaya war Wolfhart Krischke Geschäftsleiter und Country Operations Leader bei Interactive Intelligence. Herr Krischke gilt als anerkannter Spezialist der ITK – und Cloudbranche und hat sich zum Ziel gesetzt, das Wachstum von Avaya in Deutschland voranzutreiben und die Präsenz auf dem deutschen Markt weiter auszubauen.

 

 

 

 

Bots – smarte Helferlein im Kundensupport

Mit der digitalen Transformation – dem Arbeitsplatz 4.0 – erleben wir einen Paradigmenwechsel in der Arbeitswelt. Mobile Arbeit und Home-Office Arbeitsplätze sind vielfach bereits selbstverständlich geworden. Die Welt wird bereits geprägt von Collaboration und wächst als großes Netzwerk immer mehr zusammen. Das hat auch Auswirkungen auf die Kommunikation: Kommende Generationen in der Arbeitswelt bevorzugen direkte Kommunikation, persönlich oder im Chat. E-Mail oder ein Anruf sind als erster Kontaktpunkt nahezu ausgestorben. Künstliche Intelligenz kann hier eine wertvolle Brücke schlagen.

Selbstfahrende Autos, Sprachassistenten oder mitdenkende Haushaltsgeräte – Künstliche Intelligenz erobert darüber hinaus nach und nach unseren Lebensraum. Aber auch im Arbeitsalltag finden die Roboterprogramme immer häufiger Anwendung. In der Fertigungsindustrie beispielsweise längst etabliert, erreichen die programmierbaren Helferlein nach und nach auch den Dienstleistungssektor – und finden zunehmend Akzeptanz bei den Endverbrauchern. So ergab eine Befragung des Digitalverbandes Bitkom vor wenigen Wochen, dass bereits jeder vierte Deutsche bereit sei, bei Servicefragen einen Chatbot zu nutzen. Für Unternehmen eröffnen sich große Chancen, ihren eigenen Kundensupport intern wie extern neu zu organisieren und dabei effizienter zu werden, ohne hohe Kosten erwarten zu müssen. Bots können wertvolle Dienste leisten und auch dafür sorgen, dass kleine und mittelständische Betriebe mit dem globalen Wettbewerb mithalten können.

Grundlage von Künstlicher Intelligenz sind Daten – Stichwort: „Big Data“. Daten, die wir Menschen oder auch Maschinen mit nahezu jeder digitalen Aktion hinterlassen und die, zusammengetragen und erfasst, ein unglaublich großes Wissen und Informationen bereithalten. Diese Datenberge auszuwerten und die wirklich relevanten Informationen zu filtern und direkt zu nutzen, ist für einen Menschen allein nahezu unmöglich. Hier unterstützen uns selbstlernende Algorithmen, linguistische Analysen und kognitive Services, die auf Basis von Mustern Daten sortieren und bereinigen und dem Menschen in der Interaktion mit Text oder Sprache zur Verfügung stellen. Dann sprechen wir von Künstlicher Intelligenz.

Bots als Erstanlaufstelle im First-Level-Support

Eine Vielzahl der Daten beinhaltet wichtige Informationen, die zur Weiterverarbeitung durch künstliche Intelligenz genutzt werden können. „Eh-Da-Daten“ die durch intelligente Verknüpfung von künstlicher Intelligenz eine weitere Aufbereitung in einem Bruchteil der sonst üblichen Zeit ermöglicht. Daraus erzeugen wir höherwertige Informationen, die dann wiederum beispielsweise über einen Bot dem Endkunden zur Verfügung gestellt werden kann. Unternehmen werden dadurch effektiver und schöpfen außerdem den vollen Wert aus ihren Datenbergen. Und das ist keineswegs nur ein Privileg für große Unternehmen, sondern lässt sich auch ganz einfach in die Kommunikationsstruktur von kleinen und mittelständischen Betrieben integrieren – zum Beispiel in den First-Level-Kundensupport.

Exemplarischer Chatveraluf mit einem Support-Bot

Heutzutage erwarten Kunden und Mitarbeiter umgehend Hilfe und Antworten. Diesem Wandel müssen auch Unternehmen gerecht werden und nicht einfach nur schnell Antworten bieten, sondern auch qualitativen Input – und zwar dort, wo sich der Fragesteller am liebsten aufhält. Der User kontaktiert also auf einer Webseite, oder in Skype integriert, einen Bot per Chat. Die Hemmschwelle, so in einen direkten Kontakt zu treten, ist enorm niedrig. Der Bot wiederum aggregiert in Sekundenschnelle alle ihm intern verfügbaren Wissensressourcen und liefert die passende Antwort auf die gestellte Frage. Sollte der Bot an einem Punkt nicht weiterhelfen können, wird der User direkt zu einem Agenten im Kundenservice weitergeleitet. 

Höhere Effizienz, reduzierte Kosten & schnelle Abwicklung

  • Schnellere Abwicklung – Anfragende Personen verweilen in keiner Warteschlange und die Supportanfrage startet sofort
  • Umfassende Hilfe – Der Bot gibt automatisiert eine umfassende Hilfestellung und leitet bei Bedarf direkt an einen Agenten aus dem Support-Team weiter
  • Kontinuierliche Weiterentwicklung – Kundenanfragen, die der Bot nicht beantwortet, werden kontinuierlich in die Datenbank eingearbeitet
  • Reduzierte Kosten & höhere Effizienz – Standard-Anfragen wickelt der Bot ab; Agenten werden nur für Spezialanfragen hinzugezogen (Ressourcenschonung)

Die technische Infrastruktur hinter dem Bot – einfach & schnell implementiert

Das Microsoft Bot Framework bietet Tools und Services, die beim Erstellen, Bereitstellen und Veröffentlichen von Bots helfen – etwa das Bot Builder Software Entwicklungs-Tool, das Entwickler-Portal und die Bot-Konnektoren. Das Bot Framework unterstützt zusätzlich mit sogenannten Channels als Schnittstelle zwischen dem Bot und dem Benutzer. User können die Kommunikation zum Bot in jedem Channel starten (z.B. E-Mail, Facebook, Skype, Microsoft Teams oder SMS) und müssen die Kommunikationsplattform, auf der sie sich aktuell befinden, gar nicht erst verlassen.

Bots lassen sich einfach implementieren und User können über diverse Kanäle die Kommunikation starten.

Darüber hinaus lassen sich die Vorteile der kognitiven Services von Microsoft nutzen, um intelligente Funktionen wie „Natural Language Understanding„ oder Bild- und Spracherkennung hinzuzufügen. Simultane Übersetzungen gelingen dank Cortana in Echtzeit ebenso wie das Erkennen nicht eindeutiger Fragestellungen durch linguistische Analysen. Das Schöne: Unternehmen müssen das Rad nicht neu erfinden, sondern können auf bereits bestehende Services wie Text-to-Speech / Speech-to-Text zurückgreifen.

Checkliste für Unternehmen – worauf es ankommt

Ein eigener, vollständig individualisierbarer Bot ist gar nicht so schwer zu realisieren. Wichtig sind eine gute Vorbereitung und Planung, in welchem Umfeld der Bot zum Einsatz kommen soll und welche Wissensressourcen dafür zur Verfügung gestellt werden müssen. Unternehmen sind gut beraten, sich hier für einen Partner zu entscheiden, der nicht nur die Programmierung des Bots anbietet, sondern auch die strategischen Vorüberlegungen sowie den nachgelagerten Prozess mit begleitet.

Wenn Sie sich mit dem Gedanken tragen, einen Bot einzusetzen, sollten Sie drei Phasen berücksichtigen:

  • Planung – um Ihr Bot-Potenzial herauszustellen und zu erarbeiten, in welche Umgebung Ihr Bot am besten passt
  • Umsetzung – die Entwicklung und Programmierung Ihres Bots sowie die Zusammenführung aller Wissensressourcen in einer internen Datenbank
  • Monitoring – das Sicherstellen nahtloser Betriebsabläufe sowie die kontinuierliche Wartung Ihres Bots

Über den Autor

Dietmar Kraume, technischer Leiter bei der UC Point GmbH, ist ein ausgewiesener Experte für IT- und Telekommunikation und seit mehr als 25 Jahren in der Branche zu Hause. Unified Communications und Collaborations, Microsoft Cloud Lösungen sind ihm so vertraut wie die Straßenzüge seiner Kölner Heimat. Unter seinen beruflichen Stationen finden sich Unternehmen wie BORGWARE GmbH, Hewlett Packard, webcall Deutschland GmbH oder CREALOGIX Unified Communications GmbH. Bei UC Point kümmert sich Dietmar Kraume bereits seit mehr als sechs Jahren um die Produktsparte des Unternehmens, verantwortet den Presales-Bereich und ist immer auf der Suche nach den neuesten Kommunikations- und Collaborationstrends und Technologien der Zukunft.

 

Weiterführende Informationen

https://www.uc-point.com/de/global-lync-service/bot-technology/general

https://www.uc-point.com/de/global-lync-service/bot-technology/ucp-bot-services

https://www.uc-point.com/de/global-lync-service/bot-technology/how-it-works

 

Twitter: https://twitter.com/UC_Point

LinkedIn: https://de.linkedin.com/company/uc-point-gmbh

Xing: https://www.xing.com/companies/ucpointgmbh

 

Bildlizenzen: 

Aufmacherbild: kein Copyright (Public Domain)

Weitere Bilder und Grafiken: UC Point

 

 

Speed is key

3DSE Management Consultants hat eine Leitstudie zur Digitalisierung in Forschung und Entwicklung herausgebracht. Die TREND-REPORT-Redaktion sprach zu zentralen Ergebnissen und weiteren Fragestellungen mit den Geschäftsführen Dr. Schulz und Dr. Wenzel.

Herr Dr. Schulz, mit welchen digitalen Herausforderungen sieht sich die F&E in Zukunft konfrontiert?

Die erste Herausforderung ist, zu klären, was Digitalisierung eigentlich bedeutet. Unsere „Leitstudie zur Digitalisierung der F&E“ hat ergeben, dass jeder etwas anderes darunter versteht. Für Unternehmen ist es enorm wichtig, die Bedeutung für sich zu definieren. In unserer Studie haben wir fünf grundlegende Bestandteile herausgearbeitet, die für die meisten Unternehmen zutreffend sind. Wichtig ist es aber auch, eine digitale DNA im Unternehmen zu etablieren, also eine digitale Kultur, nach der alle im Unternehmen handeln – nicht nur der CDO.
Die zweite große Herausforderung für Unternehmen besteht darin, dass sie ihre Erfolgslogik teilweise verlassen müssen. Das, was sie bisher erfolgreich gemacht hat, müssen sie teilweise über Bord werfen, um sich den digitalen Grundprinzipien zu öffnen, sie zu verstehen und zu verankern, um dadurch neue Möglichkeiten erschließen zu können. Zu diesen Grundprinzipien gehört zum Beispiel „fail fast and learn“ – also scheitern ist gut, wenn es möglichst früh passiert und man daraus schnell lernt. Bisher ist es eher so, dass typisch ingenieurgetriebene Unternehmen versuchen alles durchzuplanen und es zur klassischen Erfolgslogik gehört, ohne detaillierten Plan erst gar nicht anzufangen. Jetzt gilt „problems are welcome“, weil sie erfolgreich machen,da man an ihnen lernen kann. Vor allem im Silicon Valley und anderen weltweiten Start-up Hubs wie Tel Aviv, Berlin oder Pittsburgh findet man mittlerweile diese Denkweise. Damit verbunden ist auch der dritte Herausforderungsaspekt, die Risikobereitschaft. Das heißt, vielleicht ohne klare Zielformulierung anzufangen und auch disruptiv zu denken, anstatt  alles erstmal mit einem detaillierten Businessplan hinterlegen zu wollen.

Der vierte Aspekt ist „Speed is key“ – also den Fokus auf Schnelligkeit zu legen. Dazu gehört auch die Erkenntnis, dass es besser ist mit 80% als Erster das Ziel zu erreichen, als mit 100% der Zweite zu sein. Insbesondere in einer immer weiter zunehmenden Plattformökonomie ist das oftmals der entscheidende Wettbewerbsvorteil. Das ist ein starker Wandel. Gerade im Internet entstehen Monopole, weil etwas als Erster gemacht wird und nicht, weil man alles 100% genau richtig gemacht hat. Es gilt die Produkte möglichst schnell auf den Markt zu bringen und dann kontinuierlich mit Updates und Upgrades für neue Features zu sorgen. Das ist für den deutschen Ingenieur, den Genius, der alles aus Erfahrung macht und „unkopierbar“ ist, natürlich schwer. Durch die Möglichkeiten digitaler Technologien im Hinblick auf die Automatisierung bei Prozessabläufen wirkt die Digitalisierung selbst als Emulator.

Die letzte Herausforderung besteht darin, das Kundenproblem ins Zentrum zu stellen. Es gilt vom Kunden her zu agieren und sich nicht einfach darauf zu verlassen, dass er die Produkte schon kaufen wird, da diese immer schon für Qualität standen. Die neuen Möglichkeiten im Bereich Datensammlung und Auswertung sind hilfreich für ein besseres Kundenverständnis und die Entwicklung innovativer Produkte. Stetig neue Features halten das Produkt für den Kunden dann attraktiv. Im Hinblick auf die Kundenbindung hilft es auch, die Produkte in Zukunft sehr viel stärker in Richtung Plattformen bzw. Ökosysteme zu entwickeln. Durch entstehende Wechselwirkungen kann so eine viel stärke Kundenbindung- und Loyalität erreicht werden.

Webinare mit exklusiven Einblicken in die neue Leitstudie zur Digitalisierung der F&E veranstaltet 3DSE am Do, 13. Juli, 10:30 – 11:15 Uhr oder Mi, 19. Juli, 10:30 – 11:15 Uhr.

 

Helfen sie dabei, digitale Ökosysteme für Unternehmen zu ergründen und aufzubauen?

Ja! Die Herausforderung besteht hier darin, dass Unternehmen über die Grenzen des eigenen Produktes hinwegdenken müssen. Bei der Entwicklung eines Bürostuhls etwa kann mittels Sensoren Technologie integriert werden, die weit über das „Prinzip Stuhl“ hinausgeht. Die konkrete Anwendung der Sensoren am Markt steht da noch gar nicht fest. Es gilt zu überlegen, was um den Stuhl herum zusätzlich angeboten werden kann. Daraus entstehen dann weitere Fragestellungen: Was für eine Cloud brauche ich dafür? Welche Art von Services biete ich an? Warum sollte sich der Kunde bei mir registrieren? Es muss in ganz anderer Art und Weise über das Produkt, das Geschäft, den Kunden und über das Leistungsangebot, das ich diesem unterbreite, nachgedacht werden. Das ist eine Aufgabe, bei der die deutsche Industrie noch vor großen Herausforderungen steht, weil sie aus der Historie heraus sehr stark produktgeprägt ist.

Herr Dr. Wenzel ergänzend: Dabei ist es wichtig auch die Anforderungen des Kunden zu ermitteln, die dieser heute selbst noch gar nicht formulieren kann. Wir nennen das „latente Anforderungen“ oder „Excitement Anforderungen“. Das iPhone ist hier ein gutes Beispiel. Das neu gebildete Ökosystem mit Apps, der einfachen Nutzung und Installation und die GUI beantwortete Kundenbedürfnisse, welche die Kunden zu diesem Zeitpunkt noch gar nicht kannten. Die Entwickler hatten diese antizipiert und damit einen Bedarf geweckt. Diese latenten Anforderungen – hier kann man die Kunden nicht fragen, was ihnen wichtig ist – muss man systematisch herleiten. Hierfür haben wir einige Prozesse und Möglichkeiten, um das umzusetzen.

 

Dr. Schulz (li.) und Dr. Wenzel plädieren für ein neues "Digitalisierungsverständnis". Digitalisierung darf nicht das Ziel sein, vielmehr ist sie der Weg; denn Digitalisierung eröffnet den Unternehmen neue Möglichkeiten auf dem Weg zum Ziel, den Endkunden mit neuen Services zu adressieren.

Dr. Schulz (li.) und Dr. Wenzel helfen Unternehmen beim Aufbau digitaler Ökosysteme.

Herr Dr. Wenzel, wie kann man die F&E im spezifischen Kontext des jeweiligen Unternehmens systematisch digitalisieren?

Man muss die Abläufe betrachten und klären, wo durch  digitale Technologien Potenziale gehoben werden können: Zum Beispiel durch Automatisierung, wobei manuelle Schnittstellen und Schritte entfallen, oder indem datenbasiert bisher subjektive Entscheidungen einer sehr viel stärkeren Faktenorientierung unterzogen werden. Es gilt also zu klären, wo ich das größte Potenzial habe, aber auch, wo ich eine schnelle Wirkung erzielen kann. Diese Bereiche müssen zuerst angegangen werden. Parallel dazu muss man im Blick haben, wo ein sehr starker „Befähigungsaufwand“ betrieben werden muss. Hier hat man zwar nicht unbedingt schnelle Effekte, aber aufgrund  langer Vorlaufzeiten muss schon sehr frühzeitig investiert werden, um die benötigte Fähigkeit rechtzeitig zu haben. Entscheidend dabei ist, dass man nicht einfach die bestehende Landschaft im Unternehmen hernimmt und auf „digital trimmt“. Ich muss hier vom Grund ausgehen und das Gesamtbild betrachten. Was würde ich grundlegend mit welchen digitalen Technologien anders machen? Böswillig ausgedrückt: Wenn ich einen schlechten Prozess habe und den digitalisiere, dann ist das immer noch ein schlechter Prozess. Er ist dann vielleicht wahnsinnig schnell und automatisiert, aber es bleibt trotzdem ein schlechter Prozess.

Herr Dr. Schulz, welche „Archetypen“ konnten Sie im Kontext Ihrer Studie ausmachen?
Wir haben vier Archetypen ausgemacht. Der Abwartende, der beobachtet und schaut wie sich das ganze Thema entwickelt und dann nachfolgt. Der Fokussierte, der schon Erfahrung gesammelt hat und eine klare Richtung einschlagen möchte, der das Ganze strategisch, schrittweise und sauber umsetzten will. Der Mutige, der mit wenig Erfahrung, aber dafür mit Mut einfach loslegt und probiert.
Der Selbstbewusste, der die digitale Speerspitze bildet, also beim Thema Digitalisierung schon ganz vorne mit dabei ist. Er will seinen Vorsprung einfach weiter ausbauen.

Vier Archetypen von Unternehmen im Bezug zur Digitalisierung der F&E

Welcher Unternehmenstyp hat es am einfachsten, die Möglichkeiten der digitalen Transformation zu adaptieren?

Nach meiner Einschätzung der Mutige und der Selbstbewusste, weil beide eben relativ schnell sind und sich auf das Spiel einlassen. Der Fokussierte hingegen muss aufpassen, dass er nicht in seiner Strategie hängen bleibt und zu viel plant.

Inwieweit können neue Technologien die F&E Bereiche unterstützen und welche Sicherheitsstandards müssen eingehalten werden?

Das Thema Sicherheit ist enorm wichtig. Hier reden wir von zwei Dimensionen: Zum einen, vom Schutz der eigenen IT- Infrastruktur, mit der man arbeitet, zum anderen vom Schutz der Produkte die man anbietet. Denken wir beispielsweise an das Thema „Autonomes Fahren“: ein Schutz des Produktes vor unbefugtem Zugriff von außen ist unter Umständen überlebensnotwendig. Hier kann die ISO 27008 – ein relativ neuer Standard –  ein Stück weit Orientierung bieten. Wichtig ist, dass man sich immer wieder regelmäßig selbst hinterfragt. Bin ich, ist mein Unternehmen, IT-sicherheitstechnisch noch auf der Höhe der Zeit? Denn auch Standards müssen sich konsequent weiterentwickeln. Teilweise muss man hier sogar schneller als die Standards sein, da sich auch die Technologien, die von potenziellen Angreifern eingesetzt werden, weiterentwickeln. Man kann sich nie zu 100 Prozent sicher sein und muss versuchen, immer auf dem letzten Stand der Sicherheitstechnik zu sein. Nur so ist man maximal gewappnet.
Das in den letzten Wochen aktuelle Thema „WannaCry“ ließ erkennen, wie angreifbar die digitale Welt nach wie vor ist. Dadurch wurden viele aufgeweckt und das notwendige Umdenken wurde weiter „befeuert“. Die Maxime lautet, konsequentes Handeln und Orientierung an existierenden Standards, die weiterentwickelt werden.

Die entscheidende Frage ist allerdings, wie Unternehmen feststellen können, welche Schwachstellen in ihren eingesetzten Programmen sind. Hilft hier ein Vulnerability Management? Die Lösung könnte darin bestehen, sein eigener Disruptor zu sein. Beim Thema IT-Sicherheit bedeutet das, dass ich mich selbst angreife und auch auf die ungewöhnlichsten Wege eingehe, um Schwachstellen und Lücken zu finden. Dies wird auch für mein eigenes Verständnis eine große Bereicherung. Ich setze mich selbst einem Stresstest aus und finde Lücken, bevor dies einem anderen gelingt. Man muss um die Ecke denken! Konkret heißt das, Unternehmen sollten Hacker beauftragen, sie anzugreifen.

Wie können die wettbewerbsentscheidenden Trends früher erkannt und erschlossen werden?

Damit das gelingt, müssen Unternehmen viel breiter „screenen“ als in der Vergangenheit. Bisher haben Unternehmen sehr viel darauf geachtet, was die eigene Branche, der Kernwettbewerb, macht. Gerade disruptive Bedrohungen kommen jedoch nicht aus der eigenen Branche, sondern von Unternehmen, die man so nicht auf dem Radar hat. Hier muss man gewissermaßen an der eigenen Disruption arbeiten, um zu erkennen, in welchen Bereichen Bedrohungen liegen könnten. Diese Bereiche kann man dann nach potenziellen Wettbewerbern, potenziellen „Disruptoren“, durchsuchen. Nach der Auffindung eines Disruptors stellt sich die Frage, ob dieser eine Gefahr für mich darstellt, oder ob ich mich gar an ihm beteiligen sollte? Vielleicht ist es sinnvoller eine Partnerschaft, eine Kooperation, einzugehen, anstatt in Konkurrenz zu treten?
Wenn ich mein eigener Disruptor bin, muss ich mich vor fremden Disruptoren nicht fürchten. Durch dieses „sich selber in Frage stellen und Suchen nach der eigenen Disruption“ finde ich die Trends, die für die Zukunft wirklich entscheidend sein könnten.

Herr Dr. Wenzel, welche Haupterkenntnis förderte Ihre aktuelle „Leitstudie Digitalisierung“ zutage?

Das Thema Digitalisierung ist im Sprachgebrauch stark von der Netzwerk-Ökonomie, die den Markt doch deutlich verändert, geprägt. Wir glauben, die entscheidende Frage in Deutschland wird sein: Wie können erfolgreiche, klassische Technologieunternehmen mit der Digitalisierung und deren Auswirkung umgehen und daraus einen Wettbewerbsvorteil ziehen? Dazu haben wir neun Erkenntnisse abgeleitet, die, wenn man sie im Einzelnen betrachtet, den Unternehmen helfen, diesen Wandel gut zu vollziehen und daraus Profit zu schlagen.

Weitere Informationen unter:
www.3dse.de

Weitere Infos speziell zur Leitstudie und den Webinaren:
http://fue-leitstudie.de/

 

 

 

 

Erfolgreiches Commerce benötigt hohe Datenqualität

Gastautor: Matthias Kant, Geschäftsführer der pirobase imperia GmbH

 

Verzahnung von Content-Management und Product-Information-Management schafft Wettbewerbsvorteile im Online Marketing

Ob im Handel, der Industrie, dem Gesundheitswesen oder dem öffentlichen Sektor – alle Branchen arbeiten im Zuge der digitalen Transformation mit großen Mengen heterogener Daten. Zukunftstechnologien wie Industrie 4.0 oder Smart City funktionieren nur mit Big Data, doch diese Informationen müssen auch händelbar bleiben und stets dem aktuellen Stand entsprechen.

Sowohl das Onlinemarketing von Herstellern und Handel, die automatisierten Prozesse von Werkstücken durch den Produktionsablauf oder die automatische Anpassung der öffentlichen Verkehrslinien für einen optimierten Verkehrsfluss benötigen immer aktuelle Datenin hoher Qualität.

Hier treten im operativen Alltag aufgrund von schlechten Informationen erhebliche Probleme auf. Im Gesundheitswesen erschweren Daten, die zum Teil nur unstrukturiert in Form von manuell geschriebenen Arztbriefen und Rezepten vorliegen, eine umfassende Patientenversorgung. Aufgrund manueller Datenverarbeitung treten Fehler in der Arzneimittelproduktion oder auf dem Beipackzettel auf.

Im Handel können fehlende Informationen sowie schlechte Zielgruppenansprachen die Absatzzahlen nach unten treiben. Zudem ist der Bedarf an Norm-Daten in der Branche hoch, da durch nicht standardisierte Informationen Mehrkosten innerhalb der Lieferkette, also für Distributoren und Hersteller, entstehen.
Sie schränken reibungslose Planungs-, Produktions- und Vertriebsprozesse ein und stellen einen hohen Verwaltungsaufwand dar.

Produktdaten beeinflussen Absatz

Laut GS1 Germany werden mehr als 70 Prozent der Kaufentscheidungen durch Informationen aus dem Internet beeinflusst. Vor der Kaufentscheidung suchen Interessierte nach Details zu Produkten oder Dienstleistungen, um zum Beispiel Angebote zu vergleichen. Finden potenzielle Kunden jedoch keine verlässlichen Informationen, entscheiden sie sich gegen einen Kauf, da sie dem Produkt, der Dienstleistung oder der Institution nicht vertrauen.

Detaillierte und genaue Informationen verbessern hingegen die positive Wahrnehmung von Produkten, Dienstleistungen oder Institutionen. Durch die Sichtbarkeit von Informationen im Web erzielen Unternehmen oder Einrichtungen ein höheres Ranking bei der Internetrecherche, wodurch sich der Zulauf der Online-Präsenzen steigern lässt. Strukturierte Informationen helfen Suchmaschinen mehr relevante Ergebnisse zu finden und erhöhen die Klickraten. GS1 Smart Search bietet hierfür einen Standard, der mit einem Konsortium aus Google, Bing, Yahoo und Yandex abgestimmt ist.
Mit Hilfe eines Product-Information-Management(PIM)-Systems werden  Produktdaten mit den von Suchmaschinen gewünschten Metainformationen angereichert.

PIM-Systeme für bessere Datenqualität

Bei der einfachen Abbildung komplexer Produktdaten sowie deren Zusammenstellung und Pflege unterstützen moderne PIM-Systeme, die sich flexibel mit anderen Systemen verbinden lassen. Sie ermöglichen durch automatisierte Aktualisierung, Ausspielung und Verwaltung auch komplexe Big-Data-Strukturen zu verwalten. Strategisch ist ein PIM-System notwendig, wenn Unternehmen internationale Expansionen in stationären Kanälen oder Online-Kanälen anstreben, denn sie ermöglichen Qualitätsverbesserungen, Vereinfachungen und Zeitersparnis.

Bei mehreren Standorten oder Vertriebskanälen müssen Mitarbeiter und Kunden auf einheitliche Daten zugreifen, international agierende Unternehmen benötigen ein multilinguales User Interface (UI). Grundsätzlich basieren die Vorteile bei der Verwendung eines PIM-Systems darauf, dass die Produktdaten, sobald sie einmal elektronisch im Gesamtsystem vorhanden sind, sich ohne Medienbruch weiterverarbeiten lassen.

Verzahnung von PIM und CMS

Um die Vorteile validierter PIM-Daten an unterschiedlichen Touch Points verfügbar zu machen, hat pirobase imperia mit pirobase COMMERCE eine Kombination von PIM und Content Management System (CMS) entwickelt. Mit dieser Verzahnung erweitern Marketingmanager validierte Produktdaten aus dem PIM um emotionalen Content. Dadurch ergeben sich eine wesentlich höhere Datenqualität und eine bessere Nutzererfahrung, wenn Produktinformationen für Webseiten, Onlineshops, Kataloge und andere Kanäle bereitgestellt werden.

Nutzer erhalten über diese Digitale Business Engine valide Produktinformationen nicht nur auf Websites, sondern auch über Tablets, Apps, Social Media oderüber GS1 Data bei vielen Händlern.
Individuelle Botschaften, die zielgerichtet mit passenden Informationen beim Kunden an allen relevanten Touch Points ankommen, lassen sich so über Omni-Channel-Marketing schnell, topaktuell und konsistent verbreiten.

Pirobase COMMERCE greift auf Produktdaten, die in pirobase imperia PIM vorliegen, sowie auf Online Content aus dem CMS zu. Diese Daten sind validiert, haben also eine hohe Qualität. Sie lassen sich aus dem PIM auch in einen E-Katalog im PDF-Format exportieren oder in Print-Formate ausleiten.

Im CMS verwenden Anwender diese für personalisierte User Experience. Die Informationen lassen sich auch in Webseiten oder Apps integrieren, sodass Kunden auf allen Kanälen jederzeit aktuelle Informationen finden. Validierte Produktdaten aus dem PIM geben Unternehmendie Sicherheit, dass Kunden immer die richtigen und aktuellen Produktinformationen sehen.

Da Produktdaten, Dienstleistungen oder Termine in Echtzeit synchronisiert werden, können Unternehmen einfach und schnell Promotion-Aktionen planen und umsetzen.
Für schnellen und stabilen Zugriff auf Produktdaten arbeitet die moderne Kombination mit Elasticsearch.

 

Autor

Matthias Kant, Geschäftsführer der pirobase imperia GmbH / © pirobase imperia

 

 

 

 

 

 

 

 

 

 

Kurzporträt

Als Softwareanbieter für Content Management und Produktinformationsmanagement mit über 20 Jahren Erfahrung bietet die pirobase imperia GmbH innovative Lösungen für Enterprise, Mittelstand und öffentliche Institutionen mit umfangreichen Serviceleistungen aus einer Hand.

Dabei versteht sich das Unternehen als strategischer Partner zur Verwaltung von Content in komplexen Unternehmensumgebungen mit hoher Designkompetenz, um Informationen und Inhalte im E-Business, E-Commerce und Cross-Channel schnittstellenübergreifend für alle denkbaren Absatzkanäle zur Verfügung zu stellen. Mit pirobase CMS und pirobase imperia PIM für Enterprise deckt das Unternehmen den kompletten Bereich der Digitalisierung, Aktualisierung und Archivierung sämtlicher Geschäfts- und Kommunikationsprozesse effektiv und zukunftssicher sowohl intern als auch extern ab. Gleiches gilt für Mittelständler und den öffentlichen Sektor, für die der Entwickler mit imperia CMS eine Lösung anbietet, die im Public Sector die Marktführerposition innehat. Mit pirobase Commerce hat pirobase imperia zudem eine starke Kombination von CMS und PIM geschaffen und ist damit aktuell der einzige Anbieter am Markt.

 

Weiterführende Informationen:

pirobase imperia GmbH

 

Aufmacher / Lizenz / Quelle

By Borys Kozielski (Own work) CC BY 4.0 , via Wikimedia Commons

Micro-Virtualisierung gegen Cyber-Bedrohungen

Antiviren-Software und Firewalls können nicht zuverlässig schützen

Die Redaktion sprach mit Jochen Koehler, Regional Director DACH bei Bromium über neue software-technische Ansätze gegen Cyber-Bedrohungen.

Herr Koehler, bitte erklären Sie uns kurz das Konzept „Micro-Virtualisierung“?

In einem Satz: Micro-Virtualisierung ist die Isolation von gefährlichen Vorgängen weg vom eigentlichen Client-Betriebssystem.

Gängige Sicherheitslösungen wie Intrusion-Prevention-Systeme, Antiviren-Software oder Next-Generation-Firewalls fokussieren hingegen auf die Detektion von Angriffen, beispielsweise unter Nutzung von Signaturen, Verhaltensanalysen oder heuristischen Methoden. Attacken aufzuspüren und dann innerhalb des Betriebssystems zu blockieren, um einen Zugriff auf Systemressourcen zu unterbinden, ist State-of-the-Art bei Softwarelösungen zur Sicherung von Endpunkten.

All diese Anwendungen haben aber einen gravierenden Nachteil:
Sie können keinen zuverlässigen Schutz vor der wachsenden Anzahl an polymorphen Cyber-Bedrohungen, Zero-Day-Attacken und Advanced Persistent Threats bieten. Der Grund ist klar, denn diese Lösungen sind auf die Erkennung von Schadsoftware angewiesen und bei neuer Malware stoßen sie prinzipbedingt an ihre Grenzen.

Bromium setzt deshalb auf einen anderen Lösungsansatz.
Die zentrale Idee dahinter ist, dass nicht die Detektion von Schadcode oder das Aufspüren von Angriffen im Vordergrund steht, sondern der gezielte Schutz vor Malware, die zudem nicht zwingend als solche erkannt werden muss.

Realisiert wird dies durch die Isolierung aller potenziell gefährlichen Aktivitäten.
Zentrale Bestandteile der Lösung sind ein speziell im Hinblick auf Sicherheit entwickelter Hypervisor und die integrierten Virtualisierungsfeatures aller aktuellen CPU-Generationen. Eine hohe Sicherheit ist gerade durch die Hardware-Virtualisierung gewährleistet, denn eine CPU-Kompromittierung wäre für einen potenziellen Angreifer mit einem beträchtlichen Aufwand verbunden.

Können Sie die Funktionsweise ihrer Lösung kurz skizzieren?

Bei der Bromium-Lösung werden Hardware-isolierte Micro-VMs für alle Anwenderaktivitäten mit Daten aus unbekannten Quellen erzeugt. Solche potenziell gefährlichen Anwenderaktivitäten können etwa das Aufrufen einer Webseite, das Downloaden eines Dokuments, das Öffnen eines E-Mail-Anhangs oder der Zugriff auf die Daten eines portablen Speichermediums sein. Jeder einzelne Task läuft dabei in einer eigenen Micro-VM und zwar strikt getrennt voneinander, vom eigentlichen Betriebssystem und vom verbundenen Netzwerk.

Konkret heißt das, dass alle einzelnen – auch mit nur einer Applikation verbundenen – Aktivitäten voneinander isoliert werden, zum Beispiel unterschiedliche Seitenaufrufe in einem Browser oder das Öffnen verschiedener Dokumente mit Word, Excel, Powerpoint oder anderen Anwendungen. Damit wird zuverlässig verhindert, dass sich Schadprogramme ausbreiten.
Eine Kompromittierung des Endpunkts und letztlich des Unternehmensnetzes über einen dieser Angriffswege ist damit gänzlich ausgeschlossen.

Führt ihre Lösung nicht zu einer Beeinträchtigung der Performance?

Nein, die Lösung bietet Sicherheit ohne Beeinträchtigung des Benutzerkomforts. Die Lösung läuft für den einzelnen Anwender vollständig im Hintergrund, ohne dass er dabei Einschränkungen hinsichtlich Benutzerkomfort oder Systemperformance hat.
Bei den heutigen Rechnergenerationen erfolgt das Laden einer Micro-VM in rund 20 Millisekunden und damit für den Endanwender kaum „spürbar“. Die minimalen Systemanforderungen liegen bei 4 GB Arbeitsspeicher für die einzelnen Client-Rechner.

Wie integrieren Sie bei Ihren Kunden Ihre Lösung in die vorhandene Infrastruktur?

Bei der Implementierung gibt es keine besonderen Anforderungen. Letztlich kann die Lösung wie jede andere Desktop-Komponente behandelt werden, da sie als Standard-MSI (Microsoft Windows Installer)-Paketierungslösung bereitgestellt wird. Der Rollout der Lösung kann etwa auch problemlos mit vorhandenen Softwareverteilungssystemen wie Microsoft SCCM (System Center Configuration Manager) erfolgen.

In einem zweiten Schritt ist eine Anbindung an zentrale Policy-Management-Lösungen nahtlos möglich; dabei können zum Beispiel Verzeichnisdienste wie das Microsoft Active Directory genutzt werden. Letzter Implementierungsschritt ist dann die Anbindung der Bromium-Lösung an das zentrale Security-Monitoring, das heißt an vorhandene SIEM (Security Information and Event Management)-Systeme.

Können Sie uns einen Ausblick geben, wie sich Ihre Technologie entwickeln wird?

Generell gehen wir davon aus, dass im Bereich Sicherheit die Virtualisierung das beherrschende Thema der nahen Zukunft sein wird.
Prominentes Beispiel dafür ist Microsoft. Das Unternehmen bietet bei der Enterprise-Edition des aktuellen Betriebssystems Windows 10 den Device Guard an, der Hardware- und Softwaresicherheitsfeatures miteinander kombiniert.

Zentrale Komponente ist dabei die Virtualization-Based Security (VBS).
Damit werden zentrale Betriebssystem-Services isoliert, so dass im Falle einer Kompromittierung des Betriebssystems kein Diebstahl von unternehmenskritischen Daten erfolgen kann.
Zudem beabsichtigt Microsoft auch bei seinem Browser Edge auf Virtualisierung zu setzen. So soll künftig die Option bestehen, den Browser in einer eigenen virtuellen Maschine auszuführen.

Ein weiteres Beispiel für den zunehmenden Virtualisierungstrend sind virtuelle „Surfumgebungen“, dass heißt Lösungen, die auf einem getrennten dedizierten Webbrowser basieren.

Auch Bromium wird den eingeschlagenen Virtualisierungsweg weitergehen.
Die Richtung lautet „Isolation von kompletten Applikationen mittels Micro-Virtualisierung“. Damit können dann sensible Anwendungen umfassend und wirksam geschützt werden.

Die Einsatzszenarien dafür sind weitreichend. Denkbar sind klassische unternehmenskritische Applikationen wie Kernbankensysteme oder Bestandsführungssysteme von Versicherungen, aber auch neue Anwendungen im Umfeld des Internets der Dinge, etwa im Bereich Connected Car.

 

Vielen Dank, Herr Koehler!

 

Jochen Koehler, Regional Director DACH

Weiterführende Informationen:

Bromium

 

Aufmacher / Lizenz / Quelle

By Starkus01 (Own work) CC BY-SA 4.0 , via Wikimedia Commons

Versand ist mehr als nur Transport

Gastbeitrag:
Hannes Jagerhofer ermuntert Online-Shopbetreiber zum Versanddienstleister-Vergleich, denn es gibt immer noch eine klügere und günstigere Option.

Die Zukunft des Handels besteht nicht mehr aus der guten Lage der Geschäfte in einer Fußgängerzone, wie es noch vor 10 Jahren der Fall war. Zwar gibt es noch immer die schön dekorierten Läden in der Innenstadt, die sogenannten Flagship-Stores, für die es umso wichtiger ist, die perfekte Lage zu finden, doch sind sie nur das analoge Tor zur digitalen Welt. Ein Laden zu Werbezwecken und zum Ausprobieren. In seltenen Fällen auch zum Abholen vorbestellter Waren. Doch auf jeden Fall sind sie nur noch ein kleiner Bestandteil des viel wichtiger gewordenen E-Commerce Geschäftsfeldes und nicht umgekehrt.

 

Nicht erst seit dem Aufkommen von Amazon, gibt es einen eindeutigen Trend zum Onlineshopping. Das E-Commerce Geschäft boomt, die Paketdienste ächtzen unter der Last und die Innenstädte beklagen einen Rückgang im Einzelhandelsgeschäft. Der Trend kennt aber nur eine Richtung und ist nicht mehr umzukehren. Bei durchschnittlichen Wachstumsraten von 13 Prozent bis 2019 ist klar, wo die Reise hingeht.

Dass der E-Commerce dabei auf schlaue Logistiklösungen angewiesen ist, ist unumstritten. Doch vor allem kleine Shop Anbieter, die sich eventuell gerade erst mit ihrem Shop selbstständig gemacht haben, laufen Gefahr, wichtige Chancen zur Gewinnmaximierung zu verschlafen. Besonders im Bereich Versand, der ein unumgänglicher Baustein im digitalen Handelsgeschäft ist, gefährdet Unwissenheit die Existenz.

 

Die Konkurrenz ist groß

Im Onlinehandel liegt das Geld schon lange nicht mehr auf der Straße. Der Markt ist heiß umkämpft und die Margen schrumpfen, durch den harten Konkurrenzkampf, immer weiter. Daher müssen vor allem auch kleine Shops sehen, an welchen Schrauben sie noch drehen können. Preis und Geschwindigkeit sind die beiden ausschlaggebenden Faktoren im Online-Business. Nachdem die Kunden über den Preis auf die Seite gekommen sind, gilt es sie auch als Stammkunden zu etablieren. Ein weiterer Kauf hängt immer vom Erlebnis des ersten Kaufes ab.

Shops die hauptsächlich online agieren und ihre Waren über Versanddienstleister zu ihren Kunden verschicken, haben leider nur wenige Kontaktpunkte mit dem Kunden persönlich – ein großer Nachteil für die Kundenbindung. Daher ist der Versand häufig das Aushängeschild des Onlineshops, obwohl dieser von Dienstleistern übernommen wird. Deshalb ist es umso wichtiger, dass kleine und mittlere Shopbetreiber, die sogenannten SMEs, die Wichtigkeit des Versands erkennen.

Kleine Shops können beispielsweise beim Kunden punkten, wenn sie verschiedene Dienstleister für den Versand anbieten, da einige auch Wunschzustellungen oder Express Services anbieten. Häufig handeln die Unternehmer, die hinter den Shops stehen, nicht sehr unternehmerisch. Entweder die Wichtigkeit von Premium Optionen beim Versand oder die Einsparpotenziale werden entweder aus Bequemlichkeit nicht genutzt oder sind gar nicht bekannt.

Als Betreiber der Plattform checkrobin, einer Vergleichsplattform für Paketversand, sehen wir, dass Unternehmen unseren Service bisher erst zu 5% nutzen. Während unsere Nutzerzahlen im privaten Segment schnell steigen, trauen sich nur wenige Geschäfte einmal ihre Versandoptionen zu überprüfen. Dabei ist eigentlich jedem bewusst, dass es immer noch eine klügere und günstigere Option gibt.

 

Im Onlinehandel entscheidet jeder Cent über den Fortbestand

Schaut man sich die Margen der Onlineshops an, dann ist klar, dass der Preiskampf nur eine Richtung zulässt und die Gewinne im Einkauf und Versand zustande kommen müssen. Zu den Versandkosten kommen neben den Entgelten für die Dienstleister aber auch noch die fixen Kosten für Verpackung und Etikettierung, wie onlineshop basics gut aufgeschlüsselt hat. Sobald man sich aber für eine fixe Verpackungsart entschieden hat, gibt es nur noch Verhandlungsspielraum bei der Wahl des Paketdienstes.

Viele Betreiber fürchten sich dabei noch immer die DHL als Standard aufzugeben. Dabei gibt es neben der DHL, noch viele weitere Anbieter. Durch den einfachen Vergleich auf unserem Portal haben wir schon einige Privatpersonen dazu bewegen können ihre Pakete auch mit den “großen” Speditionen wie UPS oder DPD zu verschicken. Dabei sind diese im Vergleich zur DHL nicht einmal größer, nur der Ruf haftet ihnen an. Wovon Privatpersonen schon lange profitieren, davor sollten Unternehmen nicht die Augen verschließen, da sich die Auswirkungen für sie besonders bemerkbar machen – abhängig vom Versandvolumen.

 

Auch neue Kurierdienste wie Liefery und Tiramizoo bieten besondere Vorteile für Onlineshops, da sie sehr enge Lieferfenster anbieten und schnelle Kurier Lieferungen im urbanen Raum ermöglichen. Für Shops die ihre kleinen Margen sichern müssen bieten sich die Vorteile in der Ersparnis durch das Vergleichen von verschiedenen Anbietern, für Premiumshops hingegen bietet der Blick über den Tellerrand eine Verbesserung der Kundenfreundlichkeit. In beiden Fällen lohnt es sich, nicht einfach aus reiner Gewohnheit an einem Dienstleister festzuhalten. Besonders im Falle von Lieferungen ins Ausland unterscheiden sich die Preise und Leistungen häufig enorm. Kleine Onlineshops die sich auf einzelne, exquisite Produkte spezialisiert haben, sind hier gefordert. Nicht nur sind die Preise sehr unterschiedlich, sondern auch die Versicherungsbeträge können im Auslandsversand stark variieren. Wer schon einmal ein Paket in die USA verschicken wollte, weiß, wie kompliziert die Deklarierung sein kann.

 

Versand muss ein zentrales Thema sein

Naturgemäß ist der Kauf die erste Hürde, doch wenn diese genommen ist entscheidet das Versandmanagement darüber, ob der Kunde wiederkehrt oder es bei einer einmaligen Bestellung bleibt. Die Branchengrößen, wie Amazon oder Otto, haben schon erkannt, dass der Kunde an der Haustür überzeugt wird. Nicht umsonst bietet Amazon auch einen eigenen Kurierdienst in den größten Städten an. Damit kleinere Anbieter da mithalten können, sollten Sie den Versand nicht stiefmütterlich behandeln.

 

Unser Autor

Hannes Jagerhofer, Gründer der Vergleichsplattform checkrobin

Hannes Jagerhofer ist gebürtiger Österreicher aus Klagenfurt und Gründer der Vergleichsplattform für Paketdienste checkrobin, die als Mitfahrzentrale für Pakete – jetzt myrobin – schon 2012 in Österreich online ging und seit April 2017 um eine professionelle Preisvergleichsplattform in Deutschland erweitert wurde. Zuvor hat er die Flugsuchplattform checkfelix gegründet und 2011 erfolgreich an KAYAK verkauft. Neben seinem Sinn für innovative Startup-Ideen ist Jagerhofer begeisterter Sportler und organisiert seit 2015, in Kooperation mit RedBull, die internationale Swatch Beach Volleyball Major Series.

 

 

Weiterführende Informationen

checkrobin GmbH

Markenerlebnisse an allen Touchpoints

Trend Report im Gespräch mit Herrn Heiko Wilknitz, COO und Mitbegründer von ARITHNEA und Herrn Stefan Maack, Unit Manager Kreation bei ARITHNEA über Markenerlebnisse und Customer Experience im digitalen Zeitalter.

 

Herr Wilknitz, welche Möglichkeiten hält die Digitalisierung vor, um den Kunden besser kennenzulernen?

Eine Grundlage ist das veränderte Kunden-beziehungsweise Kommunikationsverhalten über die verschiedenen digitalen Kanäle. Das heißt, der Kunde von heute gibt viel mehr Informationen über sich selbst preis, seien es Bewegungsdaten oder indem er Soziale Medien nutzt. Zudem hat die Leistungsfähigkeit der Analysewerkzeuge massiv zugenommen, Stichwort BigData oder Data Driven Marketing.

Die entscheidende Frage ist jedoch: WER will WANN WAS und in WELCHER Form?
Aus den Antworten auf diese Frage und aus der Auswertung der erhobenen Daten ergibt sich ein enormes Potenzial hinsichtlich der Personalisierung und Optimierung der Kundenansprache. Dabei können der jeweilige Kanal und Kommunikationsweg mit eingebacht werden – zum Beispiel durch Bonusprogramme mit Cross-Channel-Ansatz  oder Community Building wie „Kunden helfen Kunden“.

Speziell durch die Verknüpfung der verschiedenen Informationen aus den unterschiedlichen Kanälen und deren Zusammenspiel kann der Kunde ganzheitlich abgeholt werden. Ein enormes Potenzial birgt darüber hinaus auch das Angebot zusätzlicher Leistungen und Services rund um das eigentliche Produkt. Unternehmen sollten die Kundenbeziehung ganzheitlich und strategisch angehen, so dass nach dem Kauf des Produktes die Kundenansprache nicht beendet ist, sondern der Kauf den Beginn einer längeren Kundenbeziehung darstellt.

Heiko Wilknitz, COO und Mitbegründer von ARITHNEA

 

Herr Maack, inwieweit lassen Location-based-Services die reale und virtuelle Welt verschmelzen?

Location-based Services bilden eine Schnittstelle zwischen der realen und der virtuellen Welt. Was interessiert mich? Wo finde ich es – jetzt?! Über mein Endgerät wird die reale Welt in meiner direkten Umgebung transparenter. Anders herum kann ein Online-Händler den Kunden nach seinem „Bummel“ nochmal spezifisch auf Produkte ansprechen, zum Beispiel auf jene, die ihn zuvor interessiert haben. Dabei darf der Mehrwert für den Nutzer nicht vergessen werden: Location-based Services bergen nämlich auch das Risiko, den Nutzer zu verprellen, etwa dann, wenn er mit zu vielen oder mit Nachrichten adressiert wird, die ihn nicht interessieren. Die Technik darf kein Selbstzweck sein, sondern sie muss dem Menschen dienen. Der Mensch muss im Mittelpunkt stehen und dies anhand der Angebote und Services auch merken,
Stichwort „Customer Centricity“.

Welche Customer Experience kann mit solchen Angeboten generiert werden?

Im Idealfall lässt sich mit einer durchdachten Customer Experience eine ganzheitliche, kontinuierliche und wertschöpfende Markenerfahrung für den Kunden generieren. Das wichtigste dabei ist, dieZielgruppe beziehungsweise den Kunden genau zu kennen, um eine positive Wahrnehmung zu erwirken. Das Standardprogramm reicht dafür schon lange nicht mehr. Das Geheimnis liegt darin, den Kunden konsequent in den Mittelpunkt seines Handelns zu stellen.

Herr Wilknitz, was raten Sie heute dem stationären und dem Online-Handel, um die Chancen der Digitalisierung zu nutzen?

Der Ausgangspunkt ist es, seine Kunden genau zu kennen und die Personalisierung zu leben. Das heißt, eine Analyse der Daten ist elementar, um gezielt passende Maßnahmen abzuleiten. Für den stationären Handel birgt die Digitalisierung natürlich Risiken, aber gleichzeitig auch enorme Chancen. Die Konkurrenz aus dem Online-Handel ist aus Sicht der reinen Bedarfsversorgung für den stationären Handel eine enorme Bedrohung und wahrscheinlich langfristig auch der Sieger. Man nehme hier nur die Entwicklung von Dash-Buttons oder von virtuellen Assistenten, die den „Standardeinkauf“ erledigen können. Auf der anderen Seite kann der stationäre Handel Produkte erlebbar machen und Services bieten, die online nur schwer abzubilden sind.

In Ladengeschäften können echte Erlebnisse geschaffen, Einkaufen zum Event unter Freunden und vor allem die Haptik hervor gehoben werden. Die Zauberformel heißt hier individuelle Beratung und Service. Durch den Einsatz moderner Technologien wie z.B. Tablets im Verkaufsraum bekommt der Verkäufer Zugriff auf weitergehende Kundeninformationen, zum Beispiel die Kaufhistorie, und kann so entsprechend den Vorlieben des Kunden diesen optimal beraten und persönliche Empfehlungen aus dem Gespräch direkt ableiten. So können Verkäufer in dem Moment nicht nur die Konfektionsgröße und die bevorzugte Farbe erfragen, sondern zusätzlich eine persönliche Stilberatung bieten, die auf den individuellen Farb- und Figurtyp des Kunden und seine Wünsche eingeht.
Ein weiteres Beispiel ist etwa, den Kunden vor Ort in 3D zu vermessen und dadurch direkt zu passenden Produktempfehlungen am Point of Sale zu leiten.

Auf der anderen Seite wird das Thema Markenerlebnisse auch online eine immer größere Rolle spielen. Es gibt heute schon Möglichkeiten, sein eigenes Bild hochzuladen, um das Aussehen von Kleidern, Frisuren oder Brillen individuell zu testen.
Gewinnen werden die Händler, die beides, Digitalisierung und Personalisierung, optimal miteinander verknüpfen.

Deshalb ist ein perfektes Zusammenspiel beider Welten für mich das Erfolgsrezept bei der Digitalisierung von morgen.

Herr Maack, wie kann die Wunschvorstellung „eine individuelle Betreuung am Point of Sale“ wahr werden?

Um eine tatsächlich individuelle Betreuung zu schaffen, bedarf es der Bereitstellung von individuellen Informationen an das Fachpersonal am Point of Sale. Es geht um ein silofreies, ganzheitliches digitales Ökosystem. Der Verkäufer, egal ob real oder als Avatar, ist dabei umfassend über die Präferenzen und Bedürfnisse des Kunden informiert. Die Schnittstellen, die im Unternehmen und zwischen Unternehmen in dieser Customer Journey herrschen, zum Beispiel Partnerprogramme und Informationsvernetzung, sollten für den Kunden nicht spürbar sein. Wichtig ist dabei auch, dass der Kunde eine ehrliche Beratung erfährt. Es wird künftig nicht mehr um das Verkaufen um jeden Preis gehen, sondern vielmehr um Loyalität, um Ehrlichkeit und Wertschätzung.

Stefan Maack, Business Unit Manager Kreation bei ARITHNEA

 

Wie sieht die optimale E-Commerce-Handelsplattform der Zukunft Ihrer Meinung nach aus?

Ich denke, das ist eine Frage, mit deren Antwort man promovieren könnte. Ich persönlich denke, die Zukunft liegt überwiegend in der Vernetzung von Daten und Systemen, und zwar bereichs- und unternehmensübergreifend. Sie liegt in der Veränderung der Schnittstellen zwischen Mensch und Maschine.
Bei ARITHNEA leben wir das heute schon, indem wir Technik und User Experience optimal aufeinander abstimmen und die User Experience als Vermittler zwischen Mensch und Technik fungiert. Damit bringen wir Marken und Märkte in optimalen Einklang.

Stellen Sie sich mal vor, Sie als Verbraucher entscheiden sich für eine E-Commerce-Plattform und willigen ein, dass der Anbieter ganzheitlich Zugriff auf ihre Daten hat. Desweiteren stellen Sie sich vor, dass diese Plattform ebenfalls noch in Verbindung zu beispielsweise Ihren smarten Home-Devices und Wearables steht. Das System kennt auch ihre Umwelt, ihre Freunde und Familie. Mit den gelernten Präferenzen und Ihrer Shopping-Vergangenheit kann die Plattform echten Mehrwert schaffen. Ich stelle mir das so vor, dass meine Plattform mich kennt, wie damals mein Einzelhändler um die Ecke, der schon wusste, was ich brauche, wenn ich zur Tür herein komme. Oder besser noch: der die Tüte schon gepackt hat und sagt „Bitte schön. Heute ist doch ihr Hochzeitstag, ich habe die Zutaten für ein einfaches und sehr leckeres Menü schon zusammengepackt. Das Rezept liegt auch bei und der Babysitter ist ebenfalls schon gebucht.“

Herr Wilknitz, inwiefern sollten die Geschäftsprozesse End-to-End gestaltet und damit gebaut werden?

Um ein nachhaltiges Einkaufserlebnis und Kundenzufriedenheit zu gewährleisten, ist eine durchgängige Prozessabbildung absolut notwendig. Bei ARITHNEA fangen wir tatsächlich bei der Marke an, also ganz „vorne“, und bringen diese in Einklang mit Markt und Mensch. Daraus entwickeln wir eine störungsfreie, ganzheitliche Customer Journey, mit dem Kunden im Mittelpunkt. Unsere Herangehensweise und Prämisse ist es, für eine End-to-End-Lösung das Marketing, den Vertrieb, den Service und die IT bei unseren Kunden an einen Tisch zu bekommen.
Diese Herangehensweise bilden wir auch in unserer eigenen Organisationsstruktur ab. Denn die Kunden werden in Zukunft Fragen wie der nach der Verfügbarkeit, nach der Logistik oder der Same-Day-Delivery nicht mehr interessieren. Sie setzen es einfach voraus. Und wenn es bei einem Anbieter nicht funktioniert oder das Einkaufserlebnis entlang der Customer Journey gestört wird, sind die Kunden weg. Viele Dinge, die heute als innovativ gelten, sind morgen schon „Hygienefaktoren“.

„Eine Marke muss sich sehr nah am Kunden orientiert digitalisieren.“

Welche Bedeutung haben Omni-Channel-Modelle für den Handel?

Wenn Omni-Channel-Modelle eine transparente und lückenlose Customer Journey unterstützen, die auch zu ihren Kunden passt, dann steckt in solchen Modellen sehr viel Power. Dabei muss sehr genau analysiert werden, welcher Kanal zu welchem Kunden passt und welchen Mehrwert er in punkto Konversion oder Kundenbindung liefern kann. Eine Marke muss sich sehr nah am Kunden orientiert digitalisieren.
Ein Gießkannenprinzip ist einfach nicht mehr angebracht. Es kann sogar schaden, denn es verdeckt den Fokus und kostet immenses Budget.

Welches Change-Management ist in den Unternehmen dafür notwendig?

Digitalisierung fängt mit dem Abbau von Silos und der Vernetzung innerhalb des Unternehmens an. Wichtig ist dabei, alle Stakeholder auf dem Weg mitzunehmen. Nach unserer Meinung darf die Digitalisierung nicht hinter verschlossenen Türen stattfinden, sondern muss ein fester Bestandteil der Unternehmenskultur sein.

Plädieren Sie in diesem Kontext für den Neubau auf der „grünen Wiese“, um den neu zu bildenden Strukturen genügend Raum zu geben? Wie lange dauert dieser?

Diese Frage muss von Fall zu Fall beantwortet werden. Sie hängt von den Zielen und der bereits stattgefundenen Digitalisierung des Unternehmens ab. Manchmal müssen wir erst einmal mit der Vernetzung der Stakeholder, der Erarbeitung einer digitalen Strategie und dem Abbau von Datensilos anfangen, also ganz grundlegend.
In der Folge steht dann der Aufbau von ganzheitlichen Prozessen. Unserer Meinung nach ist Digitalisierung keine Frage der Dauer, sondern eine Frage der Haltung und, ob man diesen Weg tatsächlich ernsthaft mit allen Konsequenzen gehen will.

Wie wichtig ist das agile Projektteam, um die klassischen Projektlaufzeiten zu verkürzen?

Unter dem Gesichtspunkt der„Time-to-Market“ ist Agilität unabdingbar. Zudem erlaubt Agilität auch Flexibilität. Denn Digitalisierung ist kein Ziel, sondern ein Weg.

Wie nehmen Sie Ihre Kunden und deren Mitarbeiter mit ins Boot?

Hier geht es um Vertrauen und die Beteiligung aller im Unternehmen relevanten Stakeholder. Dabei darf Digitalisierung nicht top-down stattfinden, sondern muss auch die Basis, die Mitarbeiter aller Ebenen, einbeziehen. Wir sehen uns nicht nur als Dienstleister auf dem Wege der Digitalisierung, sondern als Partner! Wir machen nicht einfach nur ein Projekt und sind dann wieder weg! Gerade in der Anfangsphase ist es sehr wichtig, alle Beteiligten an einen Tisch zu bringen und ein gemeinsames Verständnis für einen erfolgreichen Weg zu finden.

„Mit dem sogenannten Brand Canvas bringen wir Mensch, Markt und Marke für unsere Kunden in Einklang.“

Herr Maack, wieviel Kreativität braucht man heute, um die Möglichkeiten der Digitalisierung im Handel anzuwenden und zu nutzen?

Ich würde sagen eine Menge. Allerdings wird Kreativität allein nicht reichen.
Im Kern kommt es auf den Nutzerfokus an, auf die viel zitierte Customer Centricity.
Bei ARITHNEA verbinden wir Kreativität mit Technologie, um Customer Objectives mit Business Objectives in Einklang zu bringen. Das können Sie nur erreichen, wenn sie sehr breit aufgestellt sind und die Technik genauso verstehen wie den Markt, den Kunden und die Marke.
Wir haben dafür ein eigenes Modell entwickelt: Mit dem sogenannten Brand Canvas bringen wir Mensch, Markt und Marke für unsere Kunden in Einklang und können diesen Einklang auch technisch sehr zielstrebig umsetzen. Ich denke, das Geheimnis des Erfolgs liegt in einer konsequenten Partnerschaft und sehr viel gegenseitigem Vertrauen zwischen Agentur und Kunde.

Wie werden heute Marken digital erlebbar?

Marken müssen heute sehr genau definiert sein und ihr Versprechen auch ganzheitlich einlösen. Wir entwickeln dafür eine medienneutrale Markenidee, die wir dann in den einzelnen, relevanten Kanälen für die Marke umsetzen. Im Rahmen der „User Experience Journey“ entwickeln wir so eine stringente Markenerfahrung. Das „Erlebnis Marke“ muss sich an allen relevanten Touchpoints genauso widerspiegeln wie bei der Anwendung des Produkts oder der Dienstleistung selbst. Wir nutzen dabei alle Facetten der digitalen Kommunikation bis hin zum Corporate Design.

Inwieweit wird künstliche Intelligenz den Handel revolutionieren?

Künstliche Intelligenz ist ein Wort, das ich nicht mag. Ich bin davon überzeugt, dass wir hier eher von reaktiver Intelligenz reden sollten. Denn bis heute können Maschinen nur reaktiv agieren, das heißt, sie brauchen eine Aufgabe und Daten. Daraus erzeugen sie eine Aktion.
Der Mensch kann antizipieren und agieren, noch bevor ein Fall X eintritt. Was im Hinblick auf den Handel die Zukunft stark beeinflussen wird, ist die Veränderung der Schnittstelle „Mensch und Maschine“. Weniger Bildschirm und Tastatur, dafür mehr Sprache, Location-based Targeting und Antizipation

 

Vielen Dank für das Gespräch!

 

Weiterführende Informationen und einen Live-Mitschnitt des Gesprächs:

ARITHNEA

 

 

Aufmacher / Lizenz / Quelle

By Beyondadvertising (Own work) [CC BY-SA 4.0], via Wikimedia Commons

Data Science Competence Center

 

 

 

 

 

 

 

 

 

Kaum ein anderes Thema wird aktuell bei Händlern so intensiv diskutiert wie das der Datenanalyse. Begriffe wie Big Data, Data Science und Predictive Analytics stehen aber vielfach noch in den Kinderschuhen. Wie Händler schnell Potenziale ermitteln und nutzbar machen können, erklärt Jochen Freese, Geschäftsführer von Ingenico Marketing Solutions, einem führenden Anbieter von Omnichannel Loyalty Programmen und ROI-orientierten Data Analytics.

 

 

Herr Freese, worin bestehen aus Ihrer Sicht die aktuell größten Herausforderungen für den Handel in Bezug auf die Datenanalyse?

Gerade der stationäre Handel steht bezüglich der Datenanalyse noch im Schatten anderer Branchen und ist eher als Spätstarter im Bereich derTechnologie und Forschungeinzustufen. Das sehen wir fast täglich bei unseren Gesprächen vor allem mit mittelständischen Handelsunternehmen.
Häufig werden analytische Mechaniken und Methoden aus den 80er und 90er Jahren eingesetzt und viele Handelshäuser kämpfen insbesondere bezogen auf ihre IT und Systeme mit Altlasten.
In Deutschland gibt es mehrere hundert am Markt platzierte Kundenbindungsprogramme der Händler in unterschiedlichster Ausgestaltungsform.

Unsere Feststellung hier: je länger das Programm bereits am Markt ist und die Unternehmen dieses nicht als fundamentale strategische Säule des Geschäftserfolges ansehen und auch so handhaben, umso deutlicher werden Renovierungsstaus bzgl. Analytik und Datenhaltung. In manchen Fällen ist die Datenqualität so schlecht, dass erst einmal vielfältige Optimierungen durchgeführt werden müssen, um mit einer sauberen Datenbasis den Schritt in Richtung Informationsgewinnung antreten zu können.
Häufig besteht die einzige als solche zu bezeichnende Analytik darin, dass der kumulierte Kundenumsatz in eine ABC-Klassifizierung der Kunden überführt wird. Und diese wiederrum wird dann nur sporadisch für Marketingentscheidungen herangezogen. Ein Spannungsfeld existiert somit nicht nur bei der Technologie sondern genauso bei der Verfügbarkeit von analytischem Wissen.

Aber es gibt auch eine Reihe an positiven Beispielen.
Handelskonzerne, die entweder einen hohen Umsatzanteil über den eShop machen oder pure Online-Vertreter sind, sind hier häufig deutlich besser aufgestellt. Das liegt daran, dass digitale Geschäftsmodelle per se datengetriebener sind, häufig per Definition einen Kundenbezug besitzen und bewährte Analysemethoden wie die Recommendation Engines bewiesen haben, dass relevantere 1:1 Kommunikation Ergebniseffekte bewirken.

Es gilt somit auch, und das ist durchaus das Resümee an dieser Stelle, die positiven Erfahrungen aus der Online-Welt in den stationären Handel und Omnichannel-Handel zu überführen. Gerade da sehen wir eine große dynamische Entwicklung, da durch Data Science plötzlich ganz neue erfolgversprechende Anwendungsgebiete entstehen.

Genau die richtige Zeit, sich aus Sicht des Händlers mit einem noch größeren Fokus auf dieses Thema zu stürzen, um nicht vollends den Anschluss zu verlieren.

 

Gerade in der jüngeren Vergangenheit taucht verstärkt der Begriff „Data Science“ auf, wenn über Analyse gesprochen wird. Ist das nur alter Wein in neuen Schläuchen oder bietet Data Science im Gegensatz zur klassischen Analyse wirklich mehr?

Im heutigen Sprachgebrauch wird häufig der Begriff Data Science für die neueste Generation der Datenanalyse verwendet. Data Science geht gegenüber der herkömmlichen Arbeit des Datenanalysten einen Schritt weiter.
Der Data Scientist verbindet die statistisch-mathematischen Methoden mit dem Knowhow um die internen Geschäftsabläufe und baut mit Hilfe seiner Tool- und Technologie-Kenntnisse eine deutlich effektivere Brücke zwischen Auswertung und Management.
Wir bezeichnen Data Scientists daher auch gerne als Pfadfinder, die den Weg zu einem größeren Geschäftserfolg aufzeigen. Das liegt darin begründet, dass sie sich tief in die unternehmerischen Probleme hineindenken können und gleichzeitig die Sprache des Managements, der IT und der Mathematik beherrschen.

 

Sie haben vor kurzem ein eigenes Data Science Competence Center ins Leben gerufen? Was macht dieses Competence Center und wer kann dieses nutzen?

Mit unserem Data Science Competence Center richten wir uns genau an die Handelsunternehmen, die nun schnell auf den Analyse-Zug aufspringen möchten. Wir fokussieren uns dabei auf kundenbezogene Fragestellungen, denn in der Optimierung der Customer Journey sehen wir die größten Umsatzpotenziale.
Dabei wird der Kundendialog mit den Produktaffinitäten und den präferierten Kommunikationskanälen in Einklang gebracht. Mit unserer über 25-jährigen Erfahrung als Dienstleister für Kundenbindungsprogramme kennen wir die entsprechenden Stellschrauben und Effekte sehr gut.

Wir gehen mit unserem Competence Center aber auch über die engen Grenzen des Handels hinaus und adressieren unsere Analyselösungen auch an handelsnahe Organisationen. Hierzu zählen wir neben anderen Bereichen insbesondere Petrol, Travel und Entertainment sowie den Gastronomie- und Hotellerie-Bereich.

 

Unser Retail Data Science Lab ist ein Workshop-Format, mit dem zielgerichtet individuelle Unternehmensfragestellungen schnell und lösungsorientiert analysiert werden.

 

Schauen wir ein wenig genauer auf den Handel und seine Anforderungen. Herr Freese, welche konkreten Lösungen können Sie uns als Beispiel nennen, an denen Sie arbeiten und die Sie schon in der Praxis zur Anwendung gebracht haben?

Wir entwickeln seit vielen Jahren analytische Lösungen für den Handel und unsere Data Scientists haben sich schon mit ganz unterschiedlichen Fragestellungen beschäftigt.
Im Competence Center bündeln wir nun sämtliches Knowhow und legen auch einen verstärkten Wert auf den Wissenstransfer in die Handelsunternehmen.
Enabling steht für uns nun auf der gleichen Ebene wie die Weiterentwicklung der analytischen Lösungen für den Handel.

Lassen Sie mich an dieser Stelle zwei Beispiele kurz skizzieren:
Eine unserer Lösungen beschäftigt sich mit der optimierten Ausgestaltung des Kundendialogs mit deutlichem Effekt in Richtung relevanterer Kundenangebote. Wir haben dazu Algorithmen aus dem Onlinehandel, die als Recommendation Engines bezeichnet werden, weiterentwickelt und bieten diese als Next Best Offer-Lösung auch für die Offline-Kommunikation des Händlers an. Hierüber werden dann unter anderem Direktmailings und E-Mailings ausgesteuert, in denen die erfolgswahrscheinlichsten Produktangebote des Händlers je Einzelkunde, z.B. in Form von Coupons, beworben werden.
Dieses bewirkt unter anderem eine Frequenzsteigerung in den Filialen und dem eShop und zeigt deutlich höhere Abverkaufserfolge gegenüber nicht-individualisierten Angebotsvarianten, teilweise mit Responsesteigerungen von über 60%.
Das Besondere ist, dass gegenüber herkömmlicher Recommendation Engines aus dem Online-Bereich, unsere Next Best Offer-Lösung auf den Daten aus dem Kundenbindungsprogramm des Händlers basiert und so auch Käufe aus unterschiedlichen Kanälen berücksichtigt werden können. Dieses setzt natürlich Einwilligungserklärungen des Endkunden voraus und wir empfehlen grundsätzlich unseren Handelskunden, bereits in den ersten konzeptionellen Gesprächen, die Datenschutzverantwortlichen zu involvieren.

Die zweite Lösung, die ich kurz erläutern kann, optimiert Direktmarketing-Kampagnen auf eine ganz andere Art und Weise. Die Lösung heißt Uplift Modeling. Die Haupteigenschaft dieser Lösung besteht darin, dass mittels einer speziellen analytischen Methodik Kunden aus der Kampagnen-Selektion ausgeschlossen werden, die zwar eine hohe Affinität zu den beworbenen Angeboten besitzen, diese aber auch ohne den Marketinganstoß gekauft hätten. Da der Marketinganstoß im Handel häufig Vorteilsangebote mit Rabattenbeinhaltet, wird hier sofort Einsparungspotenzial wirksam. Denn zum einen kauft der sogenannte „Ehda-Kunde“ zum Normalpreis ein und zum anderen wird der Kampagnenhebel auf Kunden mit Potenzial für Zusatzumsatz, im englischen „Uplift“, gelegt.

 

Sie sprachen eben auch einen Wissenstransfer an. Was genau verbirgt sich dahinter und wie können Sie Handelsunternehmen gerade in der Data Science-Startphase dahingehend unterstützen, dass diese schon bald selbständig Analysen durchführen können?

Hierzu haben wir unser Retail Data Science Lab ins Leben gerufen. Das Retail Data Science Lab ist ein Workshop-Format, mit dem zielgerichtet individuelle Unternehmensfragestellungen schnell und lösungsorientiert analysiert werden.
Es ist auf Händler ausgerichtet, die entweder mit der Datenanalyse erstmalig starten wollen oder die ihr eigenes Knowhow in der Datenanalyse weiterentwickeln möchten. Es geht uns dabei vor allem darum, eine Wissensgenerierung aus den aktuell bereits verfügbaren Kundendaten herbeizuführen.

Wir führen einen Workshop mit Ansprechpartnern des Unternehmens durch, definieren und priorisieren dabei gemeinsam alle Fragestellungen, die das Unternehmen über seine Kundenstruktur, seine Kampagnen und seine Kundenprozesse hat und beleuchten, welche Daten zur Analyse verfügbar sind. Anschließend werden diese Daten in unsere Big Data Analyseumgebung geladen. Die Daten können je nach Fragestellung anonymisiert sein oder mit einem Token versehen werden, sodass nur der Händler selbst einen Rückschluss auf einen Endkunden herbeiführen kann. Anschließend erfolgen Analyseschleifen. Wir führen dazu vorbereitend einige initiale Auswertungen durch und starten mit den ersten Erkenntnissen in gemeinsam geführte Tages-Workshops. Dabei werden die interessantesten Ergebnisse durch weitere Analysen vertieft. Der Händler hat darüber hinaus jederzeit die Möglichkeit, aktiv auf den dann nachfolgenden Analyseschritt einzuwirken.

Unsere Infrastruktur stellt sicher, dass im Workshop nicht lange auf die nächsten Analyseergebnisse gewartet werden muss, sodass man sich sehr schnell dem Kern einer Fragestellung und somit der Lösung nähert. Sehr häufig gibt es da während solch eines Workshops mehrere Aha-Erlebnisse und Ausrufe des Erstaunens, da unbekanntes Terrain beschritten wird. Flankiert werden die Workshops mit kurzen Einführungen in die verwendeten Methoden und es wird besprochen, wie die Integration der Ergebnisse in das Unternehmen zur operativen Nutzung erfolgen kann.

 

Können Sie ein paar typische Fragestellungen nennen, die Sie mit dem Retail Data Science Lab beantworten?

Das startet häufig mit einfachen Auswertungen zu der vorhandenen Datenqualität und kann an diesem Punkt schon in den ersten Optimierungen münden.

Dann stehen verstärkt Kundensegmentierungen in homogene Verhaltenscluster oder nach Kundenwert und zukünftigem Kundenpotenzial im Vordergrund. Hierüber lassen sich die Ausgestaltung und Intensität der Kommunikation sowie erste Business Rules zur Kundenbetreuung steuern.

Für viele Händler ist es wichtig, sofort Umsatzeffekte zu erzielen, daher sind wir auch oft mit Themen rund um Prognosen zur Responseoptimierung und Potenzialhebung beim Cross- und Up-Selling oder bzgl. Rabattsensitivitäten beschäftigt.

Auch Verhaltensprognosen, z.B. in Richtung Weiterempfehlung, Inaktivität und Abwanderung stehen im Mittelpunkt. Im Grunde orientieren sich die Analysen an der jeweiligen Customer Journey und den dortigen Problemfeldern. Und nicht zu vergessen ist, dass sich sehr viele Detailfragen an obige Segmentierungen und Prognosen anschließen, die dann für den Händler teilweise noch handlungsrelevanter sein können.

Zum Beispiel kann festgestellt werden, dass nur in einem bestimmten Kundensegment die Abwanderungsquote erhöht ist, sodass hier gegebenenfalls der Kundennutzen im Loyalty-Programm optimiert werden muss.
In einem anderen Fall kann die Analyse nach dem durchschnittlichen Zeitraum zwischen Kundenregistrierung und erstem Kauf zu sofortigen Rückschlüssen auf den optimalen Zeitpunkt der Zusendung des Willkommenspakets oder des ersten Aktivierungsmailings führen.

Um die Bandbreite einmal mit einem Beispiel zu versehen: für einen Handelskunden haben wir beispielhaft gleich im ersten Workshop innerhalb der ersten Stunde festgestellt, dass dieser seit geraumer Zeit ein regelmäßiges Standardmailing immer doppelt an die Kunden versendet hat. Eine überraschende Erkenntnis, vor allem, weil diese Frage gar nicht im Mittelpunkt stand. Es zeigt, dass der Data Scientist gewohnt ist, auch über den Tellerrand hinaus zu schauen.

 

Sie haben soeben eine ganze Bandbreite an Analysen genannt. Auch die Fragestellungen, die Sie erwähnten, können ja offensichtlich sehr facettenreich sein. Welche Daten werden für die Analysen und Lösungen denn überhaupt benötigt?

Da wir uns schwerpunktmäßig mit endkundenbezogenen Fragestellungen beschäftigen, ist es gar nicht so kompliziert und komplex, wie man vielleicht von außen denken würde.

Wir beziehen unsere Analysen in aller Regel auf vier Datenquellen. Hierzu gehören die Kundenstammdaten, z.B. der in einem Kundenbindungsprogramm registrierten Endkunden, die Kaufdaten und die flankierenden Daten zu dem Artikel- und Filialstamm.

Wie oben schon einmal erwähnt, benötigen wir keine personenbezogenen Daten für die Analysen. Die Extraktion und Bereitstellung der Daten ist auch für den Händler mit etwas veralteten Datenstrukturen in aller Regel leicht zu bewältigen.
Ab dann übernimmt der Data Scientist.

Es gilt, die positiven Erfahrungen aus der Online-Welt in den stationären Handel und Omnichannel-Handel zu überführen.

 

Und welche Daten erhält der Händler wieder zurück bzw. wie werden die Ergebnisse für den Händler operativ nutzbar gemacht?

Es gibt drei Ebenen der Ergebnisübergabe an den Händler.
Zum einen können aus den Analysen Ergebnisse entstehen, die in Form von Modellen an die Daten herangespielt werden. Das kann zum Beispiel das Kundensegment sein, zu dem der Kunde analytisch zugeordnet wurde oder ein Wahrscheinlichkeitswert aus einem Prognosemodell zur Responseoptimierung für die nächste Marketingkampagne. Diese Daten werden dann durch den Händler zum Beispiel mittels eines Tokens direkt in dessen Datenbank importiert, mit den Kundendaten verbunden und für die Übergabe an einen Lettershop weiterverarbeitet.

Die zweite Variante stellen Datenbank-Algorithmen dar, die wir an den Händler übergeben. Diese werden anschließend für die regelmäßige und wiederholende Anwendung in die Datenbank integriert. Auch hierbei unterstützen wir natürlich und lassen den Händler nicht alleine.

Last but not least werden auch viele Ergebnisse erarbeitet, die rein als Erkenntnisse zu werten sind. Auf Basis dieser Erkenntnisse verändert dann der Händler zum Beispiel Regeln im Kundenbindungsprogramm oder optimiert die Ausgestaltung der Kommunikation für ein bestimmtes Kundensegment. Auch Ableitungen für Prozessverbesserungen entstammen häufig dieser Art an Analyseergebnissen. Auch hier helfen wir dem Händler durch Empfehlungen aus unserem Erfahrungsschatz.

 

Muss der Händler nicht vor der Analyse oder der Anwendung der angesprochenen Algorithmen erst umfangreich in das Thema Big Data Infrastruktur investieren?

Da haben wir eine eindeutige Meinung. Wir selbst nutzen hauptsächlich Open Source Tools wie Hadoop, Spark und R, um die Analysen durchzuführen. Diese Werkzeuge besitzen inzwischen eine sehr große Community, sodass viele Kniffe und Tricks öffentlich zugänglich sind. Und sie sind äußerst leistungsstark.

Darüber hinaus spielt das Thema Big Data bei traditionellen Kundenbindungsprogrammen kaum eine Rolle, da die über Jahre angesammelten Datenmengen selten als wirklich groß zu bezeichnen sind. Big Data Technologien kommen erst dann ins Spiel, wenn sehr komplexe Analyse-Algorithmen verwendet werden, zum Beispiel zur Berechnung eines Next Best Offer Modells.
Abgesehen davon wird das Thema Big Data auch relevant, wenn verstärkt Daten aus dem online- oder mobilen Bereich analysiert werden sollen, da hier sehr große Datenmengen in kurzer Zeit generiert werden können.
Unsere Devise: lieber erste Erfahrungen sammeln, um dann Gewissheit über die benötigte Infrastruktur zu erlangen.

 

Datensicherheit und Datenschutz sind für den Handel wichtig: Wie weit sind Händler in diesem Kontext sensibilisiert? Wo gibt es Ihrer Meinung nach Handlungsbedarf?

Daten werden schon heute als Unternehmens-Asset verstanden und die eigenen Kundendaten stellen dabei eines der schutzwürdigsten Güter für das Unternehmen dar. Das wissen die Händler. Themen wie Datenschutz und Datensicherheit spielen bei jeder Diskussion über mögliche Potenziale eine bedeutende Rolle. In der Regel wird schon zu den ersten Gesprächen der Datenschutzbeauftragte eingebunden und bei der Verarbeitung von personenbezogenen Daten geschieht nichts ohne entsprechenden Vertrag zwischen den Parteien.
Wichtig ist aber auch die Verwendungvon geeigneten Datenschutzhinweisen für die Endkunden. Diese regeln, was mit den erhobenen Daten gemacht werden darf und zu welchen Zwecken und von wem zum Beispiel Analysen erfolgen dürfen.

Unsere grundsätzliche Empfehlung lautet: in einem ersten Schritt die Fragestellungen, die dem Unternehmen helfen, fest umreißen. Dann gilt es, die Analysemöglichkeiten und die Granularität der Analyse mit dem Datenschutzbeauftragten abzustimmen und anschließend die zulässigen Detaildaten auszuwerten oder wenn notwendig, auf anonymisierte Datenaggregate auszuweichen.

 

Wir hatten eben schon einmal das Thema der Data Scientist gestreift. Dieser Personenkreis scheint ja ganz besondere Fähigkeiten zu haben. Wie leicht oder schwer ist es denn für einen Händler, selber ein Team aufzubauen?

Die Berufsgruppe der Data Scientists stellt aktuell eine der begehrtesten Fachrichtungen überhaupt dar. Die Nachfrage ist sehr hoch und wird noch weiter steigen. Das Angebot an qualifizierten Fachkräften ist hingegen noch zu gering.

Hochschulen haben das erkannt und bieten immer mehr Studiengänge in diese Richtung an. Die Lage wird sich aber auch deshalb noch zuspitzen, weil nicht nur der Handel auf diesen Markt schaut. Vielmehr ist das Thema Big Data und Data Science fast flächendeckend und branchenübergreifend ein Wachstumsbereich.

Unternehmen stehen daher vor der Frage, wie auch ohne eigene Ressourcen schnell und kurzfristig Wissen aus Daten entstehen kann und greifen zunehmend auf externe Dienstleister zurück, die auf Datenanalyse spezialisiert sind.

 

Vielen Dank für das Gespräch, Herr Freese!

 

Interviewpartner:
Jochen Freese,
Geschäftsführer von Ingenico Marketing Solutions

 

Weiterführende Informationen:

Ingenico Marketing Solutions GmbH

Omni-Channel: Voraussetzungen für langfristigen Erfolg

Gastbeitrag von Panagiotis Karasavvoglouist, Country Head Germany bei SIX Payment Services.

 

Auf den ersten Blick ist Omni-Channel ein alter Hut.
Bereits 2003 entwickelte die amerikanische Handelskette Best Buy das Konzept, um gegen den übermächtigen Konkurrenten Walmart wettbewerbsfähig zu bleiben. Die Idee dahinter: ein einheitliches und nahtloses Kundenerlebnis auf allen Kanälen. Aber in den letzten Jahren hat sich viel getan. Der Aufstieg von mobiler Technologie, von Social Media und neuen Bezahlmethoden hat dafür gesorgt, dass sich Omni-Channel kontinuierlich weiterentwickelt. Unternehmen müssen deshalb aufpassen, dass sie nicht ins Hintertreffen geraten. Nur wer die notwendigen technischen Voraussetzungen erfüllt, kann eine zeitgemäße Omni-Channel-Strategie umsetzen. Panagiotis Karasavvoglou, Country Head Germany bei SIX Payment Services verrät, worauf es ankommt.

 

Der Zugriff auf jedes Produkt, egal zu welcher Uhrzeit und von welchem Ort aus – das ist das zentrale Versprechen unserer vernetzten Einkaufswelt. Die ehemals so lineare Customer Journey ist zum Labyrinth der unbegrenzten Möglichkeiten geworden. Umfassende Kundenbindung und eine maßgeschneiderte Konsumentenansprache an jedem Touchpoint werden für Händler deshalb zu zentralen Erfolgsfaktoren. Smartphones und Tablets übernehmen hierbei eine Schlüsselfunktion: Analysten von Gartner zufolge wird es im Jahr 2020 20,4 Milliarden vernetzte Geräte geben – ihre Allgegenwärtigkeit wird auch unsere Einkaufsgewohnheiten prägen.

Reiseführer auf der Customer Journey

 

Auf Instagram gesehen, unterwegs auf Facebook geliked oder im Laden aufgestöbert – Kunden entdecken Produkte auf unterschiedlichen Wegen. Dementsprechend startet für sie auch die Customer Journey an verschiedenen Orten. Auf dem Weg zum Kaufabschluss springen Kunden ununterbrochen zwischen der Online- und Offline-Welt hin und her. Sie probieren Kleidung im Laden an, vergleichen die Preise per Google Shopping, reservieren oder bestellen im Onlineshop und tauschen die Ware schließlich im Laden um.

Diese neue Komplexität ist für Händler eine Herausforderung, aber auch eine Chance. Denn wenn es ihnen gelingt, die richtigen Touchpoints zu schaffen und Kunden auf jeder Etappe ihrer Customer Journey mit den passenden Angeboten und Botschaften zu erreichen, hat das enorme Auswirkungen auf zwei zentrale Erfolgsmetriken: Kundenzufriedenheit und Verkaufserlöse. Aufgehen kann ein solches Konzept aber nur, wenn die richtige technische Infrastruktur zur Verfügung steht.

 

Laut einer Studie von SIX Payment Services wünschen sich 71 Prozent der Befragten Angebote wie Click &Collect und Click & Return. Zwei Drittel wollen außerdem die Endless-Aisle-Option. Das bedeutet, dass sie ein Produkt, das im Laden gerade nicht auf Lager ist, noch vor Ort zu sich nach Hause bestellen können. Für Händler hat das den Vorteil, dass sie nicht jedes Produkt in jeder Ausführung auf Lager haben müssen, um Verkäufe abzuschließen. Um die Kundenbindung zu maximieren, sollten auch die Bonusprogramme synchronisiert werden und beispielsweise Treuepunkte und Aktionsgutscheine  im Onlineshop und im Laden gleichermaßen genutzt werden können.

 

Komfort muss sicher sein

 

Aus Sicht des Kunden zählt das einfache, bequeme Einkaufserlebnis und die Verfügbarkeit von Produkten und Dienstleistungen – dann, wenn er sie braucht.Um diese Erwartungen zu erfüllen, müssen Händler bestimmte Nutzer- und Transaktionsdaten zentralisiert abspeichern. Nur so kann ihre ständige Verfügbarkeit garantiert werden. Damit verbunden ist eine zentrale Anforderung: Datensicherheit. Kunden wissen inzwischen genau, welche Informationen sie wem preisgeben wollen und welche nicht. Sie vertrauen dem Händler wertvolle Daten an und erwarten im Gegenzug, dass diese sicher verwahrt sind. Der Händler steht in der Verantwortung, diese Daten im Rahmen der geltenden Gesetze zu schützen. Das gelingt beispielsweise mithilfe eines Payment-Service-Providers, der nach dem sogenannten Payment Card Industry Data Security Standard (PCI-DSS) zertifiziert ist und die Speicherung und Verarbeitung der Zahlungsdaten vollständig übernimmt. Das erspart dem Händler einiges an Arbeit und Kosten für eine Zertifizierung und er bekommt nebenbei noch Einsichten zur Optimierung seines Geschäfts. Denn der Payment-Service-Provider kann auf Wunsch auch die Transaktionsdaten der Kunden analysieren, auswerten und darstellen.

 

Flexibilität beim Bezahlen

 

Auch in Zukunft wird manch ein Käufer weiterhin am liebsten mit Bargeld, Lastschrift, Sofortüberweisung, EC- oder Kreditkarte bezahlen. Andere wiederum bevorzugen moderne Bezahlformen wie Online-Banking, PayPal oder Mobile Payment. Es ist dabei entscheidend, dass Händler sowohl im lokalen Ladengeschäft als auch im Onlineshop eine Vielzahl an Zahlungsmitteln anbieten. So können Kunden schnell und unkompliziert auf die von ihnen bevorzugte Weise bezahlen. Händler minimierendadurch die Gefahr, dass Käufe nicht zustande kommen – etwa weil ein Kunde kein Bargeld dabeihat, die Schlangen an den Kassen zu lang sind oder das gewünschte Zahlungsmittel online nicht zur Verfügung steht.

 

Fazit: Omni-Channel zukunftssicher umsetzen

 

Um Omni-Channel-Strategien erfolgreich umzusetzen, bedarf es einer technischen Infrastruktur, die drei wesentliche Voraussetzungen erfüllt:

Sie muss Händler erstens in die Lage versetzen, die unterschiedlichsten Touchpoints in der Customer Journey flexibel zu bedienen und kanalübergreifende Angebote wie Click &Collect oder Click & Return zu realisieren.

Zweitens muss sie ein Höchstmaß an Datensicherheit gewährleisten und gesetzliche Vorgaben zum Datenschutz berücksichtigen – nur so lässt sich das Kundenvertrauen gewinnen.

Drittens sollten Händler versuchen, ein ausgewogenes Zahlungsmittelverhältnis anzubieten. Auf diese Weise lässt sich sicherstellen, dassUmständlichkeiten oder bestimmte Präferenzen beim Bezahlen einen Kaufabschluss nicht verhindern.

 

Omni-Channel wurde vor vierzehn Jahren entwickelt, um die Wettbewerbsfähigkeit der US-Handelskette Best Buy zu erhalten, die von der Konkurrenz abgehängt zu werden drohte. Eine gigantische Innovationsleistung, die letztlich Erfolg gebracht hat.
Händler von heute haben es leichter: Sie müssen das Rad nicht neu erfinden, sondern können auf erprobte Konzepte zurückgreifen und sich erfahrene Partner ins Boot holen, die mit den oben beschriebenen Erfolgsfaktoren vertraut sind. Indem sie ein nahtloses Einkaufserlebnis schaffen, das Kunden ein Höchstmaß an Komfort bietet, stellen sie ihr Unternehmen optimal für die Zukunft auf.

 

 

 

Über den Autor:

Panagiotis Karasavvoglouist Executive Director, Country Head Germany bei SIX Payment Services. Das Unternehmen bietet Finanzinstituten und Händlern Dienstleistungen entlang der gesamten Wertschöpfungskette des bargeldlosen Zahlungsverkehrs. Karasavvoglou betreut den Bereich seit 2012. Zuvor war er seit 2008 Head of International Salesvon SIX Pay/ SIX Multipay. Davor war er unter anderem bei Elavon Financial Services tätig.

 

 

Weiterführende Informationen:

SIX Payment Services

 

Bilder / Quellen / Lizenzen

Overflow of phases in the customer journey with media

CC by-SA- 4.0 International 

Nick Nijhuis

 

„Eine digitale DNA etablieren“

Die TREND REPORT-Redaktion sprach mit Dr. Stefan Wenzel und Dr. Armin Schulz, Geschäftsführer der 3DSE Management Consultants GmbH. In einer kurzen Serie berichten beide von Erfahrungen aus ihrem Beratungsalltag und geben wertvolle Tipps, wie sich Unternehmen in Zeiten der Digitalisierung aufstellen können. Der erste Beitrag wird sich dem Themenfeld Unternehmensstrategie und Innovation widmen.

Herr Dr. Schulz, wie verändern sich die Kundenerwartungen?
Klar ist in diesem Zusammenhang, dass nicht mehr nur das Produkt an sich für die Kunden im Vordergrund stehen wird, sondern insbesondere auch Services und Leistungen rund um das Produkt. Dabei wird es vor allem um Services und Leistungen gehen, die das Leben vereinfachen. Die Kunden sind mittlerweile so stark durch Smartphones geprägt, dass damit bestimmte Erwartungen bezüglich Convenience und easy-to-use einhergehen. Zusätzlich – ebenfalls durch die Erfahrungen der Smartphone-Ära – wird erwartet, dass ein Produkt regelmäßig geupdatet und geupgradet werden kann – über den gesamten Lebenszyklus hinweg. Es bleibt sozusagen immer aktuell im Rahmen seiner Möglichkeiten. Man kann sagen, dass sich das Thema Vernetzung und Connectivity über alle Lebensbereiche zieht, und die Kundenerwartungen in Hinblick auf jede Art von Produkt, merklich beeinflusst.

Warum betrachten Sie die Digitalisierung und Vernetzung als Schlüsseltrend?
Wir beobachten zurzeit einen ganz massiven technologischen Wandel, der zudem vor allem auf globaler Ebene stattfindet. Er betrifft alle Lebensbereiche und erreicht alle Menschen und alle Industrien. Die Digitalisierung ermöglicht Dinge, die vorher nicht möglich waren. Dieser Wandel passiert in einer enormen Geschwindigkeit, getrieben durch die Entwicklungen der Technologien, die dahinterstehen. Ich glaube, dieser Wandel hat langfristig ähnliche Auswirkungen wie das bspw. die Elektrizität im 19. Jahrhundert hatte. So massiv und weitreichend ist die Veränderung.

Herr Dr. Wenzel, wie verändert Technologie den Innovationsprozess und die Zusammenarbeit in den Unternehmen?
Hierzu sind zwei Bereiche zu unterscheiden: Einmal Technologien, die den Entwicklungs- und Innovationsprozess digitalisieren; dazu zählt zum Beispiel die virtuelle und modellbasierte Produktentwicklung; das bedeutet, man setzt stärker auf Simulation, als zum Beispiel auf physische Prototypen. In naher Zukunft wird es, wie bereits im Software-Bereich üblich, Technologien geben, die es uns ermöglichen, Produkte oder Ergebnisse relativ schnell in die Anwendung zu integrieren und zu testen. Dadurch wird die Zusammenarbeit agiler und iterativer sein – also kleinteiliger und schneller. Es ist auch vorstellbar, dass künstliche Intelligenz zukünftig die Zusammenarbeit in den Unternehmen organisiert. Das kann sogar soweit führen, dass uns ein Computer durchaus besser organisiert als ein Manager.
Der zweite Bereich sind Technologien an der Kundenschnittstelle. Technologien, die im Produkt verbaut sind und für das Unternehmen kontinuierlich Nutzerdaten sammeln und auswerten. Diese Daten fließen dann in den Innovationsprozess ein, wodurch dieser so ausgerichtet wird, dass kontinuierlich Upgrades und Updates am Markt ausgeliefert werden können: sogenannte Bananen-Produkte, die erst beim Kunden reifen. Das ist ein fundamentaler Unterschied zur Gegenwart: Klassisch wird lange entwickelt, dann am Markt platziert und dann lassen die Hersteller eigentlich schon von den Produkten ab. Es gibt kaum eine Rückkopplung über das Nutzerverhalten „aus dem Feld“. Allerdings wird die Entwicklung gewisser Grundplattformen und Module, also Baukästen, auf denen die Features kontinuierlich integriert werden können, nach wie vor lange brauchen.

Welche Innovationskultur benötigen die Unternehmen, um im Wettbewerb zu bestehen?
Hier eröffnet die Digitalisierung ein Spannungsfeld. Auf der einen Seite gibt es Unternehmen, wie zum Beispiel die „großen“ amerikanischen „Start-ups“, die nach rein agilen Maßstäben arbeiten. Aber: ein klassisches Unternehmen, das bisher z.B. in der Technologiebranche erfolgreich ist, muss auch auf Qualität und Industrialisierung setzen. Ein Flugzeug muss nun einmal fliegen und darf nicht nur von einem Algorithmus gesteuert werden, der von einem Start-up entwickelt wurde. Einerseits müssen also bestehende Technologien mit möglichst schlanken Prozessen möglichst gut gemacht werden. Man nennt das auch „EXPLOIT“.
Durch die Digitalisierung kommt dann das „EXPLORE“ hinzu. Das bedeutet, Neues zu finden, flexibel auf Veränderungen zu reagieren und agil zu arbeiten. Letztendlich stehen wir so in einem Spannungsfeld arbeitskultureller Fragen. Einerseits schöpfe ich bestehende Technologien aus und setze diese gut um – dafür brauche ich Manager, die diese Projekte durchsteuern und dabei top-down mit ihren Mitarbeitern arbeiten. Auf der anderen Seite, in der rein „agilen Welt“, habe ich sehr kurze Distanzen zum Management und oftmals flache Hierarchien. Es entsteht also eine Spannung zwischen „Command-and-control“ und „open it- and trust“. In den klassischen Branchen stellen Manager oft das „Bottleneck“ dar, weil sie im Prinzip die Entscheidungen treffen und auch die Verantwortung tragen. Sie sind sozusagen die Kapitäne; während im agilen Umfeld starke, „empowered“ Teams arbeiten, die auch viel Verantwortung übernehmen. In diesem Spannungsfeld spielt die unterschiedliche Bewertung von Risiken eine entscheidende Rolle: Wenn ich eine Adaptionsentwicklung von einem Automobil oder Flugzeug mache, dann versuche ich Risiken zu vermeiden und schrittweise schnell zu identifizieren. Im flexiblen, agilen Umfeld sind Risiken durchaus Unternehmertum und wichtig. Hier stellen Risiken viel mehr auch Chancen dar.

Dr. Schulz (li.) und Dr. Wenzel plädieren für ein neues "Digitalisierungsverständnis". Die Technik selbst ist das Mittel zum Zweck. Der Zweck ist das Ziel, den Endkunden mit neuen Services zu adressieren. Die Digitalisierung ermöglicht in diesem Kontext neue Wege.

Dr. Schulz (li.) und Dr. Wenzel plädieren für ein neues „Digitalisierungsverständnis“. Die Technik selbst ist das Mittel zum Zweck. Der Zweck ist das Ziel, den Endkunden mit neuen Services zu adressieren. Die Digitalisierung ermöglicht in diesem Kontext neue Wege.

Herr Dr. Schulz, wie helfen Sie Ihren Kunden, die richtige Strategie für die zunehmende Digitalisierung zu finden?
Die richtige Strategie ist grundsätzlich schwierig zu finden, da der Wandel im Zuge der Digitalisierung unglaublich dynamisch geworden ist. Die stabilen Rahmenbedingungen, die man noch von früher kennt, sind so nicht mehr gegeben. Unternehmen sind klassischerweise in ihren strategischen Planungen von einem Zeithorizont von 10 – 15 Jahren ausgegangen. Diese Zeiträume lassen sich nicht mehr so gut überblicken. Nichtsdestotrotz versuchen wir, die richtige Strategie für jedes Unternehmen zu finden. Wir versuchen, ausgehend vom „Ist“-Stand, ein Ziel zu entwickeln. Wir nennen das „Nordstern“ – also ein Orientierungspunkt, worauf das Unternehmen zusteuert. Der Nordstern drückt aus, wie man in der Zukunft positioniert sein möchte. Wir versuchen dann alternative Optionen und Pfade zum Ziel zu entwickeln, da „unterwegs“ teilweise öfter Korrekturen notwendig werden können. Der wesentliche Unterschied zu früher ist, dass der Zeithorizont nicht ganz so lang gefasst werden kann und dass die strategischen Ziele, deren Erreichen und die Rahmenbedingungen sehr viel häufiger überprüft werden müssen. Daher benötigt man alternative Pfade, um sich verschiedene Optionen offenzuhalten. Teilweise sind z.B. technologische Pfade nicht nutzbar, weil Wettbewerber daraufsitzen oder sich Technologien doch nicht am Markt durchsetzen. Hier müssen Unternehmen also sehr viel stärker in Alternativen denken.

Stichwort Subscription Economy: Wie helfen Sie, Zusatzservices rund um das spätere Produkt zu entwickeln?
Man sollte nicht erst in den späten Entwicklungsphasen, sondern bereits beim Produktkonzept darüber nachdenken, welche Services möglich sein könnten. Aber auch, wie ganz andere Geschäftsmodelle aussehen könnten, die ich rund um dieses spätere Produkt mit anbieten möchte. Auch wenn ich nicht in der Lage sein werde, diese Services komplett zu durchdenken, weil dafür die Welt zu schnelllebig ist, muss ich unter Umständen später im Feld schnell reagieren können. Ich muss daher Voraussetzungen im Produkt schaffen, die mir später Möglichkeiten eröffnen, von denen ich derzeit noch gar nichts weiß. Ich muss mir sozusagen Flexibilität für später einkaufen. In einem konkreten Beispiel haben die Entwickler eines Bürostuhls entschieden, den Stuhl vernetzt auszulegen, damit dieser eine gewisse Intelligenz bekommt. Sie denken damit jetzt über den Service nach, dass der Stuhl sich die Einstellung seines Nutzers speichern kann. Aber vielleicht sind später noch ganz andere Services denkbar, auf die man heute noch nicht kommt. Die sind aber nur möglich, weil man diesen Stuhl von Anfang an vernetzt hat. Entscheidend ist, die Unternehmen in die Lage zu versetzen, diese Voraussetzung in die Produkte „hinein zu designen“. Wenn im Markt Chancen für bestimmte Feature entstehen, dann muss ich als Unternehmer sehr schnell reagieren und das Passende anbieten können. In sogenannten Innovationszellen arbeiten wir mit Kunden in diese Richtung, sodass sie deutlich über den Umfang hinausdenken, über den sie typischerweise in der Vergangenheit nachgedacht haben. Wir helfen Ihnen, denkbare Innovationen zu antizipieren und dann die richtigen Vorhalte im Produkt zu integrieren. Gerade im Hinblick auf mögliche Sensorkapazitäten ist das Thema Daten ein entscheidender Faktor. Je mehr ich letztendlich erfasse, umso mehr Chancen eröffne ich mir, um solche Zusatz-Services zu entwickeln. Ein Beispiel: Oft wird bemängelt, dass Autos, die heute auf den Markt kommen, hinsichtlich der Rechnerleistung bereits bei Auslieferung ausgelastet sind. Das ist einfach aus Kostengründen der Fall. Man packt nicht mehr Rechenleistung hinein, weil man gar nicht weiß, wie viel man später braucht. Hier braucht es ein Umdenken: ich packe nicht einfach nur mehr Rechenleistung in ein Auto, sondern ich packe mir Reserven für Features und Leistungsmerkmale ein, von denen ich heute noch nichts ahne. Das kostet zunächst mehr Geld als ich unmittelbar einnehme, rechnet sich aber über die Lebenszeit des Produktes.

Gerade für Forschung und Entwicklung bietet die Digitalisierung neue Chancen in Branchen der Hochtechnologie. Etwa bei der unternehmens- und bereichsübergreifenden Zusammenarbeit.

Gerade für Forschung und Entwicklung bietet die Digitalisierung neue Chancen in Branchen der Hochtechnologie. Etwa bei der unternehmens- und bereichsübergreifenden Zusammenarbeit.

Herr Dr. Wenzel, wie wirken Digitalisierung und Vernetzung auf den Innovationsprozess?
Die Auswirkungen sind vielfältig, aber zwei Aspekte möchte ich hervorheben. Der eine ist, dass sich die Zusammenarbeitsmodelle verändern und der zweite ist, recht lapidar, die Erhöhung der Entwicklungsgeschwindigkeit. In unserer aktuellen Studie zur Digitalisierung der F&E war eines der zentralen Ergebnisse, dass sich die Geschwindigkeit in der Produktentwicklung drastisch ändern wird. Zu den Zusammenarbeitsmodellen: Bei den klassischen, vertikalen Zusammenarbeitsmodellen, z.B. bei Automobilzulieferern, spezifiziert der Hersteller sehr genau, was er will. Der Lieferant entwickelt und liefert zum vereinbarten Termin in der entsprechenden Qualität ab.
Dieses Modell verändert sich, weil diese Spezifikationen für neue Geschäftsmodelle und durch die Vernetzung gar nicht mehr so klar definierbar -und auch langfristig nicht machbar sind. Der Trend geht hin zu horizontalen Modellen, in denen plötzlich aus Lieferanten oder Wettbewerbern gleichberechtigte Partner werden. Das stellt teilweise das Führungsverhalten und die Anforderungen an die Führungskräfte ganz schön auf den Prüfstand und ist durchaus schwer umsetzbar für die Unternehmen.

Können Unternehmen, die sich für einen „Open-Innovation-Prozess“ entscheiden, die Entwicklung – vielleicht sogar mit Partnern oder Konkurrenten – schneller machen?
Ich glaube, das ist sogar nur mit Partnern oder vielmehr mit Konkurrenten, die man eher als Partner betrachten sollte, möglich. Stellen sie sich mal autonomes Fahren vor: Da benötigt man eine bestmögliche, modellbasierte Abbildung der Realität, z.B. der Karten. Vollständig digitalisierte Karten sind aber eine große Aufgabe. Sie müssen millimetergenau sein. Letztendlich können die Unternehmen das gar nicht ohne Partner stemmen. Ein gutes Beispiel dafür ist „HERE“, eine Kooperation von BMW, Daimler etc.

Wieviel Agilität braucht das Management, um mit kürzeren Innovationszyklen umgehen zu können?
Wie sagt man so schön: der Fisch stinkt vom Kopf her. Es ist zwangsläufig notwendig, dass in der Führungsmannschaft bzw. im Topmanagement Agilität und agiles Arbeiten verankert, verstanden und gelebt werden. Mit agilem Arbeiten ist ein Kulturwandel verknüpft, der ohne entsprechendes Management nur schwer möglich ist. Damit sind ganz andere Führungsprinzipien verknüpft, wie z.B. die Verantwortung für die Auslastungssteuerung zu delegieren und dezentrale Empowered-Teams aufzusetzen. Dieses Empowerment wird nicht funktionieren, wenn dann am Ende immer doch noch eine Person alles entscheiden will. Wenn das Management das nicht vollständig verstanden hat und lebt, dann ändert sich nichts. Wir haben bei unseren Kunden agile Leadership-Teams etabliert, die aber längst nicht alle Bereiche betreffen müssen. Es gibt auch langfristige Themen, die nach wie vor im klassischen Management abgewickelt und entschieden werden. Zudem gibt es auch strategische Themen, die nicht auf einer agilen Basis entschieden werden, also Fragestellungen, die einfach keine Flexibilität erfordern und die keine hohe Veränderlichkeit haben. Die muss man auch nicht agil abwickeln.

Autos werden zunehmend zu Hochleistungscomputern mit schnellen Netzwerken - etwa aus Glasfaser - an Bord. Und dennoch sind sie häufig am Leistungslimit, wenn die Autos auf den Markt kommen. Hier muss ein Paradigmenwechsel stattfinden.

Autos werden zunehmend zu Hochleistungscomputern mit schnellen Netzwerken – etwa aus Glasfaser – an Bord. Und dennoch sind sie häufig am Leistungslimit, wenn die Autos auf den Markt kommen. Hier muss ein Paradigmenwechsel stattfinden.

Kann der CDO da helfen?
Es hilft sicherlich, wenn man eine Person benennt, die sich um diese Veränderungen in all ihren Facetten kümmert. Aber wenn man denkt, dieser Posten übernimmt die Digitalisierung für mich oder in meinem Unternehmen, dann wird das nicht funktionieren. Das muss auf allen Ebenen stattfinden – und eine Person allein kann das nicht leisten.

Herr Dr. Schulz, wie überzeugen Sie Ihre Kunden, neue digitale Technologien zur Anwendung zu bringen und Investitionen dafür bereit zu stellen?
Mittlerweile hat in der Industrie und quer durch die Unternehmenslandschaft ein „großflächiger“ Wandel eingesetzt, sodass fast alle Kunden erkannt haben, dass der Handlungsbedarf groß und die Digitalisierung mehr oder weniger alternativlos ist. Aktuell ist es eher wichtig, darauf zu achten, die jetzigen Aktivitäten und Investitionen in die richtigen Bahnen zu lenken. In den Unternehmen wird teilweise viel losgetreten, ohne dass alles richtig orchestriert wird, um wahre Schlagkraft und Geschwindigkeit zu erreichen.
Das Thema der Investitionen gestaltet sich schwieriger, da man auf Grund der Schwierigkeit der Vorhersage keine klassischen Business-Cases mehr hat. Die Unternehmen benötigen eine andere betriebswirtschaftliche Bewertungslogik, um von Investitionsschritt zu Investitionsschritt zu denken. Sie müssen in parallelen Feldern denken, in die sie hineininvestieren, um sich mehr Sicherheit zu erkaufen und die richtige Strategie zu verfolgen. Sie müssen lernen, dass Investments in gewissen Feldern auch verloren gehen können, aber dass dies „gute Verluste“ sind, weil sie für Klarheit gesorgt haben. Man weiß nun, dass einer der skizzierten alternativen Wege nicht der richtige ist. Das ist ein ganz schwieriger Prozess, der die betriebswirtschaftliche Logik, der die Unternehmen bisher gefolgt sind, ein Stück weit umdreht und auf den Kopf stellt. Damit haben viele Unternehmen große Schwierigkeiten.

Wie sehen in diesem Kontext Ihre typischen Beratungsdienstleistungen aus?
Letztendlich ist es unsere typische Aufgabe, die digitale Transformation zu begleiten. Einerseits strategisch mit den grundlegenden Fragestellungen: „Wo soll die Reise eigentlich hingehen? Was sind die wirklich wichtigen Handlungsfelder für den Kunden?“. Es gilt also sich Klarheit zu verschaffen, wo sich ein Unternehmen verändern muss. Im nächsten Schritt unterstützen wir die Unternehmen dabei direkt, an den Produkten Innovationsarbeit zu leisten und neue „digitale“ Produkte zu entwickeln. In denen müssen Technologien stecken, die ganz andere Services ermöglichen. Wir denken solche Produkte mit vor und setzen sie auch mit auf – auch in Verbindung mit den Services und den Geschäftsmodellen, die dazu gehören. Drittens helfen wir in Richtung der F&E-Prozesse und -Organisation zu agieren. Dies auch im Hinblick auf das Thema „Digital und Agil“: Was muss an den Abläufen geändert werden? Was an der Herangehensweise, an den organisatorischen Strukturen?
Die Unternehmen werden nicht erfolgreich sein, wenn sie zwar versuchen, die ganzen Strukturen umzustellen und die richtigen Produkte zu entwickeln, aber nicht beginnen auch von der ganzen Haltung, Denk- und Herangehensweise eine digitale DNA aufzubauen. Daher ist es für uns ganz wichtig, dass wir auch diesen Kulturwandel begleiten.
Das alles ist natürlich ein längerer Veränderungsprozess über mehrere Jahre, bei dem es auch Misserfolge geben wird. Aber hiervon dürfen sich die Unternehmen nicht abbringen lassen. Diesen Weg müssen sie konsequent gehen.

Also steht das Thema Change-Management im Zuge der Digitalisierung ganz weit oben auf der Agenda?
Ja!

Weitere Informationen unter:
www.3dse.de

FinTech-Branche im Bereich Geldtransfer – Chance oder Risiko?

Internationale Geldtransfers sind nichts Neues. Im Gegenteil: Banken entstanden ja eigentlich erst aus dem Bedarf heraus, Gelder quer durch Europa zu transferieren, ohne einen Karren voller Gold hinter sich her zu ziehen. Ganz banal ausgedrückt war am Anfang der Bedarf des internationalen Transfers da, Sparkonten und dergleichen entwickelten sich erst später.

Und von Anfang an war der Geldtransfer ein gutes Geschäft, Gebühren und Zinsen waren immer mitgedacht und kein Nachgedanke. Bis heute kassieren Banken und Dienstleister hohe Summen für den Geldtransfer in ein anderes Land. Dazu kommt, dass man den Service in der Regel nur in der entsprechenden Filiale nutzen kann, es ist also einiges an Aufwand und Zeit damit verbunden.

Fin-Tech mischt die Branche auf

Finanzdienstleister, die über das Internet Geldtransferleistungen anbieten, sind dagegen noch relativ neu. Mit dem britischen Unternehmen Azimo kann der Geldtransfer ganz einfach von zu Hause aus am Computer erledigt werden. Bankkonten braucht man dafür nicht (das Geld kann an die mobile Geldbörse oder auf ein Handy transferiert werden, wahlweise sogar per Kurier geliefert oder in einem Ladenlokal der Wahl ausgezahlt werden). Da für so eine Dienstleistung außer sehr moderner Software nicht viel nötig ist, kommen die neuen Finanzunternehmen mit wenig Personal und ohne Filialen aus. Die gesamte Verwaltung kann in einem einzigen Büro untergebracht werden, das hält den Aufwand gering. Und natürlich bemerken die Kunden und Kundinnen das am Preis der Dienstleistung: Um die 2 % betragen die Kosten eines internationalen Transfers, mehr nicht. Das Geld ist innerhalb von Sekunden verfügbar, spätestens nach 48 Stunden. Diese Bearbeitungsgeschwindigkeit schaffen herkömmliche Banken nicht einmal im Inland immer.

Verständlich also, dass die Finanzbranche die neuen Entwicklungen erst einmal skeptisch sieht. Hier geht es darum, dass traditionelle Geschäftszweige komplett wegbrechen könnten, und das alarmiert erst einmal. Auf der anderen Seite bringt die Konkurrenz durchaus auch etwas gesunden Wind in die Sache: Wo Konkurrenz ist, wird an den Preisen gedreht, und möglicherweise an einem besseren Service gearbeitet. Für Kunden und Kundinnen ist das gut.

Online-Geldtransfer ist nicht ohne Risiko

Natürlich geben die Finanzdienstleister keine Hinweise auf mögliche Risiken der neuen Art, Geld zu verschicken. Aber bei allem, was über das Internet passiert (nicht nur Online-Banking) besteht natürlich die Gefahr, dass Zugangsdaten abgegriffen und missbraucht werden. Verschlüsselte Datenübertragungen sollen dem entgegenwirken. Dass die Sicherheitsprobleme erst einmal nicht weniger, sondern eher mehr werden, ist absehbar. Schon jetzt sind die meisten Menschen bereit, ihre Geldgeschäfte nicht mehr mit einem vierstelligen Zahlencode (PIN und TAN) zu verifizieren, sondern nutzen bereits oder würden gerne Fingerabdruck, Retina-Scans oder Handlinienscans zur Autorisierung der finanziellen Transaktionen im Netz nutzen. Diesen Trend haben die Banken bereits erkannt und nutzen die technischen Möglichkeiten im Rahmen ihrer Online-Banking-Angebote. Die Sicherheitsmaßnahmen werden sich aber weiter verändern.

Erlebnis-Kultur auch in Geldgeschäften

Für viele Menschen ist heute zunehmend wichtig, wie sie durch das Prozedere der finanziellen Dienstleistungen geleitet werden. Es geht nicht nur darum, dass ein Ansprechpartner bei Problemen bereitsteht und die genutzten Formulare erklärt. Es geht vielmehr darum, den Prozess selbst angenehm zu gestalten und durch die digitalen Geldgeschäfte zu leiten. Es muss unterhaltsam sein, übersichtlich, leicht verständlich und vertrauenserweckend. Da haben die Dienstleister aus dem Bereich FinTech einen großen Vorteil, denn in Sachen Gestaltung und Interaktion geben Apps und internetbasierte Anwendungen einfach mehr her als beispielsweise das Überweisungsformular einer Postbank (die traditionell international angesiedelt ist)

Und die Zukunft?

Man wird vermutlich auch in Zukunft nicht ganz auf die Banken verzichten. Selbst Azimo arbeitet in vielen Ländern mit Banken zusammen. In Sachen FinTech und internationale Geldtransfers wird der Ton zwar rauer werden und die Konkurrenz wird heftiger, aber letztendlich wird es auf ein Neben- und Miteinander hinauslaufen. Ein gutes Beispiels dafür bietet eben das genannte Unternehmen Azimo, aber auch die Direktbanken haben diesen Trend früh erkannt. Einige, darunter die Deutsche Kreditbank, bieten schon seit einigen Jahren Dienstleistungen an, die den internationalen Geldtransfer, die Nutzung der deutschen Konten im weltweiten (nicht nur europäischen) Ausland und die Nutzung der Dienste online extrem kostengünstig und komfortabel gestalten. Das werden die anderen Banken zumindest im europäischen Raum nicht komplett ignorieren können, sondern auf ihre eigene Art und Weise an diese Entwicklungen anknüpfen.

Bildquelle / Lizenz:

Vertrauensbroker digitaler Ökosysteme

Wie sich die Bank der Zukunft neu erfinden muss, berichtet Klaus-Peter Bruns von der Fiducia & GAD IT AG der TREND-REPORT-Redaktion.

Herr Bruns, was verstehen Sie unter digitalen Ökosystemen?
Als Beispiele werden oftmals Airbnb oder Uber genannt. Doch ob diese milliardenschweren Plattformen tatsächlich die neue Ökonomie der digitalen Teilhabe repräsentieren, ist fraglich. Zwar resultiert die Wertschöpfung aus einer Kooperation der vielen Millionen Nutzer – die Gewinne aber teilen sich nur wenige. Ich sehe viel größeres Potenzial in Digitalplattformen, deren Stakeholder auch gleichzeitig Shareholder sind. Für mich ist ein digitales Ökosystem eine Art Genossenschaft 2.0.

Klaus Peter Bruns, Vorsitzender des Vorstands der Fiducia & GAD IT AG: „Bankfilialen wandeln sich vom ‚Ort des Geldes‘ zum ‚Ort des Sozialen‘.“

Wie kann Ihre Genossenschaftliche FinanzGruppe davon profitieren?
In traditionellen Genossenschaften vertraut man einander, weil man sich noch persönlich kennt. Das ist bei Digitalplattformen ohne geografische Begrenzung anders, weshalb Ver­trauen auf andere Weise entstehen muss. Für Genossenschaftsbanken, die jeden Kunden durch persönliche Legitimation kennen, bietet sich hier die einmalige Chance, die Rolle eines Vertrauensbrokers für digitale Ökosysteme zu übernehmen. Im Wettbewerb können sie sich somit gleichsam durch digitale Nähe profilieren.

Wie nutzen Sie heute die Möglichkeiten künstlicher Intelligenz?
Wir haben zwei Chatbot-Prototypen entwickelt, die beide in natürlicher Sprache kommunizieren. „Customer Advisor“ soll künftig den Systemsupport in den Banken verbessern. „Sarabi“ verwandelt die VR-BankingApp in einen virtuellen Assistenten, beschränkt sich dabei aber nicht auf klassische Bankfunktionen, sondern kann zum Beispiel auch Angebote regionaler Einzelhändler integrieren – eine weitere Chance, digitale Nähe zu den Kunden herzustellen.

„Für mich ist ein digitales Ökosystem eine Art Genossenschaft 2.0.“

Wie sieht die Bank der Zukunft aus?
Allen Unkenrufen zum Trotz: Die Bankfiliale und besonders der persönliche Kontakt mit dem Berater werden weiterhin einen hohen Stellenwert haben. Das bestätigen auch aktuelle Studien zum Beispiel des Zukunftsinstituts. Demnach ändert sich allerdings das Profil der Banken. Bankfilialen wandeln sich vom „Ort des Geldes“ zum „Ort des Sozialen“. Das heißt: Die erfolgreiche Bank wird sich weiterentwickeln von einem reinen Finanzdienstleister zu einem Partner in allen Lebenslagen – mit individuellen Beratungsangeboten für Privat- und Firmenkunden. Sie schafft Mehrwerte über das Banking hinaus, indem sie durch eine horizontale Vernetzung ein Beziehungssystem zwischen Privatkunden, Firmenkunden und Bank aufbaut.

www.fiduciagad.de

Energieeinkauf online

Unternehmen können heute ihre Energiebeschaffung vollständig online generieren. Im Hintergrundgespräch mit der TREND-REPORT-Redaktion erläutern Rainer Otto und Clemens Graf von Wedel, wie die Digitalisierung zu mehr Transparenz im Energieeinkauf beitragen kann.

„Unsere Kunden sind Unternehmen, die jährlich mehr als 100 000 Kilowatt­stunden an Strom oder Gas verbrauchen“, erklärt Rainer Otto, Geschäftsführer von enPortal. „Diese sollten die Chancen der Digitalisierung ergreifen und Portale nutzen, die den intensiven Wettbewerb im Markt abbilden“, ergänzt Geschäftsführer Clemens Graf von Wedel. enPortal ist ein solches Portal, über das Firmen Ausschreibungen tätigen und mit Anbietern in Kontakt treten können: Der Dienstleister ist seit zehn Jahren auf dem Markt und gehört zu den digitalen Vorreitern in der Branche.

 
 

„Für Versorger ist das Portal ein effizientes Vertriebstool“ führt Rainer Otto aus.

 
 

Wettbewerb von 600 Lieferanten auf dem Portal
Zu den Kunden zählen mittlere und große Unternehmen, aber auch kleinere Gewerbefirmen. „Kunden und Lieferanten kommunizieren ausschließ­lich digital miteinander und tauschen über die Cloud alle Daten und Informationen aus“, erklärt von Wedel. So profitierten Einkäufer in den Unternehmen „von einem Wettbewerb unter rund 600 Lieferanten auf unserem Online-Marktplatz.“
Auch für die Versorger sei das Portal ein effizientes Vertriebstool, so Rainer Otto, mit dem sie schnell neue Kunden gewinnen könnten. Wichtig ist enPortal die Neu­tralität, die für mittlere und große Unternehmen über eine „feste, jährliche Gebühr“ gewährleistet wird. Dafür erhält der jeweilige Kunde einen festen, persönlichen Kundenbetreuer und die Möglichkeit, das Portal zu nutzen. „Durch die effizienten Online­prozesse sparen Energieeinkäufer nach der ersten Ausschreibung oft das Vielfache von dem ein, was sie uns zahlen“, sagt Clemens von Wedel.
 

„Kunden und Lieferanten kommunizieren ausschließ­lich digital miteinander und tauschen über die Cloud alle Daten und Informationen aus“ erklärt Clemens Graf von Wedel.


 
 
Fester Ansprechpartner inklusive
Wichtig ist enPortal die hohe Digitalisierung einerseits, die gute Kundenbetreuung andererseits: Der jeweilige Ansprechpartner sei mit den individuellen Rahmenbedingungen rund um den Energieeinkauf vertraut.
Anders sieht der Service für die Gewerbekunden aus – hier sind es die Lieferanten, die eine feste, gleich hohe Ver­mittlungsgebühr für jeden gewonnenen Kunden zahlen. „Gewerbekunden nutzen das Portal kostenfrei, weil sie nur ausschreiben wollen und erweiterte Features im Portal wie etwa die automatische Lastgang-Aktualisierung, Benchmark oder Netz­ent­geltprüfung nicht benötigen“, teilt Rainer Otto mit.
Man lege großen Wert auf Fairness, Transparenz und Nachvollziehbarkeit im Prozess, betonen die Geschäftsführer. Die Digitalisierung wird inzwischen weiter vorangetrieben, um Zeitaufwand und Kom­ple­xität für den Kunden zu reduzieren. Dazu zählen neue Tools zur Auswertung komplexer Daten ebenso wie die anvisierte Echtzeitkommunikation zwischen den Marktteilnehmern.

www.enportal.de

 

 

Nachhaltig investieren

Nachhaltige Geldanlagen erfreuen sich zunehmender Beliebtheit in den deutschsprachigen Ländern, allen voran in Deutschland. Laut LGT Private Banking Report gaben 39 Prozent der befragten Deutschen, 25 Prozent der Österreicher und 22 Prozent der Schweizer an, dass ökologische Kriterien in der Vergangenheit „sehr konkret“ eine Rolle bei der Anlageentscheidung gespielt hätten. Und dieser Trend setzt sich fort. Nach Angaben des Forums Nachhaltige Geldanlagen (FNG) ist der Markt in den drei deutschsprachigen Ländern auch 2016 überproportional gewachsen und verzeichnete ein Plus von 29 Prozent. Die Summe aller Investitionen, bei denen zusätzlich zu den finanziellen auch ökologische und soziale Aspekte berücksichtigt werden, betrug im vergangenen Jahr rund 420 Milliarden Euro – zum Vergleich: Der Bundeshaushalt sieht für 2017 Ausgaben in einer Höhe von knapp 330 Milliarden Euro vor. Auch die Bertelsmann-Stiftung kommt in einer aktuellen Studie zu dem Ergebnis, dass „die Nachfrage nach sozialer Wirkung bei der Geldanlage steigt“. Brigitte Mohn, Vorstandsmitglied der Bertelsmann-Stiftung, formuliert es so: „Klassischerweise werden bei Vermögensanlagen die beiden Faktoren Risiko und Rendite betrachtet. Immer mehr Anleger möchten auch die Frage beantwortet haben: Was genau bewirkt mein Geld?“

Was genau bewirkt eigentlich mein Geld?

Millennials und Frauen vorne

Wer sind die treibenden Kräfte bei den nachhaltigen Geldanlagen? Für Antonia Strachwitz, Kommunikationsverantwortliche bei LGT Impact Ventures, ist es vor allem die Millennial-Generation, also die Gruppe der heute 20- bis 34-Jährigen, die einerseits einen nachhaltigen Lebensstil pflegt, andererseits an nachhaltigen Investitionen interessiert ist. Diese Ansicht wird durch Untersuchungen von Morgan Stanley aus dem Jahr 2014 gestützt, bei denen 800 Investoren, darunter 200 Millennials, nach ihren Investitionsentscheidungen befragt wurden. Letztere wären weitaus eher geneigt, bei der Job- oder Produktauswahl Nachhaltigkeitskriterien zu berücksichtigen, so die Untersuchung. Und 84 Prozent der befragten Millennials gaben an, an nachhaltigen Investitionen interessiert zu sein. „Wirklich bedeutsam ist, dass sie auch mit doppelter Wahrscheinlichkeit in Aktien oder Fonds investieren, bei denen Nachhaltigkeit eine Rolle spielt“, sagt Audrey Choi, Sprecherin von Morgan Stanley. Zu den treibenden Kräften gehören überproportional Frauen. Hier zeigten 76 Prozent der befragten Frauen Interesse an nachhaltigem Investment, hingegen nur 62 Prozent der Männer. Bei der Frage, ob zusätzlich zur Rendite auch die Folgen der Investition zu berücksichtigen seien, lag die Zustimmungsrate unter den Frauen mit 40 Prozent fast doppelt so hoch wie bei den Männern (23 Prozent). Laut Antonia Strachwitz sind vor allem die wohlhabenden Frauen unzufrieden mit den bisherigen Angeboten der Finanzdienstleister. Und diese Gruppe wird allen Prognosen zufolge über ein immer größeres Geldvermögen verfügen – und damit die Investitionsentscheidungen mitprägen.

Besonderheit Impact-Investing

Zu den besonderen Formen nachhaltiger Geldanlagen zählt das Impact-Investing, bei dem es darum geht, gesellschaftliche Herausforderungen direkt anzugehen und Probleme zu lösen, also um mehr als nur um Vermeidung etwa von CO2-Emissionen oder Ausbeutung. Investoren, nicht selten Stiftungen, investieren über Darlehen, Kredite oder Beteiligungen in bestimmte Projekte – etwa in die Unterstützung autistischer Hochbegabter in der IT-Branche, in die Kommunikation für Hörgeschädigte, in Augenkliniken für Arme oder in die Verbesserung von Wertschöpfungsketten für Kleinbauern in Afrika. Nach Angaben der Bertelsmann-Stiftung hat sich das Volumen beim Impact-Investing seit 2012 mehr als verdreifacht. Da die Basis 2012 aber relativ niedrig war, mahnt die Stiftung politische Unterstützung an, „um den Durchbruch zu schaffen“.

Investitionen in erneuerbare Energien

Es gibt viele Beispiele für nachhaltige Investments: So bietet der Finanzdienstleister UDI Investitionen „in ökologisch sinnvolle und qualitativ hochwertige Geldanlagen“. Das Unternehmen versteht sich nach eigenen Angaben als „Partner für Menschen, die ökologisch sinnvolle Kapitalanlagen und lukrative Rendite in verantwortungsvoller Form kombinieren wollen“. Dazu zählen Anlagen in erneuerbare Energien, also Energiegewinnung aus Sonne, Wind und Biomasse, aber auch in Nullenergiegebäude und Nullemissionsgebäude. Zu den Projekten gehört auch die Errichtung von 60 „grünen“ Wohneinheiten, teils Eigentumswohnungen, teils Doppelhaushälften nahe Nürnberg, die „sehr konkreten ökologischen Kriterien entsprechen müssen“, so Georg Hetz, Geschäftsführer von UDI. Die Anleger könnten vom Trend zu energieeffizienten Gebäuden auch profitieren, wenn sie nicht gleich eine ganze Immobilie kaufen möchten, erläutert der gelernte Banker. Rund 16 500 Anleger vertrauen auf das 60 Personen starke Team des Unternehmens, das bisher 139 Projekte mit einem Gesamtinvestitionsvolumen von knapp 1,3 Milliarden Euro betreut hat.

Auf die Kraft der Sonne setzen

Stark in Fotovoltaik investiert das Unternehmen Neitzel & Cie, nach eigenen Angaben „der Spezialist für Energie-Sachwertanlagen“. Bisher hat das Unternehmen 22 Fotovoltaik-Anlagen mit einer Gesamtleistung von rund 62 Megawatt Strom erworben. Die Investitionen dafür belaufen sich auf rund 160 Millionen Euro. „Mit unserer derzeitigen Vermögensanlage setzen wir weiterhin auf die Kraft der Sonne, indem wir Fotovoltaik-Anlagen in unser Portfolio aufnehmen“, erklärt dazu der Geschäftsführer Bernd Neitzel. Neu für das Programm „Zukunftsenergie Deutschland 4“, für das 50 Millionen Euro, darunter 20 Millionen Euro Eigenkapital, veranschlagt sind, sei die Kombination von Fotovoltaik und Blockheizkraftwerken. Der Vorteil liege auf der Hand, so Neitzel: „Beide Systeme schonen die Umwelt, und wir fördern die politisch wie gesellschaftlich beschlossene Energiewende.“

Gute Investition: In Verbindung mit Solarenergie­anlagen sind Strom- und Batteriespeicher ein logischer Baustein.

Gute Investition: In Verbindung mit Solarenergie­anlagen sind Strom- und Batteriespeicher ein logischer Baustein.

Rohstoffe „Next Generation“

Doch auch Investitionen in Rohstoffe der „nächsten Generation“ können als nachhaltige Geldanlage firmieren, wie Tobias Tretter von der Commodity Capital AG betont. Mit dem Structured Solutions Next Generations Resources Fund investiert das Unternehmen in Rohstoffe, die zur Herstellung von Produkten wie etwa Batterien oder Fotovoltaikanlagen benötigt werden, allen voran Lithium, aber auch Kobalt, Grafit oder Zink. „Lithium ist der große Profiteur der Elektrifizierung, und wir sehen weiterhin enormes Potenzial bei Lithium“, sagt Tobias Tretter. Bei den anderen Metallen sieht er ein „extremes Angebotsdefizit auf die Batteriehersteller zukommen“. Beispiel Kobalt: Dieses wird hauptsächlich in der Demokratischen Republik Kongo abgebaut, die aufgrund von Kinderarbeit und grausamer Arbeitsbedingungen als Lieferant nicht in Frage komme: „Insofern werden händeringend neue, verlässliche Kobaltquellen benötigt“, erläutert Tretter. „Aktuell ist noch keinerlei verlässliche Produktion absehbar, und wir rechnen aufgrund der stark wachsenden Nachfrage mit weiter steigenden Preisen.“

Überdurchschnittliche Renditen erzielen?

Doch trotzdem erzielen grüne Investments vergleichbare Renditen wie traditionelle Geldanlagen. Nach Ansicht von Barbara Claus, Fondsanalystin bei Morning Star, gibt es Nachhaltigkeitsfonds mit überdurchschnittlicher Wert­entwicklung, so etwa den First State Asia Pacific Sustainability Fund (GB00B 0TY6S22), den Fonds Carnegie World­wide Ethical (LU0122292328) oder den UBS (Lux) EF Global Sustainable (LU0076532638). Andere Experten empfehlen den internationalen Natur-Aktien-Index (NAI), in dem 30 internationale Unternehmen gelistet sind, die anhand ökonomischer und ökologischer Kriterien ausgewählt und von unabhängigen Gutachtern überprüft werden. Laut Handelsblatt haben diese Unternehmen über Jahre hinweg mit elf Prozent pro Jahr im Schnitt eine doppelt so hohe Rendite wie die Unternehmen des deutschen Aktien-Index (DAX) erzielt.

Regeln für die Anleger

Dennoch sollten Anleger nicht einfach den bunten Werbebroschüren vertrauen, die „grüne“ Investitionen versprechen, sondern ganz genau hinschauen, denn neben vielen weißen Schafen findet sich auch das eine oder andere schwarze Schaf unter den Anbietern. Im Zweifelsfall empfiehlt es sich, die auf nachhaltige Geldanlagen spezialisierte Ecoeffekt, die Stiftung Warentest oder andere Verbraucherorganisationen zu Rate zu ziehen. Wer sich kostenlos informieren möchte, kann auf das unabhängige Verbraucherportal www.ich-investiere-gruen.de zurückgreifen, das Informationen über Anlagemöglichkeiten bietet. Dabei wird nach Anlagesumme, gewünschter Laufzeit und sonstigen Anlagepräferenzen ein Angebot ermittelt und Kontakt zum jeweiligen Anbieter hergestellt. Fachleute raten, bei nachhaltigen Geldanlagen zwei Regeln zu beherzigen: Zum einen feste Ausschlusskriterien zu definieren und zweitens im Fall ausbleibender Renditen nicht aus falsch verstandener Treue an den Investitionen festzuhalten, sondern „die Pferde zu wechseln“.

Wer sich über seine Anlagen Gedanken macht, sich klug informiert, sich über den Kurs der Aktien oder Fonds auf dem Laufenden hält und im Extremfall die eine oder andere Investition beendet, kann nicht viel falsch machen. Eigentlich genauso wie bei herkömmlichen Geldanlagen.

von Dr. Ralf Magagnoli
r.magagnoli@trendreport.de

 

Bildquelle / Lizenz Stromspeicher:
SMA – Sunny Island & Sony – fORTELION Speichersystem

Bildquelle / Lizenz Aufmacher: pixabay; veröffentlicht unter CC0

Digital Finance

Die Banken versuchen den Brückenschlag zur FinTech-Branche. Im Mittelpunkt steht dabei der Endkunde, der als Brückengänger neue Wege betritt.

Die Probleme, die der langanhaltende Niedrigzins bei den Geldinstituten verursacht, sind schluss­endlich auch für den Kunden spürbar. Viele Bankhäuser wissen sich nicht mehr besser zu helfen. Früher kostenlose Services werden nur noch gegen Geld angeboten, andere verteuert. Gerade bei der immer relevanter werdenden Zielgruppe der Millenials muss man allerdings in der Lage sein, die zusätzlichen Gebühren zu rechtfertigen. Die Treue der alten Sparbuchbesitzer kann man hier nicht erwarten, erst recht nicht in einer Branche, die in letzter Zeit so viele Innovationen erlebt hat.

„Die Zeiten, in denen Banken mit traditionellen Geschäftsmodellen sehr hohe Margen erzielen konnten, sind vorbei“, weiß auch Jochen Werne von der Münchener Privatbank Bankhaus August Lenz. Hier hat man die Zeichen der Zeit früh erkannt und gilt nicht zuletzt durch diverse Partnerschaften mit FinTechs als Innovationsleader in der Branche. Das flächendeckende Filialsterben und allem voran das veränderte Kundenverhalten durch die Digitalisierung zwingen die Institute, neue Wege zu gehen. „Im Fokus des Denkens sollte dabei die Frage stehen: Was will der Kunde der Zukunft eigentlich? Kooperationen mit FinTechs, innovative Omnichannel-Angebote und die spitze Ausrichtung auf die Kundenbedürfnisse werden für Banken ins Zentrum ihrer Strategien rücken“, gibt Werne die Richtung vor.

Unterstützt werden die Wechselwilligen dabei vor allem durch die Möglichkeiten des digitalen Onboardings. Videoidentifikation und E-Signature machen den Kontowechsel so einfach wie noch nie. Gepaart mit den neuen Möglichkeiten der digitalen Kontoanalyse zieht gerade die Kreditwirtschaft aus diesen Möglichkeiten vermehrt ihren Nutzen. „Verbraucher mussten für den Kreditabschluss meist von der Online- in die Offline-Welt wechseln: Sie mussten den Kreditantrag ausdrucken, unterschreiben, Einkommensunterlagen beifügen, zur Post gehen, das Postident-Verfahren durchführen und die Postlaufzeit abwarten“, fasst Thomas Salewski von Arvato Financial Solutions zusammen. Im Vergleich zum Bankwechsel ist eine Kreditvergabe jedoch oft eine dringende Angelegenheit. Schnelligkeit ist Trumpf und eine sofortige Auszahlung ist dank neuer digitaler Services jetzt endlich möglich.

Konkurrenz Roboter?

Vor allem die Zunft des Bankberaters könnte durch die Errungenschaften künstlicher Intelligenz (KI) und zunehmender Automatisierung unter Druck geraten. Klar strukturierte und leicht verständliche Lösungen nehmen dem Verbraucher die Angst vorm Kleingedruckten und erfreuen sich nicht zuletzt deshalb zunehmender Beliebtheit. Die Automatisierung erlaubt den Robo-Advisors, solche Lösungen mit zuvor festgelegten Regeln anzubieten. Zusätzlicher Bonus: Dadurch gesparte Management-Gebühren werden an den Kunden weitergegeben und machen die Anlage profitabler.

 

„Wir partizipieren von der über 220 Jahre aufgebauten Kompetenz von Hauck & Aufhäuser“, betont Andreas Mang.

„Wir partizipieren von der über 220 Jahre aufgebauten Kompetenz von Hauck & Aufhäuser“, betont Andreas Mang.

Dass diese Art von Konkurrenz durchaus das Geschäft beleben kann, verdeutlicht der Erwerb easyfolios durch Hauck & Aufhäuser. Das renommierte Bankhaus schätzt dabei vor allem die Synergie-Effekte, die sich durch den Zusammenschluss ergeben. Easyfolio-Kunden profitieren von der Expertise des Bankhauses, dessen Kundschaft durch den Zusammenschluss jetzt ein digitales Erlebnis geboten wird. „Dabei sind es nicht nur die durchgehende Erreichbarkeit und die damit verbundene Convenience der Robo-Advisors, die immer mehr Kunden auf der ganzen Welt begeistern, sondern auch die Vereinfachung des Anlageprozesses selbst“, weiß auch Andreas Mang, der CEO easyfolios. Seit dem Zusammenschluss liegt das gesamte Portfoliomanagement in der Verantwortung der Privatbank. Die Mitarbeiter der digitalen Plattform konzentrieren sich stattdessen auf die Optimierung des Kunden­erlebnisses – die Customer-Journey.

„Der Faktor Mensch ist und bleibt ein essenzieller Bestandteil der Vermögensverwaltung“, fügt Ramin Fatemieh von der UBS der Thematik hinzu. Dabei sieht auch er den Kunden klar im Fokus: „Die Entscheidung eines Anlegers, uns mit der Verwaltung seines Vermögens zu beauftragen, basiert auf Vertrauen. Um dieses Vertrauen zu erhalten und zu rechtfertigen, müssen wir als Vermögensverwalter verstehen, was dem Kunden wichtig ist.“ Nur der Mensch sei in der Lage, individuelle Bedürfnisse entsprechend einzuordnen. Gleichwohl setzt auch die Schweizer Großbank dabei auf eine Symbiose: „Ein effizientes Zusammenspiel von Mensch und Maschine hilft uns, die jeweils besten Anlageentscheidungen für den Kunden zu treffen.“

Künstliche Intelligenz ist uns im Hinblick auf strategische Planung weit voraus, wie weltmeisterliche Niederlagen jetzt auch im komplexen Go-Spiel belegen. Die Nutzung dieser Möglichkeiten im Hinblick auf die Kapitalanlage erscheint daher wie eine logische Konsequenz. Abseits strategischer Planung vermag KI mittlerweile jedoch auch den Kundensupport effizienter und qualitativ verbessert zu gestalten. Dies belegt ein Pilotprojekt der Fiducia & GAD in Zusammenarbeit mit IBM. Mit dem Customer Advisor setzt man dabei auf die Technologie des Jeopardy-Gewinners Watson, dessen Spracherkennung sogar Ironie zu erkennen vermag. Das Feedback der Kunden auf die Entwicklung des Chatbots für Support-Anfragen sei dabei so positiv gewesen, dass man sich entschieden hat, die Lösung zeitnah umzusetzen. „Eine erste produktive Version ist für Anfang nächsten Jahres geplant“, gibt der Vorsitzende des Vorstandes Klaus-Peter Bruns Einblicke in Zukunftspläne.

Einst Konkurrent, jetzt umarmt

Um den Kunden möglichst schnell neue innovative Services anbieten zu können, heißt für Banken das Gebot der Stunde Kooperation. Bevorzugter Partner ist dabei ausgerechnet die einst so belächelte FinTech-Branche. Laut einer aktuellen Umfrage der Unternehmensberatung PWC kooperieren weltweit mittlerweile 45 Prozent der Finanzdienstleister mit FinTechs, Tendenz steigend. Noch vor einem Jahr waren es erst 32 Prozent. Noch extremer gestaltet sich diese Entwicklung in Deutschland, wo mittlerweile sage und schreibe 70 Prozent der Finanzdienstleister auf die Unterstützung der dynamischen Start-ups setzen. „Im Grunde ist FinTech der neue Mainstream“, fasst dementsprechend Sascha Demgensky von PwC Deutschland zusammen.

 

Alexander Artopé: "Wer zu seiner Hausbank geht, verliert in jedem Fall Geld – das kann man so plakativ sagen. "

Alexander Artopé: „Wer zu seiner Hausbank geht, verliert in jedem Fall Geld – das kann man so plakativ sagen. „

Wie ambivalent dabei das Verhältnis zwischen Geldinstituten und FinTechs sein kann, wird am Beispiel des ersten deutschen FinTechs Smava deutlich. Allein das Geschäftsmodell des Kreditportals ist schon am schmalen Grat zwischen Kooperation und Disruption angesiedelt. Einerseits arbeitet man sehr eng mit Banken zusammen, andererseits liegt jedoch das Hauptaugenmerk auf den Bedürfnissen des Kunden. Im Selbstverständnis betrachtet man sich dabei als Mediator, der beide Seiten zufrieden macht. „Den Kunden helfen wir günstigere Kredite zu bekommen, und den Banken helfen wir ein hohes Volumen guter Kreditkunden zu akquirieren“, erläutert Firmengründer Alexander Artopé die Win-win-Situation.

Dass die oben erwähnten 70 Prozent so erstaunlich wirken, ist darin gegründet, dass viele FinTechs ihre Produkte als White-Label-Lösung anbieten. Dabei handelt es sich um ein Produkt oder einen Service eines Anbieters, der in eine Partner-Website eingebunden wird. Layout und Struktur werden so angepasst, dass der ursprüngliche Dienstanbieter nicht mehr sofort ersichtlich ist.

Giromatch beispielsweise überträgt dieses Konzept erfolgreich auf die Kreditvergabe. „Wir liefern die Technologie und übernehmen die digitale Abwicklung der Endkunden“, erläutert der CEO des FinTechs Robin Buschmann. Strategische Partner können sich so Kostenvorteile importieren und ihre Pro­duktpalette erweitern. Eine kleine Bank beispielsweise, die zuvor nur auf den Anlageprozess fokussiert war, könne auf diese Weise ihr Angebot ergänzen und damit die Kundenzufriedenheit steigern. „Im Grunde können Sie mit uns ihre Digitalisierungsstrategie beschleunigen, ohne dabei ihr Kundenpotenzial zu verlieren“, fasst er zusammen.

„Initial Coin Offering“

Wieviel Zug in der FinTech-Branche steckt belegt auch eine aktuelle Deloitte-Studie. So haben sich die Venture-Capital-Investitionen in Deutschland in den letzten vier Jahren mehr als verzwölffacht. Gerade FinTechs suchen dabei ihre Finanzierungs-Partner vermehrt bei ihrem eigenen Kind, der Crowd. Neben FinTechs unterstützt die Investorengemeinschaft auch soziale Projekte, Computerspiele, Kinofilme, und Privatkredite. Als Gegenleistung erhalten Investoren neben Unternehmensanteilen und einer versprochenen Rendite oft auch eher symbolische Werte, wie einen Zugang als Betatester oder Premierenkarten. Bei der Investition in soziale Projekte kann es manchmal auch nur ein nettes Dankeschön sein, sofern man nicht an das spirituelle Modell einer Karmabank glaubt.

Erst wenn der Bankberater sein Wissen mit sozialer Kompetenz paart, so ist Klaus-Peter Bruhns überzeugt, ist er der KI überlegen.

Weitgehend unbekannt bei der Unternehmensfinanzierung ist noch der Begriff des „Initial Coin Offerings“ (ICO), obwohl vor kurzem ein Unternehmen damit in nur drei Stunden um­gerechnet die Rekordsumme von 153 Millionen US-Dollar erworben hat. Bei ICOs erwerben Anleger mittels einer virtuellen Kryptowährung sogenannte Tokens, die beispielsweise zur Teilhabe an einem Unternehmen berechtigen. Im geschilderten Beispiel unterstützten mehr als 10 000 Anleger das Unternehmen Bancor mit insgesamt 396 720 Ether, die zum Emis­sionszeitpunkt jeweils 385 US-Dollar wert waren. Bancor selbst möchte mit sogenannten Smart Tokens eine neue Generation der Kryptowährungen etablieren. Mit einem eigens entwickelten Protokoll soll die Volatilität geringer sein und es sollen neue Anwendungsmöglichkeiten entstehen, etwa die Etablierung eines auf der Blockchain basierenden ETFs. Dies könnte vor allem für jene Anleger interessant sein, die aufgrund des Risikofaktors noch vor einer Investition in Bitcoin zurückschreckten.

Zahlung per Auto

Obwohl der Bitcoin einst antrat, unser Verständnis von Geld zu revolutionieren und die Banken durch ein neues Währungssystem zu unterwandern, sind es nun ausgerechnet die Geldinstitute, die sich die zugrunde liegende Blockchain-Technologie zunutze machen. Im Bereich Mikropayments etwa möchte eine Kooperation von ZF, UBS und Innogy das Auto der Zukunft zur digitalen Geldbörse machen. So sollen Elektrofahrzeuge durch die Möglichkeiten der Induktion beim Halt an einer Ampel aufgeladen werden. Die dabei entstehenden Kleinstkosten werden mithilfe der Blockchain-Technologie ausgeglichen.

Der Untergang des Monopols

Simon Oberle: „Im Kontext von PSD2 müssen Banken künftig Zahlungsanbietern und anderen Banken Zugriff auf die Kontodaten ihrer Kunden gewähren.“

Simon Oberle: „Im Kontext von PSD2 müssen Banken künftig Zahlungsanbietern und anderen Banken Zugriff auf die Kontodaten ihrer Kunden gewähren.“

Mit der „Payment Service Directive 2“ (PSD2) will die EU den Wettbewerb im europäischen Zahlungsverkehr fördern und ihn damit sicherer, bequemer und billiger machen. Ob die Brüsseler Abgeordneten dabei wirklich abschätzen können, welche Folgen diese Richtlinie hat, ist jedoch fraglich. Dabei ändert sich „nicht weniger als das gesamte Verhältnis zwischen Bank und Kunde“, prophezeit Jochen Werne. „Banken müssen künftig dritten Zahlungsdiensteanbietern und anderen Banken Zugriff auf die Kontodaten ihrer Kunden gewähren“, erläutert Simon Oberle von Sopra Steria Consulting. Dem Verbraucherschutz wird dabei insofern Rechnung getragen, dass die Institute ausschließlich für den zuvor angefragten Zweck den Zugriff auf Schnittstellen zulassen dürfen. Nutznießer können hier vor allem die FinTechs sein, die durch die Analyse der Daten einen echten Mehrwert liefern können. „Die PSD2-Richt­linie birgt die Chance für echte Innovationen“, ergänzt Oberle und nennt als Beispiel eine App, die kostenlos das Konto bezüglich der Ausgaben für Strom und Gas überprüft und auf Wunsch automatisch zu einem günstigeren Anbieter wechselt. „Es gilt also, sich als First Mover frühzeitig für neue Zahlungsdienste zu positionieren. So machen sich Banken auch attraktiv für digitale Partnerschaften“, empfiehlt der Experte.
Unisono scheint man in der Branche die Bedeutung des Kunden erkannt zu haben und rückt diesen mit einem Angebot innovativer Produkte und Dienstleistungen in den Mittelpunkt. Trotz neuer Gebühren scheint es sich dabei um mehr als bloße Lippenbekenntnisse zu handeln. Zu Ende gedacht bedeutet dies für die Filialbanken, sofern sie bestehen bleiben wollen, dass sie sich von einem „Ort des Geldes“ zu einem „Ort des Sozialen“ wandeln müssen, wie Klaus-Peter Bruns einen Ausblick wagt. Dabei spielt ein erweitertes Serviceangebot ebenso eine Rolle wie die soziale Kompetenz des Beraters, der nur dadurch einer KI à la Watson überlegen bleibt.

„Blitzen gleich, die neue Wege bahnen“, beschrieb einst der Philosoph die Macht der Brücken. Es scheint fast so, als spräche er über unsere Zeit und die überwundene Kluft zwischen einer alten Bankenriege und der neuen Generation der FinTechs. Profiteur ist vor allem der Endkunde. Für ihn werden die Brücken gebaut, um ihn über die Wellen des Finanzmarktes auf hell erleuchtetem Wege in eine innovative Zukunft zu geleiten.

von Andreas Fuhrich
a.fuhrich@trendreport.de

 

Bildquelle / Lizenz Aufmacher:

 by mrdavidlaw, on Flickr
„“ (CC BY 2.0) by mrdavidlaw

Zehn Jahre Neitzel & Cie

Investments in erneuerbare Energie: Bernd Neitzel, Geschäftsführer von Neitzel & Cie., im Gespräch mit der Redaktion über Erfahrungen und Werte.

 

Erst einmal herzlichen Glückwunsch zu zehn Jahren in dieser Branche!

Herr Neitzel, was waren denn die drei spannendsten Momente?   

Herzlichen Dank für die Glückwünsche. Nachdem ich die Firma kurz vor Beginn der Finanzmarktkrise gegründet habe, freuen wir uns alle sehr, gut durch diese turbulenten Zeiten gekommen zu sein.

Nachdem wir als Emissionshaus für Schiffsbeteiligungen gestartet waren, haben wir sehr schnell den Wechsel hin zum Energieanlagen-Betreiber vorgenommen, weil wir dort mehr Zukunftspotenzial gesehen haben. Spannend war dabei gleich dieerste Gesellschafterversammlung unseres ersten Solarfonds „Solarenergie Nord“. Es war beeindruckend, wie viele Gesellschafter teilgenommen und sich aktiv eingebracht haben. Das war bestärkend für unser Handeln.

Einen langen Atem brauchten wir in einer Verhandlung mit der EEG-Clearing-Stelle. Wir wollten die EEG-Vergütung eines Vier-Megawatt-Parks auf 20 Jahre sichern. Das hat letztlich auch erfolgreich geklappt.

Als drittes denke ich an unsere erste testierte und zudem sehr positive Leistungsbilanz. Genau genommen merkt man jeden Monat, was gut läuft, und was nicht. Aber am Ende alles in einer Leistungsbilanz zusammengefasst zu sehen und zu zeigen, wir haben gute Arbeit geleistet.

Und was war weniger schön?     

Es war und ist zermürbend  zu erleben, dass Banken funktionierende Projekte nicht mehr finanzieren wollen, weil sich geschäftspolitische oder Marktveränderungen ergeben haben.

Außerdem ist es schade, zu erleben, dass Investoren der ersten Stunde bereits verstorben sind. Allerdings nutzen wir die Chance, um den Erben/Kindern die Vorteile und die Funktionsweise der nachhaltigen Kapitalanlage/n zu erläutern.

Gibt es eine „Kern-Erkenntnis“ aus zehn Jahren?

Da sein – da bleiben – ruhig die Projekte weiter vorantreiben. Märkte und Branchen halten so viele Veränderungen bereit, da sind Kontinuität und Vertrauen die größten Werte.

Wie viele Objekte soll die Vermögensanlage umfassen?       

Mit den geplanten 20 Mio. Euro Eigenkapital wollen wir für „ZUKUNFTSENERGIE DEUTSCHLAND 4“ insgesamt 50 Mio. Euro in20 bis 30 Photovoltaik-Anlagen undrund ein halbes Dutzend Blockheizkraftwerke investieren.

Wie hoch ist das bislang platzierte Eigenkapital?

In unseren Vermögensanlagen haben uns Anleger folgende Summen zur Verfügung gestellt:

Solarenergie Nord: 12 Mio. Euro
Solarenergie Deutschland 2: 15 Mio. Euro
Solarenergie Deutschland 3: 12,3 Mio. Euro
Zukunftsenergie Deutschland 4: 8 Mio. Euro
SchiffsFonds: 12 Mio. Euro
Insgesamt: 59,3 Mio. Euro

Sie sind aber nicht nur Emissionshaus …

Das ist richtig. Wir sind seit mehreren Jahrenviel mehr als Asset-Manager unterwegs. Soll heißen:

Wir produzieren mit unseren Anlagen den Strom selbst und verkaufen diesen.

Mit kompetenten Partnern an unserer Seite haben wir schon viele Anlagen optimiert und höhere Erträge als zuvor erwirtschaftet. Das freut uns – und die Anleger natürlich auch.

Welche Vorteile hat das?

Nun, gegenüber anderen Anbietern behalten wir die volle Kontrolle über die „Performance“ unserer Anlagen. Wir erkennen das Potenzial und schöpfen es aus.
Diese Leidenschaft unterscheidet uns vom klassischen Emissionshaus.
Es ist schön zu sehen, dass man als langfristig denkender Asset-Manager Einfluss auf die Entwicklung einer Energieerzeugungsanlage nehmen und haben kann.

 

Und wie sehen die nächsten 10 Jahre aus?

Wie bereits eingangs erwähnt – wir bleiben unseren Kompetenzen treu, und schätzen die Möglichkeit, den Markt aktiv zu gestalten sowie Chancen zu nutzen.Mit den Blockheizkraftwerken erweitern wir unseren eigenen Horizont und bieten Anlegern weiterhin die Möglichkeit, in spannende und rentable Projekte zu investieren. Es gibt bei der gesellschaftlich und politisch gewollten Energiewende noch viel zu tun – und wir sind dabei.

Vielen Dank!

 

Über Neitzel & Cie.

Der Hamburger  Asset-Manager und Sachwertspezialist NEITZEL & CIE. realisiert und betreibt Anlagen zur Erzeugung von Strom und Wärme aus Erneuerbaren Energien. Bisher hat das Unternehmen etwa zwei Dutzend Photovoltaik-Anlagen mit einer Gesamtleistung von rund 62 Megawatt Strom erworben. An ihren Standorten in neun Bundesländern verfügen alle Anlagen über langfristige Vergütungsverträge nach dem Erneuerbare-Energien-Gesetz (EEG). In Zukunft sollen Blockheizkraftwerke das Portfolio erweitern. Das dafür erforderliche Eigenkapital wird bei Privat- und institutionellen Anlegern eingeworben. Durchschnittlich 7,5 % p. a. Auszahlung erhielten die Anleger der von NEITZEL & CIE. platzierten Energie-Produkte bis heute.

 

Weiterführende Informationen:

 

Neitzel & Cie. Gesellschaft für Beteiligungen mbH & Co. KG

Gerhofstraße 18  |   20354 Hamburg

T: +49 (40) 413 66 19 – 22

moin@neitzel-cie.de

 

Bildlizenz: Neitzel & Cie.

Arbeit 4.0 bedeutet eine neue Stufe der Effizienz

Wir haben Prof. Dr. Andreas Moring, Campusleiter BiTS Hamburg, um ein Statement zur „Arbeitswelt 4.0“ gebeten. Die Fragestellung war: welche Rolle wird der Mensch in der Arbeitswelt 4.0 spielen. Ein Nebeneinander von Mensch und Computer wird die Hauptprägung sein.

„Arbeit 4.0 bedeutet eine neue Stufe der Effizienz in allen Volkswirtschaften. Auch und gerade in Deutschland. Die „Produktionsfaktoren“ in einer Wirtschaft übernehmen also, salopp gesagt, die Tätigkeiten, die sie am besten können. Alles was mit Standardabläufen zu tun hat und optimiert werden kann, übernehmen zunehmend Maschinen oder Algorithmen. Das wird viele Arbeitsplätze kosten. Von einfachen körperlichen Tätigkeiten, die die immer gleichen Standardabläufe abspulen, wie beispielsweise Putzen oder den Müll abholen, bis zu Standardabläufen auch bei geistiger Arbeit, wie beispielsweise in der Wirtschaftsprüfung oder der Bearbeitung von simplen Vorgängen in der öffentlichen Verwaltung. Für die Industrie gilt das sowieso – hier gilt schon seit Generationen das Mantra der Beschleunigung, der (Kosten-)Optimierung und der Massenproduktion mit Skaleneffekten, um wettbewerbsfähig zu sein.

Während Maschinen Optimierer sind, sind Menschen kreative „Produktionsfaktoren“. Arbeit
4.0 stellt also höhere Ansprüche an menschliche Eigenschaften. Und damit an die einzelne
Person selbst. Das Abarbeiten von Aufgaben als das berühmte „Rädchen im Getriebe“ wird
zunehmend weniger von Menschen verlangt. Dagegen sind eigene Ideen, Mitdenken und
Selbständigkeit gefordert. Lebenslanges Lernen sowieso. Dies bedeutet höhere Verantwortung, die jeder von uns übernehmen muss – ob wir das wollen oder nicht. Aber mit Verantwortung ist immer auch Freiheit verbunden. Insofern liegt es an jedem selbst, die neuen Freiheiten der Arbeit 4.0 zu nutzen.

Wir werden uns daran gewöhnen, dass Maschinen nicht mehr nur unsere Diener sind, sondern zu einer Art „Kollege“ werden. Das verändert das Verständnis von Unternehmen als Orte sozial-menschlicher Beziehungen, weil die Menschen nicht mehr allein Entscheidungen treffen, sondern künstliche Intelligenz das auch tun wird. Und es verändert auch das Verständnis von Gesellschaft und einer Solidargemeinschaft. Denn ein immer größerer Teil der produktiven bzw. Produktionsarbeit wird von Maschinen übernommen. Damit auch ein größerer Teil der industriellen Wertschöpfung – und der Erwirtschaftung von Gewinnen. Wem stehen diese dann zu? Wie sieht eine „gerechte“ Verteilung dieser Gewinne aus? Auf diese Fragen muss die Gesellschaft, müssen wir Menschen, eine Antwort finden. Denn diese Entscheidung können Maschinen nicht treffen. Sie sollten es auch nicht.“