Rolle vorwärts: ungewollte Datenabflüsse aus SAP HANA

Autor: Kai Grunwitz*

Ungewollte Datenabflüsse sind für alle Business-Systeme eine Herausforderung, da bildet auch SAP HANA keine Ausnahme. Mit der Einführung von SAP HANA verändern sich auch die Angriffsvektoren. Früher wurden SAP-Systeme eher durch Pivoting attackiert – also durch das Springen von einem System mit geringer Sicherheitsstufe, etwa eine Entwicklungsumgebung, auf ein kritisches System, oder durch Angriffe auf die SAP-Dienste, beispielsweise durch das Ausnutzen von Schwachstellen im SAP-RFC-Gateway. Jetzt liegt der Angriffs-Vektor mehr im Bereich der webbasierten Kommunikation. Kein schlecht gewählter Punkt, denn in SAP HANA gibt es aktuell über 5.000 Schnittstellen, die mittels webbasierten Protokollen angesprochen werden können. Die Wahrscheinlichkeit, Opfer eines ungewollten Datenabflusses zu werden, ist somit deutlich gestiegen.

In Projekten zur Sicherung von SAP-HANA-Umgebungen zeigt sich häufig, dass Anwender zum Schutz vor ungewollten Datenabflüssen vor allem auf das verfügbare Rollen- und Berechtigungsmanagement setzen: meist aber erst im Anschluss an ein Systemaudit, denn die Prüfer schauen sich seit geraumer Zeit gezielt Rollen- und Berechtigungszuweisungen in SAP-Systemen an. Im Mittelpunkt steht dann die Frage: Wer hat wann Zugriff auf welche Systemfunktionen und im Zuge dessen auf Informationen? Da viele Rollen historisch gewachsen, nicht oder nur unzureichend dokumentiert sind und nicht mehr den aktuellen Anforderungen an Compliance-Vorgaben wie beispielsweise dem sogenannten Least-Privileges-Prinzip entsprechen, verteilen die Prüfer hier häufig so genannte Red Flags, also Kennzeichnungen für gravierende Compliance-Verstöße.

Gerade bei der Rollenzuweisung werden häufig Fehler gemacht: Es wird immer wieder festgestellt, dass zu viele Benutzer erweiterte Rechte besitzen, die sie in ihrer täglichen Arbeit gar nicht benötigen. Hier ist Augenmaß gefordert, und der alte Grundsatz sollte noch immer gelten: „So wenig Rechte wie möglich, so viele Rechte wie nötig!“

Nehmen sich Unternehmen die Regelung der Rollen und Berechtigungen vor, dann sollten sie aber nicht gleich über das Ziel hinausschießen. Schließlich hat auch der Grundsatz „Klein anfangen und dann komplexer werden“ seine Berechtigung. Beim Schutz der Kommunikation und Daten sollte man sich daher zunächst auf wenige Kernbereiche fokussieren; auf diese Weise wird nicht nur das Risiko eines ungewollten Datenabflusses minimiert, sondern auch das Ziel der Compliance-Konformität schneller erreicht. Im Hinblick auf das HANA-Bordmittel Autorisierung bedeutet dies, dass Unternehmen mit wenigen Rollen starten und privilegierte Rollen wie SAP_ALL vermeiden, zumal die meisten Funktionen und Prozesse auch anders abgebildet werden können. Gerade das scheuen aber viele Unternehmen: stattdessen statten sie häufig eine große Anzahl an Usern mit SAP_ALL-Rechten aus oder gestalten den Prozess des Firefighter-User-Modus sehr offen – und wundern sich, wenn genau das im Auditing beanstandet wird.

Wenn Unternehmen SAP-Systeme – auch jenseits der Bordmittel von SAP HANA – noch gezielter vor Datenabflüssen schützen möchten, muss eine Datenverschlüsselung auf Basis einer konsequenten Datenklassifikation eingeführt werden. Damit lässt sich dann auch ein gezieltes Risikomanagement implementieren, das dafür sorgt, dass kritische Daten nur denjenigen Usern vorbehalten bleiben, für die sie auch tatsächlich relevant sind. Unkritische Daten können dagegen wie bisher weiterverarbeitet werden. Aktuell geht das in SAP HANA aber nur mit Tools von Drittherstellern.

Grundsätzlich ist beim Thema Datenabfluss aus SAP-Systemen noch viel Aufklärungsarbeit zu leisten. Dies gilt insbesondere für SAP HANA, denn Unternehmen stehen hier noch am Anfang von Implementierungsprojekten. Dabei machen sie sich noch nicht allzu viele Gedanken zu ungewollten Datenabflüssen aus Systemen, da sie „ja noch gar nicht im produktiven Betrieb sind“.

Gleichzeitig haben sich in SAP HANA einige Dinge gravierend geändert. Auch wenn das den zuständigen HANA-Betriebsteams bewusst ist, fallen viele bei der Umsetzung dann doch wieder auf ihre bisher implementierten Rollenmodelle zurück und versuchen diese 1:1 zu übernehmen, anstatt sich Gedanken über ein Neudesign zu machen. Häufig werden auch nur Funktionen zum Datenexport, beispielsweise zu Excel oder anderen Drittsystemen untersucht; grundlegende Funktionen wie etwa das Drucken bleiben jedoch immer wieder außen vor. Auch hier gilt es die Klassifikation der Daten zu berücksichtigen und dann eben bestimmte Nutzer von der Nutzung der betreffenden Funktion auszuschließen.

In solchen Problemen zeigt sich letzten Endes ein immer noch unzureichendes Sicherheits-Bewusstsein in den Unternehmen. Gerade in Migrationsprojekten liegt der Fokus der Aufmerksamkeit immer noch zu 90 Prozent auf der Erhebung und Abbildung funktionaler Anforderungen, und die Sicherheit muss sich mit dem kargen Rest begnügen. Doch an dem Tag, an dem die Möglichkeit des Datenabflusses zur Wirklichkeit wird, ist es für eine Korrektur zu spät.

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security

Mit Smart Services den Kunden begeistern

Reportage
Future Store – Handel mit Zukunft

Intelligente Technologien sind in unserem Alltag angekommen. Nun gilt es Services in Kombination mit smarten Produkten zu nutzen um proaktiv auf Kundenbedürfnisse einzugehen.

Omnichannel – einst die Kür im Handel – ist längst Pflicht. Das neue Motto: Kanal egal, das Erlebnis steht im Vordergrund. Dieses Erlebnis bedarf Technologien und Strategien für eine zunehmend konvergente „Handelswelt“. Prozesse müssen in diesem Kontext End-to-End gedacht und gebaut werden.
Die TREND-REPORT-Redaktion beantwortet in Form von Fallbeispielen, Gastbeiträgen und Interviews die aktuellen Fragestellungen:
Wo lohnt es zu investieren?
Wie lassen sich Kunden heute finden, binden und begeistern?
Wie verbinden Unternehmen den stationären Point of Sale mit E-Commerce, M-Commerce und E-Payment-Verfahren?
Wie gestalten sich Kundenbeziehungen und Personalisierung neu aufgrund der Datenauswertungsmöglichkeiten?
Wir zeigen, wo Logistik im Handel noch Optimierungspotenzial bietet und wie Smart Services im Handel helfen, dem Kunden ein großartiges Einkaufserlebnis zu bieten.

 

Themen und Inhalte

User Experience
Moderne IT-Infrastrukturen für eine barrierefreie, nahtlose Customer Journey

Der digitale Händler
Strategien zum Aufbau einer digitalen DNA

Logistikprozesse fest im Griff
Zeitgemäße Lösungen für leistungsfähige Logistikprozesse

Payment Solutions
Gelungene Check-outs

Kundenbeziehungen 
Mit Big Data und CRM die richtige Information zur richtigen Zeit zum richtigen Kunden

Brückenbauen in beide Welten
Smarte Retail- und In-Store-Technologien

Smart Services
Indoor Localisation Services, 3D-Druck, virtuelle Berater im realen Geschäft und Digitalisierung am Point of Sale– so geht´s!

Virtual Reality
Digitale Erlebniswelten für Kunden schaffen

Marketing digitalisiert
Ideen, Tools und Konzepte für gewinnbringende Kundeninteraktion

 

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu unseren Mediadaten

 

 

Aufmacherbild / Quelle / Lizenz
https://pixabay.com/en/smiley-smile-happy-427160/

Macht uns Virtual Reality unsterblich?

Der Wissenschaftler Dr. Jonathan Harth von der Uni Witten/Herdecke lehrt und forscht zum Thema VR. Im Rahmen des 2. Digitalen Salons der UW/H wurde die neue „Virtual Reality Hardware“ präsentiert.

 

Was macht Virtual Reality mit uns und unserer Gesellschaft?
„Diese Frage dürfen wir nicht nur den technischen Entwicklern überlassen“,
findet Dr. Jonathan Harth von der Universität Witten/Herdecke (UW/H). Mit Hilfe der neuen Virtual Reality Ausrüstung der Uni untersucht er mit seinen Studierenden, welche Auswirkungen die neuen digitalen Möglichkeiten auf Gesellschaft und Individuum haben könnten. „Wir haben uns der virtuellen Realität sozialwissenschaftlich genähert und genauer untersucht, was diese Möglichkeit für den Menschen bedeutet. Dabei ging es uns darum herauszufinden, was diese Präsenz, also das Gefühl, wirklich dort zu sein in der anderen Welt, mit den Menschen macht und wie unterschiedlich diese auf die andere Realität reagieren. Die Perspektive der Benutzer wird in der VR-Forschung bisher leider kaum beachtet.“

Typologie der VR-Nutzer

Anhand der Ergebnisse entstand eine Typologie der VR-Nutzer. „Es gibt große Unterschiede bei der Reaktion auf die digitalen Welten“, erläutert Harth. „Je nachdem, wie selbst- oder weltzentriert, wie kontroll- oder explorationsbezogen die Menschen sind, sind sie unterschiedlich stark in der Lage, in diese Welt einzutauchen.“

Allerdings sei es wichtig, sich nicht nur mit der Wirkung von Virtual Reality auf das Individuum zu befassen, sondern auch mit ihren Auswirkungen auf die Gesellschaft. „Das Thema bietet riesige Potenziale, aber auch einige Risiken“, betont Harth. „Zum Beispiel wird es sicherlich Milieus geben, in denen Menschen den Wunsch verspüren werden, ihre künstliche Welt nicht mehr zu verlassen. Besonders, da virtuelle Realität immer detaillierter und überwältigender werden wird.“

 

Positives Potenzial der VR  in Schulungs- und Trainingsanwendungen

Pauschal verteufeln möchte der UW/H-Wissenschaftler die neue Technologie jedoch nicht. „Sie ist ein weiterer Schritt in Richtung Medien- und Computergesellschaft“, so Harth. Positives Potenzial der VR sieht er beispielsweise in Schulungs- und Trainingsanwendungen, generell in Lernkontexten und beim Thema gemeinschaftliches Arbeiten. „Man kann sich auch fragen, ob VR nicht sogar so etwas wie eine Empathie-Maschine sein kann“, sagt er. „Durch die Möglichkeit, vollkommen neue Perspektiven einzunehmen und beispielsweise als Mann in einen Frauenkörper oder auch in die Rolle eines Kindes in einem Slum in Nigeria schlüpfen zu können, wird es vielleicht möglich sein, einen ganz anderen Grad an Beziehung und Verständnis für andere Menschen aufzubringen.“

Allerdings formuliert Harth auch Bedenken: „Wir müssen schauen, wo wir die Grenzen von VR ziehen. Denn diese werden, sobald die technischen Möglichkeiten ausgereift sind, nur noch in unseren Köpfen existieren. Wie wollen wir beispielsweise damit umgehen, wenn Leute ihren eigenen Körper mittels fotografischer Verfahren in die VR projizieren? Dort könnten Sie dann quasi unsterblich werden und für ihre Angehörigen auch nach dem Tode besuchbar sein. Wird das dazu führen, dass uns der reale Tod der Menschen dann egal ist? Mit solchen Fragen muss die Gesellschaft einen Umgang finden.“

Seit ihn vor drei Jahren die „Virtual Reality Welle“ erwischt hat, ist Harth fest entschlossen, diese Entwicklungen weiter wissenschaftlich zu begleiten. Dank der neuen VR Hardware, die an der UW/H in Forschung und Lehre eingesetzt wird, ist dies nun viel umfänglicher möglich.

Dr. Jonathan Harth verkabelt einen Studenten

 

Seminar „Reflexion und Konstruktion virtueller Welten“

 

In seinem Seminar „Reflexion und Konstruktion virtueller Welten“ im kommenden Semester werden die neuen technischen Möglichkeiten dazu genutzt, herauszufinden, wie eine eigene virtuelle Welt entworfen werden kann.
„Für die technischen Details werden wir uns vermutlich einen Kooperationspartner suchen“, kündigt Harth an. „Für uns wird es darum gehen, die technische und die Reflexionsperspektive zu verbinden.

Wir werden zudem untersuchen, wie sich die soziale Situation verändert, wenn Personen nur virtuell, aber nicht körperlich präsent sind. Bei Volkswagen, und bald wohl auch in anderen Konzernen, wird VR schon zur kollaborativen Arbeit eingesetzt.

Weitere interessante Fragen sind für uns deshalb:
Wie ändert sich gemeinschaftliches Arbeiten, wenn es nur im virtuellen Raum stattfindet? Und wie ändert es sich, wenn ich nicht mit anderen Menschen, sondern mit computergesteuerten Avataren zusammenarbeite?“

Besonders zum Thema Mensch-Maschine-Interaktion möchte der VR-Experte weiterforschen: „Noch sind diese künstlichen Figuren recht stupide und etwas langweilig. Das wird sich aber sicherlich durch Entwicklungen im Bereich KI ändern und auch die VR-Technologie wird sich rasant weiterentwickeln. Wir möchten weiterhin wissenschaftlich erforschen, wie sich diese neuen Möglichkeiten auf unsere Kommunikation und Interaktion auswirken.“

 

 

Weitere Informationen:
Dr. Jonathan Harth, 02302 / 926-827 oder jonathan.harth@uni-wh.de

 

 

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 2.400 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

www.uni-wh.de

 

 

Aufmacherbild / Bilder im Beitrag / Lizenz / Quelle

Urheberrechte liegen bei der Uni Witten/Herdecke
Weitere Fotos zum Herunterladen finden Sie unter: www.uni-wh.de/detailseiten/news/macht-uns-virtual-reality-unsterblich-6272/

Zahlungsgarantie für Kreditkartenzahlungen

Wirecard führt Zahlungsgarantie für Kreditkartenzahlungen ein und ist
ab sofort verfügbar für alle neuen Händler der Wirecard eigenen Online-Commerce-Lösung SUPR.

Pressemitteilung:
Wirecard, der führende Anbieter für digitale Bezahllösungen, bietet ab jetzt als eines der ersten Unternehmen der Branche eine Zahlungsgarantie für Kreditkartenzahlungen an. Das Angebot richtet sich vor allem an kleine und mittlere Onlinehändler, für die Zahlungsausfälle seitens ihrer Kunden häufig eine große wirtschaftliche Herausforderung darstellen.

 

Wirecard geht diesen Schritt, da das Unternehmen bereits seit Jahren mit der Fraud Prevention Suite (FPS) führend im Bereich Risikomanagement-Lösungen ist – und hierbei auf neueste Technologien wie Machine Learning und Artificial Intelligence setzt. Kombiniert mit einem Jahre zurückreichenden Bestand an Daten und den sich daraus ergebenden Mustern, kann mit der FPS die Conversion Rate beim Händler deutlich verbessert und der Umsatz signifikant gesteigert werden. Die Zahlungsgarantie auf Basis der Wirecard Risikomanagement-Lösung zeigt, wie präzise die Vorab-Erkennung und Vermeidung von Betrug mittlerweile funktioniert und stellt somit einen logischen nächsten Schritt dar.

 

Das Angebot ist zunächst für neue Händler auf der Wirecard eigenen SUPR-Plattform in Deutschland erhältlich und wird bald auch in ganz Europa verfügbar sein. SUPR ist eine E-Commerce-Lösung der Wirecard für den schnellen und einfachen Start in den Onlinehandel. Bei der Anmeldung auf der Plattform können Shopbetreiber die Zahlungsgarantie ab sofort als optionales Payment-Paket ganz einfach zusätzlich buchen.

 

Die Zahlungsgarantie für Kreditkartenzahlungen wird im nächsten Schritt in das umfangreiche Angebot des Checkout Portals integriert. Das Wirecard Checkout Portal ermöglicht es Unternehmen, innerhalb kürzester Zeit auf eine breite Produktpalette rund um das Thema elektronischer Zahlungsverkehr und Mehrwertdienste zuzugreifen und die Produkte mittels Plugins und Programmierschnittstellen unmittelbar nach Anmeldung zu nutzen. SUPR ergänzt das Checkout Portal bereits seit einiger Zeit um eine Shop-Software für den Online-Commerce, und mit der Integration der Zahlungsgarantie wird das Angebot nun noch einmal erweitert. Dank flexibler Angebote wie dem Wirecard Checkout Portal verzeichnet Wirecard bereits über 150.000 kleine und mittlere Händler weltweit.

 

Christian Reindl, Executive Vice President Sales Consumer Goods, sagt: „Es ist für uns ein wichtiger Schritt, unseren Kunden diesen außergewöhnlichen Mehrwert zu bieten. Ein Händler möchte nur eine Anlaufstelle für alle Fragen rund um das Thema Zahlungsverkehr und Mehrwertleistungen. Das Checkout Portal bietet bereits das umfangreichste Angebot auf dem Markt, und mit der Integration der Zahlungsgarantie bauen wir die führende Position weiter aus, mit dem unveränderten Ziel, Händlern die Konzentration auf ihr Kerngeschäft zu ermöglichen und Zahlungsvorgänge sorgenfrei im Hintergrund abzuwickeln.“

 

Informationen zum Checkout Portal unter: https://checkoutportal.com/de/

Erfahren Sie mehr zu SUPR: https://de.supr.com/

 

 

Über Wirecard:

 

Die Wirecard AG ist ein globaler Technologiekonzern, der Unternehmen dabei unterstützt, Zahlungen aus allen Vertriebskanälen anzunehmen. Als ein führender unabhängiger Anbieter bietet die Wirecard Gruppe Outsourcing- und White-Label-Lösungen für den elektronischen Zahlungsverkehr. Über eine globale Plattform stehen internationale Zahlungsakzeptanzen und -verfahren mit ergänzenden Lösungen zur Betrugsprävention zur Auswahl. Für die Herausgabe eigener Zahlungsinstrumente in Form von Karten oder mobilen Zahlungslösungen stellt die Wirecard Gruppe Unternehmen die komplette Infrastruktur inklusive der notwendigen Lizenzen für Karten- und Kontoprodukte bereit. Die Wirecard AG ist an der Frankfurter Wertpapierbörse notiert (TecDAX, ISIN DE0007472060, WDI).

Weitere Informationen finden Sie im Internet auf www.wirecard.de

 

 

Aufmacherbild / Lizenz / Quelle
E-Commerce / CC0 Public Domain / Mediamodifier / Pixabay

IT-Security: Der Mensch im Mittelpunkt

Die TREND-REPORT-Redaktion sprach mit Werner Thalmeier, Director Systems Engineering EMEA Proofpoint, über die Erkenntnisse aus der aktuellen Security-Studie des Unternehmens. Proofpoint stellt dabei den Menschen in den Mittelpunkt, den es mit technischen Lösungen zu unterstützen gilt.

Sehr geehrter Herr Thalmeier, was waren die „bemerkenswertesten“ Ergebnisse Ihrer Studie?
Die wichtigsten Erkenntnisse aus unserer aktuellen Studie „Der Faktor Mensch 2017“ bestehen in der Analyse der aktuellen Gefahrensituation für Unternehmen hinsichtlich Cybersicherheit. Wir haben zum Beispiel festgestellt, dass annähernd 90 Prozent aller Klicks auf bösartige URLs oder Dateien innerhalb der ersten 24 Stunden nach Erhalt der E-Mail erfolgen. Beinahe die Hälfte der Klicks geschieht dabei innerhalb der ersten Stunde und ein Viertel gar in den ersten zehn Minuten, nachdem die E-Mail das Postfach des Empfängers erreichte. Darüber hinaus optimieren Cyber-Betrüger die Uhrzeit ihres Phishing-Versandes, um möglichst viele Empfänger in die Irre zu führen. Angepasst an die Zeitzonen der jeweiligen Opfer verschicken Kriminelle hauptsächlich zu Beginn der üblichen Bürozeiten ihre gefälschten E-Mails. Zur Mittagszeit (13:00 Uhr) erreichen die Aktivitäten dann im angelsächsischen Sprachraum ihren Höhepunkt, während im deutschsprachigen Raum hauptsächlich der Vormittag als lohnende Angriffszeit dient.
Vor allem Mobilgeräte und soziale Medien sind unseren Beobachtungen zufolge Bereiche, auf die sich Cyber-Kriminelle zu spezialisieren scheinen. So nahm beispielsweise Cyber-Betrug unter Zuhilfenahme von gefälschten Social-Media-Supportseiten im vergangenen Jahr um 150 Prozent zu. Daneben konzentrieren sich Betrüger im Bereich der Mobilgeräte vornehmlich auf die Erstellung von betrügerischen Apps, die dann unter dem Namen von vertrauenswürdigen Marken veröffentlicht werden. Dadurch installieren sich die Opfer freiwillig Schadsoftware, die es den Kriminellen ermöglicht, persönliche Daten abzugreifen.

Eine der größten Gefahren geht von „Schnellklickern“ aus – wie können Unternehmen hier dauerhaft das Bewusstsein ihrer Mitarbeiter schärfen?
Wichtig sind in diesem Zusammenhang regelmäßige Schulungen und Trainings, um durch diese wiederkehrende Sensibilisierung für die Thematik, die Aufmerksamkeit der Mitarbeiter dauerhaft auf solche Bedrohungen zu lenken. Bei diesen Trainings ist es notwendig, den Angestellten ein Grundverständnis für die Vorgehensweisen und Methoden von Cyber-Kriminellen zu vermitteln. Hierdurch werden die Mitarbeiter in die Lage versetzt, Betrugsversuche leichter zu erkennen und entsprechend darauf zu reagieren. Aber selbst wenn die Mitarbeiter umfänglich geschult wurden, so reicht das leider nicht aus, um jeden Angriff abzuwehren. Neben dem Faktor Mensch müssen auch andere, speziell technische Hürden bei der Cybersicherheit von Unternehmen errichtet werden, um die Firma vor Schaden zu bewahren.

Welche Maßnahmen können auf technischer Seite getroffen werden?
Von erheblicher Bedeutung ist es, dass softwarebasierte Lösungen verhindern, dass eine betrügerische E-Mail überhaupt ihren Empfänger erreicht. Zu diesem Zweck empfehlen wir immer, einen mehrstufigen Ansatz zu implementieren, der weit über eine statische Filterung von E-Mails hinausgeht. Technische Lösungen sollten dabei speziell die Möglichkeit bieten, dynamische Klassifizierungsfunktionen sowie Quarantäne- und Blockierungsrichtlinien zu erstellen.

Werner Thalmeier weist eindrucksvoll darauf hin, wie wichtig Schulungen der Mitarbeiter im Kontext von IT-Security sind.

Werner Thalmeier weist eindrucksvoll darauf hin, wie wichtig Schulungen der Mitarbeiter im Kontext von IT-Security sind.

Wie wird sich die Cyber-Kriminalität weiterentwickeln? Und welche Trends sehen sie bei der Cyber-Security hinsichtlich dieser Entwicklungen?
Während wir früher hauptsächlich groß angelegte Phishing-Kampagnen mit gleichlautenden E-Mails an eine große Anzahl von Empfängern beobachten konnten, so geht der Trend derzeit vor allem hin zu gezielten Phishing-Attacken, dem so genannten Spear-Phishing. Dabei bauen Cyber-Kriminelle häufig frei verfügbare Informationen über den jeweiligen Empfänger in Ihre E-Mail ein, um auf diese Weise ein höheres Maß an Seriosität zu vermitteln. Diese auf den Empfänger zugeschnittene Attacke erhöht die Wahrscheinlichkeit, dass eine Phishing-Mail auch tatsächlich geklickt wird. Daneben zeichnen sich derzeit besonders zwei Trends ab. Zum einen werden bei Cyber-Betrügern Social-Media-Plattformen immer beliebter. Beim so genannten Angler-Phishing erstellen Kriminelle in diesem Zusammenhang gefälschte Accounts, die sich von denen der tatsächlichen Marke in Aufmachung und Schreibweise nur in Nuancen unterscheiden. Mithilfe dieser Accounts versuchen sie sodann, legitime Support-Anfragen von Kunden „abzugreifen“ um an vertrauliche Daten zu gelangen. Zum anderen werden für Angreifer Mobilgeräte als Angriffsziele interessant. 42 Prozent aller Klicks auf böswillige URLs erfolgen von Mobilgeräten. Darüber hinaus erschwert die oftmals sehr kleine Schrift auf derartigen Geräten häufig das Erkennen einer falschen Schreibweise der Phishing-Domain.

Mittelständler werden niemals in der Lage sein, die IT-Budgets großer Unternehmen einzuholen, sind aber für Hacker & Co. gleichermaßen interessant. Wenn Sie eine „Low-Budget“-Strategie zur IT-Sicherheit vorschlagen müssten, wie würde diese mit dem Menschen im Mittelpunkt aussehen?
Für mittelständische Unternehmen ist es ebenfalls wichtig, Mitarbeiter für die Gefahren von Cyberattacken zu sensibilisieren und durch wiederkehrende Schulungen den Blick der Angestellten für potentiell gefährliche E-Mails zu schärfen. Daneben empfiehlt es sich für jedes Unternehmen, unabhängig von seiner Größe, seine Software, die in der Firma Verwendung findet, auf dem neuesten Update-Stand zu halten und einen aktiven E-Mail-Schutz zu implementieren. Auch manuelles Eingeben von häufig verwendeten Login-Seiten oder die Verwendung von Lesezeichen für diese Seiten hilft dabei, sensible Daten nicht ungeprüft zu teilen. Diese Schritte minimieren das Risiko, Opfer einer Cyberattacke zu werden.

Weitere Informationen unter:
www.proofpoint.com

BPO am Puls der Zeit

Die TREND-REPORT-Redaktion sprach mit nexnet-CEO Lars Heucke über Trend-Themen und deren Einfluss auf das BPO.

Herr Heucke, welche Agilität nehmen Sie für sich selbst in Anspruch?

Für den Setup von Kunden, Change-Requests oder internen Entwicklungen haben wir unser eigenes agiles Vorgehensmodell entwickelt, welches eine Erweiterung der klassischen Modelle von Scrum und Kanban ist. Wir als nexnet sind mit einer Fülle von Vorgehensmodellen seitens unserer Kunden konfrontiert: vom Wasserfall-Modell bis zur reinen Scrum-Lehre. Hier müssen wir den Spagat leisten und zum einen alle Anforderungen unserer Kunden schnell und zum richtigen Zeitpunkt umsetzen, zum anderem muss dies in unseren zentralen, generischen Systeme erfolgen.

Haben Sie über eine White-Label-Lösung nachgedacht oder bieten Sie diese bereits an?

Bisher nicht, denn wir arbeiten nach dem Credo, dass jeder Kunde direkt durch uns aufgesetzt und betreut wird. Prozesse zu übernehmen bedeutet nicht nur, dass Maschinen den Job übernehmen. Die Bedarfsaufnahme erfolgt direkt durch unsere Spezialisten, die jahrelange Erfahrungen haben. 80% der Lösung ist bereits fertig, die restlichen 20% werden jedoch in Handarbeit von uns selbst speziell auf den Bedarf des Kunden angepasst. Aber: sag niemals nie!

Welche weiteren Entwicklungen sehen Sie im Kontext von Industrie 4.0 und E-Commerce und wie wollen Sie diese nutzen?

Durch Industrie 4.0, aber auch im E-Commerce entstehen gerade immer mehr Geschäftsmodelle, die eine hohe Anzahl an abzurechnenden Transaktionen aus diversen Services generieren. Ob dies Smart-Metering-Werte, Klickverhalten oder Kaufvorgänge von Endkunden sind, spielt dabei für die Abrechnung eine untergeordnete Rolle. Diese Services und deren Nutzungsverhalten gilt es mit hoher Qualität in flexibler Form abzurechnen. Eine Preisfindung auf beliebiger Datenebene ist hier ein entscheidender Faktor, da zukünftige Entwicklungen nicht abschätzbar sind. Große Implementierungsaufwände und damit verbundene hohe Kosten und lange Set-up-Zeiten, kann sich in der heutigen digitalen Welt niemand mehr leisten – gerade in Bezug auf time2market. Deshalb sehen wir ganz klar einen Trend hin zu standardisierten Abrechnungsservices mit einer max. konfigurierbaren Flexibilität. Und dies bei hohen Qualitätsansprüchen und Massendaten.

Wie wird sich nexnet in den nächsten 2-3 Jahren entwickeln?

Die nexnet wird in den nächsten Jahren ihre jetzige Bandbreite der Leistung in die Cloud bringen und damit eine einfache Nutzung unserer Dienstleistung ermöglichen. Wir haben dieses Jahr mit dem Produkt Payment Clearing Cloud“ begonnen und werden weitere Dienstleistungen standardisiert, massentauglich und mit hoher Qualität für kleinere Unternehmen nutzbar machen. Nichtsdestotrotz werden wir unsere Manufakturarbeit für bedarfsorientierte Lösungen weiterhin ausbauen.

Weitere Informationen unter: www.nexnet.de

„IoT-Kampagnen sollten jetzt umgesetzt werden!“

Patrick Franke, Geschäftsführer NXTGN, berichtet in seinem Gastbeitrag über die Notwendigkeit von Unternehmen, sich jetzt ihren Weg in der Digitalisierung, und dabei insbesondere in der Industrie 4.0 zu suchen. Franke zeigt auf, wie Unternehmen Digitalisierungsstrategien und -kampagnen erfolgreich angehen können.

IoT wird von einigen Unternehmen noch immer stiefmütterlich behandelt. Dabei erkennt der deutsche Mittelstand verstärkt die Vorzüge der Digitalisierung und setzt diese in immer mehr Kampagnen um, sodass der Druck auf abgeschlagene Betriebe wächst. Der Beitrag beschreib den Weg, den Unternehmen einschlagen müssen, damit Sie Mitbewerbern den entscheidenden Schritt voraus sein können.

Wo IoT im Unternehmen zum Einsatz kommt

Werfen wir gemeinsam einen Blick in die Produktionshalle der Zukunft: Eine Maschine montiert im Sekundentakt Produkte, während Sensoren den Prozess überwachen und fehlerhaft gelagerte Teile sofort erfassen und aussortieren. Die Sensortechnik bildet einen enorm wichtigen Bestandteil des IoT. Die Sensoren erfassen Stückzahlen und Störungen und können diese Daten in Echtzeit an das Terminal übermitteln, wo der zuständige Maschinenführer Rückschlüsse auf die Restzeit bis zur nächsten Umrüstung der Maschine ziehen kann. Bei Bedarf kann er die Einstellungen des Montageprozesses beeinflussen.
Das System ist flexibel aufgebaut: Sobald eine Störung auftritt, kann die Meldung beispielsweise sofort an die Wartungsabteilung des Herstellers weitergeleitet werden, die den Fehler identifizieren und schnell beheben kann. Außerdem werden Produkte automatisch aus dem Lagerbestand herausgebucht, wenn sie ihren Weg in die Produktion finden. Somit ist immer klar, welche Materialen nachbestellt werden müssen, und es entsteht kein Engpass an Bauteilen.

Die häufigsten Gründe, weshalb IoT-Kampagnen scheitern

Die Digitalisierung des Mittelstandes bildet seit langem eines der wichtigsten Ziele in der Politik. Dennoch hat es einige Zeit in Anspruch genommen, bis Unternehmen von den technologischen Vorteilen profitieren konnten. Für etliche kleine Unternehmen bilden IoT-Kampagnen eine gewaltige Herausforderung.
Die Bedenken seitens der Geschäftsführer sind oft die gleichen. Die 7 meistgenannten Probleme lauten:

  1. Es existieren wenig klare Vorgaben.
  2. Es sind geringe Erfahrungswerte vorhanden.
  3. Der Betrieb kann für einen gewissen Zeitraum nicht wie gewohnt weiterlaufen.
  4. Unternehmen zögern und warten die Schritte der Konkurrenz ab.
  5. Unternehmer sorgen sich um Kosten der Digitalisierung.
  6. Der interdisziplinäre Ansatz gehört noch nicht zur unternehmerischen Kernphilosophie.
  7. Eine 100%-Lösung, die alle Probleme in einem Wisch beseitigt, gibt es nicht.

Wie sieht eine erfolgreiche Digitalisierungskampagne aus?

Ein Umdenken im Unternehmen erfordert gute Ideen und Zusammenhalt. Durch technologische Aufrüstung allein führt das Unternehmen nicht zum Erfolg. Was es braucht, sind Mitarbeiter mit Risikobereitschaft und der Eigenschaft, in Chancen zu denken sowie Begeisterung für das eigene Fachgebiet. Agiles Denken und Umsetzen sind gefragt.
Bestmögliche Vorgehensweise: Ein Betrieb sollte einen festgelegten Teilbereich zum Start des Automatisierungsprozesses auswählen. So können zunächst wichtige Erfahrungswerte gesammelt werden, die sich anschließend auf andere Fachbereiche ausweiten lassen.

Der aktuelle Stand der Digitalisierung in Deutschland

Der deutsche Mittelstand nimmt zunehmend die Chancen wahr, die sich aus der Digitalisierung ergeben. Im Fokus stehen neue Geschäftsmodelle, bei denen der Kunde und dessen Anforderungen wieder ins Zentrum des Unternehmenserfolgs rücken. Auch konnte man nun bereits aus den Fehlern und Erfolgen größerer Unternehmen lernen.

Aktuelle Studie belegt enormes Wachstum im IoT-Bereich

Die groß angelegte IoT-Studie 2017 von MPI sollte zeigen, wie sich die Einstellung der Betriebe zum Thema IoT gewandelt hat. Das Ergebnis fiel noch deutlicher aus, als es die Experten erwartetet hatten. Eine deutliche Mehrheit der Unternehmen investieren mehr Geld in Zukunftsprojekte, implementieren IoT-Lösungen in ihrer Fertigung und produzieren IoT-fähige Produkte. In einem Jahr hat die Branche einen Quantensprung vollzogen.
Die Studie belegt deutlich, dass viel Betriebe mittlerweile Profite aus IoT-Lösungen schöpfen. Während noch vor zwei Jahren kaum jemand wusste, was IoT überhaupt bedeutet, sparen heute viele Produktionskosten damit und steigern ihre Wirtschaftlichkeit.

Die wichtigsten Fakten der Studie:

  • 72 % der Befragten gaben an, durch IoT-Lösungen die Produktivität innerhalb der Fertigung zu steigern.
  • 69 % der Firmen verzeichneten mittels IoT mehr Profit als vor dem digitalen Wandel.
  • 65 % erzielten eine höhere Rentabilität, indem sie ihre Produkte mit IoT-Chips und -Modulen ausstatteten.

Alle Ergebnisse aus der Studie finden Sie hier.

Unternehmen sollten jetzt ihren Weg in die Digitalisierung beschreiten!

Damit die digitale Transformation gelingen kann, muss sich vielerorts auch die Unternehmensphilosophie ändern: Die Digitalisierung muss als agiler Wandel verstanden werden, der eine ständige Optimierung voraussetzt. Mittelständische Unternehmen fühlen sich machtlos im Angesicht der IoT-Kampagnen der Großen im Markt. Beim IoT geht es allerdings nicht darum, den allumfassenden Lösungsansatz hervorzubringen, sondern um die stückweise Optimierung der Prozesse.

Scheuen Sie sich nicht, sich Experten ins Boot zu holen. Auch die Beratungsmethodik ist im Wandel, Veränderungsprozesse werden heute agil implementiert. Alle Handlungen sollten sich am maximalen Kundennutzen ausrichten. Vor allem die zielführende und sinnvolle Auswertung der neugewonnenen Daten ist wichtig. Worin liegt die Prädiktion? Welche neuen Geschäftsmodelle könnten entwickelt werden? Wie verbessern wir auf Grundlage der Daten unsere Produkte? Digitalisierung ist prozessorientiert!

Weitere Informationen unter
www.nxtgn.de

Über den Autor:

Patrick Franke greift auf 20 Jahre Erfahrung aus über 100 CRM-Projekten mit Anpassungs- und Integrationscharakteristika zurück. Neue Systeme wurden eingeführt und in die Systemlandschaft integriert. Die größte Herausforderung war dabei immer, Prozesse so zu implementieren, wie sie definiert wurden. Die Art, wie Menschen und Systeme sowie verschiedene Systeme miteinander kommunizieren, bedarf einer zunehmend intelligenten Vorgehensweise. Diese beginnt bei der klaren Definition von Zielsetzungen und der Evaluierung der richtigen Plattformen. Um Intelligenz für die eigenen Prozesse zu forcieren, müssen Integrationen und Applikationen immer smarter werden. Genau dafür steht die NXTGN: Smarte Applikationen, smarte Integrationen und smarte Lösungen, um den Geschäftserfolg sicherzustellen.

Lizenz Aufmacher:

Software-Audit – Keine Panik!

Rechtzeitig vorbeugen und im Auditfall die Nerven bewahren 

Von Markus Oberg, Chairman Lighthouse Alliance, und Torsten Boch, Senior Product Manager bei Matrix42


Lizenzmanagement
ist keine exakte Wissenschaft. Im weitesten Sinne ist es eine juristische Disziplin, denn die Lizenzbedingungen werden von Juristen formuliert. Die Abbildung des Formulierten in der Technik ist nicht immer klar und eindeutig. Die Herausforderung besteht dementsprechend darin, das geschriebene Wort abzugleichen mit dem, was an Software im Unternehmen im Einsatz ist. Dieser Abgleich kann auf vielerlei Arten geschehen. Daher bleibt stets eine Unschärfe, die es zu bewerten gilt. Eine 100%ige Genauigkeit ist eine Illusion. Nie können alle technischen Daten wasserdicht abgebildet werden. Stets muss damit gerechnet werden, dass es am Ende zu Diskussionen kommt, schon allein aufgrund der Komplexität der Sachverhalte.

Lizenzmanagement ist kein Alleingang

In vielen Unternehmen versucht der Lizenzmanager, sich allein um die Thematik zu kümmern. Das funktioniert leider nicht. Lizenzmanagement ist eine Querschnittsfunktion, die ein Team benötigt. Die Organisation muss involviert sein; die richtigen Personen müssen identifiziert und ihnen die richtigen Rollen und Verantwortlichkeiten zugewiesen werden. Zudem müssen die Daten und Prozesse des Lizenzmanagements mit der Organisation im Unternehmen verknüpft werden. Insbesondere sämtliche Prozesse, die sich mit Veränderungen beschäftigen. Unternehmen sind ständig in Bewegung und diese Veränderungen sollten mit dem Lizenzmanagement synchronisiert werden. Das ist oft nicht der Fall. D. h. Lizenzmanager sind in solchen Fällen allein auf die Daten angewiesen. Das funktioniert ein Stück weit, nimmt aber zu einem großen Teil die Möglichkeit, proaktiv einzugreifen.

Spielregeln sind notwendig

Ähnlich wie bei einer Buchführung, für die jeder einzelne Beteiligte die Spielregeln kennen und danach agieren muss, gilt auch für das Lizenzmanagement: Die gesamte Organisation muss informiert, beraten und unterstützt werden. Ein Software-Asset-Manager muss die Spielregeln definieren, sie aktuell halten und kommunizieren. Beispiele: Es gilt zu definieren, wie der Prozess für die Anforderung von Software durch die Anwender laufen soll. Auch wie der Einkaufsprozess aussieht, muss geregelt werden. Genauso wie die Frage „Wie werden Lizenzen eingekauft, wer darf das?“ Dies gilt auch für den Umgang mit Stammdaten. Was passiert, wenn die Organisation umstrukturiert wird, wenn es Kostenstellenveränderungen gibt, wenn sich die Beteiligungsverhältnisse ändern? Das Software Asset Management sollte stets eingebunden sein. Und nicht zuletzt, wenn es Spielregeln gibt, ist es eine Überlegung wert, inwieweit die Verletzung der Spielregeln sanktioniert wird.

Prioritäten setzen

Unternehmen haben unzählige Softwareprodukte von unterschiedlichen Herstellern im Einsatz. Der Überblick geht schnell verloren. Eine Roadmap festzulegen ist daher hilfreich, ebenso wie die Klarstellung, welchen Themen man sich nicht widmen will. In der Regel erfolgt die Bearbeitung herstellerspezifisch oder produktspezifisch. Die Prioritäten sind in jedem Unternehmen andere: Vertragsverlängerungen stehen an, zu hohe Kosten bei einem Hersteller, etc. Kleine Schritte zu planen und abzuarbeiten ist besser, als das Vorgehen nach dem Wasserfall-Prinzip: Excel-Listen ungeprüft in ein neues System zu überführen ist riskant. Zu viele nicht validierte Daten in einem SAM-Tool anzuhäufen ist nicht empfehlenswert. Es ist auch sehr schwierig, alle Hersteller und alle Produkte durch aktives Lizenzmanagement abzubilden. Die Praxis zeigt, die Anzahl der Hersteller ist so groß, dass es auch langfristig weiße Flecken geben wird. Durch eine Corporate Governance bleibt der Überblick erhalten; finanzielle Risiken können besser eingeschätzt werden.

Herausforderung Datenqualität

Im Lizenzmanagement werden viele Daten aus unterschiedlichen Quellen zusammen gezogen, technische Daten, kaufmännische Daten, Stammdaten. Dazu kommt: Jede Datenquelle hat ihre Fehler. Wenn man diese zusammenführt, potenzieren sich die Fehler. Benötigt werden aber valide Daten. Daher ist es wichtig, falsche Daten direkt an der Quelle zu bekämpfen und die Verursacher in die Pflicht zu nehmen. Auch nach Veränderungen muss die Datenqualität noch stimmen. Und: Die Bestandsdaten am Beginn eines Projekts sind stets ein großes Problem. Sie stehen nicht umfassend und nicht spezifisch genug zur Verfügung.

Verträge kommen vor der Technik

Verträge definieren die Spielregeln der Bilanzierung der Lizenzen.  Daher kommt das richtige Verständnis über die geltenden Verträge vor der Aufarbeitung der Beschaffungshistorie. Erst wenn klar ist, wie und was gezählt wird, sollte man sich den technischen Daten widmen und diese mit den Verträgen in Einklang bringen. Obwohl Lizenzmanagement überwiegend aus Organisation besteht, sind Werkzeuge ein Muss, um dem großen Datenvolumens und der Dynamik im Unternehmen Herr zu werden. Allerdings: Die falschen Werkzeuge sind Zeitverschwendung. Ein SAM-Tool muss flexibel anpassbar und prozessunterstützend sein und eine umfassende Erfassung der Softwarewelten ermöglichen.

Weiße Flecken

Software findet auf Desktops, auf mobilen Geräten, in Rechenzentren, in der Cloud statt. SAM-Tools sollten daher diese ganze Vielfalt abdecken. Auch private und Geräte externer Lieferanten müssen mit einbezogen werden, wenn sie im Unternehmen genutzt werden. Und nicht zuletzt sollte jeder Lizenzmanager mit bislang unerkannter Software in den Fachbereichen rechnen.

Wenn der Audit-Brief kommt

Software-Audits sind zeitaufwendig und teuer. Sie sind mittlerweile zu einem Geschäftsmodell der Anbieter geworden. Rein rechtlich basieren sie auf dem Urheberrecht. Hersteller haben einen gesetzlichen Auskunftsanspruch, aber keinen Besichtigungsanspruch. Das setzt voraus, dass der Rechtsinhaber die Rechtsverletzung durch das Unternehmen glaubhaft machen muss. Zudem muss die Rechtsverletzung durch das Unternehmen in gewerblichem Ausmaß erfolgen. Das Auskunftsverlangen des Herstellers muss verhältnismäßig sein.

Ein verdachtsunabhängiges Audit lässt sich auf gesetzlicher Grundlage in der Regel nicht herleiten. Allerdings kann es sein, dass der Hersteller ein in den Lizenzbedingungen festgeschriebenes Audit-Recht ausübt. Die Audit-Klauseln in den Lizenzverträgen unterliegen jedoch der AGB-Kontrolle. Eine Audit-Klausel darf den Lizenznehmer nicht unangemessen benachteiligen und sie muss klar und verständlich sein. Damit eine Audit-Klausel gilt, muss sie folgenden Kriterien entsprechen:

  • Angemessene Ankündigungsfrist (5 Tage etwa sind zu wenig, 30 bis 40 Tage sind ausreichend)
  • Konkretisierung der Prüfinhalte und des Prüfumfangs – sie müssen erkennen können, was auf sie zukommt
  • Dauer und Anzahl der Audits
  • Beschränkung auf übliche Geschäftszeiten
  • Wahrung der Geschäftsgeheimnisse
  • Einhaltung datenschutzrechtlicher Vorgaben
  • Qualifikation und Verschwiegenheit der Auditoren
  • Regelung der rechtlichen Folgen einer Über- und Unterlizenzierung

Die Erfahrung zeigt, dass praktisch keine Audit-Klausel ausreichend klar formuliert ist und einer AGB-Prüfung standhält. Ist eine AGB-Klausel zum Teil unwirksam, dann wird sie im Ganzen unwirksam. Zu beachten ist dabei aber der sog. Blue-Pencil-Test. Wird der unwirksame Teil weggestrichen, dann ist zu prüfen, ob der verbleibende Rest der Klausel einen eigenen Sinn ergibt. Wenn dem so ist, dann könnte es sein, dass die Klausel fortbesteht.

Reaktionen auf eine Audit-Aufforderung

Sind Unternehmen mit einem Audit konfrontiert, gibt es zwei grundlegende Einstellungen:

  • Volle Abschottung, um das Audit nach Möglichkeit zu verhindern.
  • Volle Kooperation

Besser ist eine Strategie im Sinne von DEFCON 5-1, also eine sanftere Variante des Widerstands. Allerdings ist Vorsicht geboten, wenn eine „kontrollierte Konflikt-Eskalation“ angestrebt wird. Verweigerung kann in massiven Streit ausarten, was nicht förderlich ist.

Software-Audit Strategien:

  • Bei Erhalt des Auditschreibens vollständig ablehnen
  • Erst ablehnen, um dann individuellen Ablauf zu verhandeln
  • Bei Kauf individuelle Audit-Klausel vereinbaren
  • Bei Kauf Audit-Klausel streichen
  • Stets freiwilliges True-Up durchlaufen
  • Verschiedenste Kombinationen davon

Es besteht zudem die Möglichkeit, eigene Audit-Klauseln zu verhandeln bzw. einen individuellen Audit-Ablauf zu vereinbaren, etwa nach dem Grundsatz: Vorrang der Selbstauskunft. Klar ist, nicht alles ist durchsetzbar, aber es geht um die Verhandlungsmasse und um die Ziele der Verhandlung.

Externe Auditoren

Wird das Audit von Dritten durchgeführt, sind diese üblicherweise bevollmächtigt vom Lizenzgeber. Für das auditierte Unternehmen ist es wichtig, Einsicht in den Auftrag zu erhalten, um sicher zu gehen, dass dieser Dritte kein erfolgsabhängiges Honorar erhält. Zu beachten ist auch, dass diese Dritten keinen Vertrag mit dem Unternehmen haben. Ein solcher wäre aber empfehlenswert, um z. B. in Sachen Datenschutz Sicherheit zu schaffen.

Software-Audits bleiben riskant. Sie werden tendenziell zunehmen, auch durch die Cloud. Unternehmen sollten mutig an das Thema herangehen, sich mit anderen austauschen und von den Erfahrungen anderer profitieren.

 

Über Torsten Boch, Senior Product Manager bei Matrix42

Torsten Boch ist seit 2006 Produktmanager bei Matrix42 im Bereich „Compliance“ mit den Schwerpunkten License, Asset und Contract Management. Davor war er 15 Jahre als Entwickler, Berater und Projektleiter bei verschiedenen Unternehmen für die Gestaltung und den Einsatz von Standardsoftware verantwortlich. Er ist Diplom Betriebswirt mit einer Spezialisierung auf Steuer- und Handelsrecht sowie Bilanzierung und Buchführung.

 

 

Über Markus Oberg, Partner und Business Development Manager bei ProLicense, Chairman Lighthouse Alliance

Diplom-Kaufmann Markus Oberg ist seit über drei Jahren unter anderem  als Oracle Licensing Professional bei der ProLicense GmbH beschäftigt. Zu seinen Spezialisierungen gehört neben den lizenzrechtlichen Fragestellungen bei M&A-Transaktionen der weite Bereich der Software Audits. Die strategische Planung von Audits und die Zusammenstellung und Koordination von Software Audit Response Teams (SAR-Teams) stehen dabei im Mittelpunkt.

Seit Dezember 2016 leitet Markus Oberg als Chairman das Startup-Projekt „The Lighthouse Alliance“. Dahinter verbirgt sich ein neues disruptives Modell für den radikalen und detaillierten Erfahrungsaustausch in Bezug auf Software Audits jeglicher Hersteller.

Weitere Informationen unter:

www.lighthouse-alliance.com

 

 

Über Matrix42

Matrix42 ist einer der Top-Anbieter von Software für das Arbeitsplatzmanagement. Unter dem Motto „Smarter Workspace – Better Life“ bietet das Unternehmen zukunftsorientierte Lösungen für moderne Arbeitsumgebungen. Mehr als 3.000 Kunden – darunter BMW, Infineon und Carl Zeiss – verwalten mit den Workspace Management Lösungen von Matrix42 über 3 Millionen Arbeitsplätze weltweit.

Matrix42 ist in acht Ländern erfolgreich aktiv – Deutschland, Österreich, Schweiz, Frankreich, Niederlande, Vereinigtes Königreich, Australien und Vereinigte Staaten von Amerika. Der Hauptsitz des Unternehmens befindet sich in Frankfurt am Main, Deutschland.

Die Produkte und Lösungen der Matrix42 sind darauf ausgerichtet, moderne Arbeitsumgebungen – physische, virtuelle oder mobile Arbeitsbereiche – einfach und effizient bereit zu stellen und zu verwalten.

Matrix42 fokussiert auf Anwenderorientierung, Automatisierung und Prozessoptimierung. Mit den Lösungen des Unternehmens werden sowohl die Anforderungen moderner Mitarbeiter in Unternehmen, die ortsungebunden und mit verschiedensten Endgeräten arbeiten wollen, als auch der IT-Organisation und des Unternehmens selbst optimal erfüllt.

Matrix42 bietet seine Lösungen branchenübergreifend Organisationen an, die Wert auf ein zukunftsorientiertes und effizientes Arbeitsplatzmanagement legen. Dabei arbeitet das Unternehmen auch erfolgreich mit Partnern zusammen, die die Matrix42 Kunden vor Ort beraten und betreuen; zu den führenden Partnern zählen TAP.DE Solutions GmbH, Consulting4IT GmbH und DSP IT Service GmbH.

 

Weitere Informationen unter: www.matrix42.com

 

Billingplattform: Leistungsfähig und flexibel

Die TREND-REPORT-Redaktion sprach mit nexnet-CEO Lars Heucke unter anderem über zeitgemäßes Billing und Forderungsmanagement.

Herr Heucke, was verstehen Sie unter einem digitalen Ökosystem?

Ein perfektes digitales Ökosystem für die Abrechnung fängt für uns bei der Kundenverwaltung an und endet bei den Inkassoprozessen. Es ist sehr wichtig, dass alle Informationen aus allen Prozessschritten genutzt werden können, damit überhaupt optimale Prozesse in Hinblick auf Wirtschaftlichkeit und Kundenzufriedenheit modelliert werden können. Beispiel: eine gelöste Zahlungsschwierigkeit bei einem Endkunden im Inkassoprozess, soll im CRM dazu führen, das er den Dienst oder die Leistung auch weiter nutzen kann.

Wie individuell kann die Vertrags- und Tarifgestaltung bei Ihrer Billing-Plattform in diesem Kontext sein?

Die Produkt und Tarifgestaltung ist so individuell wie die Individuen, die sie kreieren. Und deshalb haben wir von Anfang an bei unserem CRM-System auf maximale Flexibilität gesetzt. Da die gängigen Softwarehersteller aber den Ansatz vertraten – und größtenteils heute auch noch vertreten -, dass die Modelle des Kunden in das Datenmodell des Software-Herstellers passen und ggf. nur mit individuell genutzten „General-Fields“ erweitert werden können, haben wir unser eigenes Applicationsframework auf Java OpenSource Technologie entwickelt. Hierbei verfolgen wir mit unserem b(uild)y(our)o(wn)CRM einen komplett anderen Ansatz: zuerst entwerfen wir mit dem Kunden gemeinsam am Whiteboard ein sauberes Datenmodell und customizen dieses dann in unser Application Framework. Sämtliche Tabellen in der Datenbank, alle Oberflächen und APIs werden dann automatisch im byoCRM on the fly erzeugt. Dies ermöglicht auch bei Änderungen eine maximale Flexibilität, da praktisch auf Knopfdruck neue Parameter oder gleich ganz neue Datenmodelle mit aufgenommen werden können. Weitere Features wie Workflow-Management auf Basis BPMN 2.0, Reporting und eine Suche analog zu Google runden den Basis-Funktionsumfang unseres byoCRMs ab. Alle weiteren Prozesse und Systeme erhalten dann die für sie notwendigen Daten und Informationen per Mapping aus dem byoCRM.

Sie bieten diesen Geschäftsprozess als BPO. Inwiefern trägt dies bei Ihren Kunden zum Risikomanagement bei?

Unsere Kunden können sich auf unsere standardisierten Abrechnungsprozesse verlassen, da wir die Verantwortung für diese Prozesse übernehmen. Dazu haben wir ein über alle Prozess- und Systemgrenzen umspannendes, internes Kontrollsystem aufgebaut, welches wir auf Wunsch für die individuellen Kundenanforderungen erweitern und auch von einem Wirtschaftsprüfer gemäß PS951 (SOX-Compliance) testieren lassen können. Unsere Betriebs- und Finanzexperten betreuen und überwachen diese Prozesse täglich. Dadurch können wir schnell und frühzeitig reagieren und mit unseren Kunden ggf. Korrekturen oder Optimierungen in den Abläufen abstimmen.

Neben einigen Branchenschwergewichten“ ist nexnet auch für viele Start-ups aktiv. Sehen Sie hierfür spezielle Gründe?

Viele Start-ups haben Services für eine große Anzahl von Endkunden mit ggf. auch komplexeren Subscription-Modellen und eine internationale Ausrichtung mit mehreren Payment-Service-Providern. Diese Abrechnungen in eine transaktionsbasierte Debitorenbuchhaltung zu überführen, zu managen und zu überwachen, benötigt entsprechende Systeme und viel Erfahrungen. Das Debitorenmanagement ist somit nicht mehr nur lästiges Beiwerk im Unternehmen sondern dient mit unserer Hilfe dazu, das Business eines erfolgreichen Unternehmens zu steuern.

Wie beurteilen Sie PSD2 und die weiteren Entwicklungen bei SEPA?

Nicht nur PSD2 sondern viele andere sich erweiternde Regularien machen es notwendig, diese Regelwerke transparent und revisionssicher nachzuweisen. Revisionssicherheit bedeutet hoher Dokumentationsaufwand in allen Finanzprozessen. Die operativen Prozesse werden deutlich aufwändiger und komplexer. Man muss über viel Erfahrung und Know-how verfügen, um diese Prozesse wirtschaftlich vernünftig abbilden zu können.

Im digitalen Zeitalter erwarten immer mehr Kunden eine Echtzeit-Verarbeitung ihres elektronischen Zahlungsverkehrs. Insofern kann Instant-SEPA aus meiner Sicht einen deutlichen Schub für den gesamten Paymentmarkt auslösen. Die PSD2 schafft die rechtliche Grundlage für neue Marktteilnehmer, die mit innovativen Lösungen um Marktanteile im Finanzsektor kämpfen. Die Möglichkeit praktisch im Abrechnungsprozess sofort eine Zahlung zu verbuchen, vereinfacht vieles.

 

Weitere Informationen unter: www.nexnet.de

Squirro schließt Finanzierungsrunde mit 10 Millionen Dollar unter Führung von Orange Growth Capital ab

Zürich/München, 7. Juli 2017 – Squirro (https://squirro.com), innovativer Lösungsanbieter in den Bereichen Context Intelligence und Insights, hat eine Series-B-Finanzierungsrunde in Höhe von zehn Millionen US-Dollar unter Führung des neuen Investors Orange Growth Capital erfolgreich abgeschlossen. Beteiligt sind zudem der neue Investor Salesforce Ventures und bisherige Investoren.

Squirro wird das neue Funding nutzen für die Beschleunigung seines Wachstums in aufstrebenden Märkten, den Ausbau seiner Präsenz in Nordamerika und Europa und die Verstärkung des Forschungs- und Entwicklungsteams in Zürich.

Dr. Dorian Seitz freut sich über die erfolgreiche Finanzierungsrunde

„Die neue Funding-Runde mit bedeutenden Investoren erlaubt uns eine Erhöhung der Wachstumsgeschwindigkeit“, betont Dr. Dorian Selz, CEO und Mitgründer von Squirro. „Der Einsatz unserer Technologie ermöglicht jedem Unternehmen die wirksame Nutzung ihrer eigenen Datenbestände und einen signifikanten Return on Investment. Diese Finanzierung ist ein weiterer wichtiger Schritt im Hinblick auf unser Ziel, Squirro in den Bereichen Context Intelligence und Insights zum marktführenden Unternehmen zu entwickeln. Mit den zusätzlichen Ressourcen können wir unsere Innovationen vorantreiben, unsere globale Präsenz erhöhen und unser Partner-Ökosystem erweitern.”

„Wir freuen uns, das Unternehmen Squirro zu unterstützen, das das Epizentrum der Innovation im Bereich Datenmanagement ist“, erklärt Radboud Vlaar, Partner bei Orange Growth Capital. „Mit der Fokussierung auf den Einsatz seiner Künstliche-Intelligenz-Technologien hat das Unternehmen renommierte Kunden weltweit gewonnen, für die die Datenmanagement-Technologie extrem relevant für ihr Geschäft ist. Wir freuen uns auf die Partnerschaft mit Squirro und die Zusammenarbeit bei der Weiterentwicklung des Business auf die nächste Wachstumsstufe.“


Diese Presseinformation kann auch unter www.pr-com.de/squirro abgerufen werden.


Über Squirro

Squirro bietet die führende Cloud-Plattform Cognitive Insights für die umfassende Analyse von unstrukturierten Daten. Auf Basis von proprietären Technologien im Bereich künstliche Intelligenz verwandelt Squirros Cognitive Insights Engine wertlose Daten in wirkungsvoll nutzbare Erkenntnisse. 

Squirro arbeitet mit globalen Organisationen und Unternehmen zusammen, vorwiegend in den Branchen Finanzdienstleistungen, Versicherungen, Telekommunikation und produzierendes Gewerbe; Kunden sind etwa Brookson, Evalueserve, Investec, Helvetia Insurance, Swiss Re, Vontobel oder Wells Fargo. Gegründet 2012 ist Squirro aktuell mit Standorten in Zürich, München, Barcelona, London und New York vertreten.

Weitere Informationen zu Squirro finden sich unter https://squirro.com.


Über Orange Growth Capital

Orange Growth Capital („OGC“) ist eine Financial-Technology („FinTech“)- Venture-Capital-Firma, die 2013 gegründet wurde und in Europa und Südostasien investiert. Hauptfokus sind die europäischen FinTech-Hubs wie London, Amsterdam, Berlin, Stockholm und Basel; selektiv wird auch in südostasiatischen Hubs wie Singapur, Jakarta und Kuala Lumpur investiert. Von den Standorten in Amsterdam, London und Singapur aus werden bedeutende Minderheitsbeteiligungen von Early-Stage-FinTech-Unternehmen erworben.

OGC ist ein aktiver Investor, der seine Portfolio-Unternehmen unterstützt, indem er im Board vertreten ist, eine wichtige Rolle bei der Strategiedefinition spielt und bei der Geschäftsentwicklung hilft – einschließlich Funding. OGC hat seit dem Unternehmensstart 14 Investitionen getätigt in Bereichen wie Kredit- und Einlagengeschäft, Fraud Prevention, Investments, Zahlungswesen und Versicherungen. Vor Kurzem wurden Investments in Trussle bekannt gegeben, einen britischen digitalen Hypothekenmakler, und Cermati, einen indonesischen Online-Financial-Services-Produktanbieter. Zu den weiteren Portfolio-Unternehmen gehören Zopa, DIG, SAFENED, Saviol und BUX.  

Weitere Informationen finden sich unter www.ogc-partners.com.


Über Salesforce Ventures

Salesforce Ventures, die Investmentgruppe von Salesforce, investiert in die nächste Generation von Enterprise-Technologien, um Unternehmen zu helfen, mit ihren Kunden auf gänzlich neuen Wegen in Kontakt zu treten. Die Portfolio-Unternehmen erhalten Fundings sowie Zugang zum weltweit größten Cloud-Ökosystem und Unterstützung durch Innovatoren und Führungskräfte von Salesforce. Über Salesforce Ventures können Portfolio-Unternehmen auch die Expertise von Salesforce in der Unternehmensphilanthropie nutzen und der Initiative „Pledge 1%“ beitreten, um die Gesellschaft an ihrem Erfolg teilhaben zu lassen. Salesforce hat seit 2009 in mehr als 150 Enterprise-Cloud-Start-ups investiert.

Weitere Informationen finden sich unter www.salesforce.com/ventures.


Ansprechpartner:

Squirro
Geraldine Teboul
Badenerstrasse 120
CH-8004 Zürich
Tel: +41 44 586 98 98
geraldine.teboul@squirro.com
https://squirro.com

PR-COM GmbH
Christina Achtert
Sendlinger-Tor-Platz 6
D-80336 München
Tel.: +49-(0)89-59997-702
christina.achtert@pr-com.de
www.pr-com.de

Amtsgericht München, HRB-Nummer 114932

Geschäftsführer: Alain Blaes

Open Source- Quelle und Zukunft der Innovation

Gastbeitrag: Jim Whitehurst

Open Source hat sich für viele Anwendungsszenarien in den Unternehmen und im Privatleben durchgesetzt und wird auch zukünftig Innovation und Kreativität inspirieren.

 

Red Hat arbeitet sehr eng mit der Open-Source-Community zusam­men und liefert Beiträge zur Community-getriebenen Innovation, die viele der weltweit wichtigsten Open-Source-Initiativen vorantreibt. Anschließend testet und prüft das Unternehmen die besten Ideen und Software und stellt sicher, dass sie bereit für den kommerziellen Ein­satz, das heißt sicher und stabil, sind. Red Hat bietet Support für die Software und kooperiert mit einem umfangreichen Partnersystem auf der ganzen Welt, um deren Lösungen ebenfalls für den Einsatz in Unternehmen zu zertifizieren.

Open Source hat sich auf dem Markt durchgesetzt, dies zeigt sich auf verschiedenen Gebieten: Jeder nutzt hunderte Mal am Tag Open-Source-Software, ohne es zu merken. Jedes Mal, wenn ein User im Web surft, E-Mails versendet, mit Freunden online chattet, Musik streamt, Video Games spielt oder mit seinem Smartphone telefoniert, verwendet er wahrscheinlich irgendeine Art von Open-Source-Software. In Unternehmen kommen Open-Source-Lösungen in allen Branchen für vielfältige Zwecke zum Einsatz, angefangen von Cloud Computing über die Applikationsentwicklung und Big Data bis zu Speichersystemen.

Einige assoziieren Open Source mit dem Betriebssystem Linux. Im Unterschied zu anderen kommerziellen Betriebssystemen, wie bei­spielsweise Windows, ist Linux kostenlos und wird kontinuierlich durch die Fähigkeiten und Erfahrungen von Tausenden von Menschen aktualisiert sowie erweitert – und nicht nur von einem einzigen Ent­wicklerteam. Dadurch erzielt Open Source eine höhere Innovationsge­schwindigkeit als proprietäre Softwarehersteller. Gleichzeitig ist dieser Innovationsgrad ein wichtiger Grund dafür, warum sich die Open-Source-Ent­wicklung als Standard für viele Technologien und in Unternehmen durchgesetzt hat.
 

Open Source ist mehr als Linux

Open Source lässt sich bis zu den Anfängen des Internet zurück­verfolgen und vieles darin basiert auf Open-Source-Technologien. Linux wurde 1991 von dem Finnen Linus Torvalds entwickelt, dem die Idee dazu aus Frustration über teure Software kam. Die Open-Source-Werte und -Prinzipien finden aber auch Anwendung außerhalb der Softwarewelt. Für Red Hat ist Open Source nicht nur eine Methode, um Software zu entwickeln und zu lizenzieren, sondern auch eine Grundhaltung.

Lebensbereiche nach Open-Source-Prinzipien anzugehen heißt, bereit zu sein für den transparenten und offenen Austausch und die Zusammenarbeit mit anderen, das Scheitern als Chance für Verbesserungen anzusehen und davon auszugehen, dass andere auch so handeln. Das bedeutet außerdem, eine aktive Rolle bei der Verbesserung der Welt einzunehmen. Dies ist nur möglich, wenn jeder Zugriff zu den benötigten Informationen hat und über die Möglichkeit verfügt, Neues beizutragen.

Torvalds ist der Erfinder von Linux. Das wirklich Besondere und Inspirierende aber daran ist, dass sobald er das Betriebssystem veröffentlichte jeder, der wollte, Beiträge beisteuern und die Idee mit Leben füllen konnte.
Open Source ist eine wahrhaft globale Bewegung, die auf Mitwirkung, individuellen Ideen und Beiträgen vieler statt nur weniger beruht. Viele der weltweit größten Probleme wurden durch den Einsatz von Open-Source-Technologien gelöst. Zudem ist die Innovationsrate innerhalb der Open-Source-Community beachtlich. Der Erfolg von Open Source ist nicht allein ein Verdienst großer IT-Unternehmen. Ohne die Entwickler-Communities und deren enthusiastische Unterstützung könnte Open Source nicht existieren.

OpenAI, Tesla, Facebook und Google sind alles angesagte Unternehmen und Wegbereiter der Innovation beim Einsatz von Open Source. Eine Welt ohne sie ist heute nicht mehr vorstellbar.
 

Open-Source-Technologien ermöglichen schnellere Innovationen

Open-Source-Technologien wie Linux sind äußerst populär und bieten Unternehmen ein enormes Potenzial für schnellere Innovationen. Wie bei jeder anderen Software oder Smartphone-App wollen Anwender sich darauf verlassen, dass sie fehler- und unterbrechungsfrei sowie sicher arbeitet. Wenn das IT-System einer Bank täglich Transaktionen im Wert von Millionen von Euro mit Linux verarbeitet ist es essenziell, dass die Bank mit einem Open-Source-Spezialisten wie Red Hat zusammenarbeitet, um einen stabilen und sicheren Betrieb zu gewährleisten. Red Hat beispielsweise bietet Subskriptions-basierte Produkte, die dazu beitragen.

In der Vergangenheit standen Anbieter wie Red Hat vor der Herausforderung, dass viele Unternehmen den Grundgedanken von Open Source nicht verstanden. Sie hatten oft Fragen dazu, wie eine vollständig offene und freie Umgebung sicher sein kann. Danach wird kaum noch gefragt. Heute nutzen nahezu alle Banken, Fluggesellschaften, Behörden und Einzelhändler in den USA in bestimmten Bereichen Open-Source-Lösungen – oft sogar für den unternehmenskritischen Betrieb.

Viele dieser Organisationen haben erkannt, dass sie mehr agile Open-Source-Lösungen einsetzen müssen, um im Wettbewerb mit den kleinen, schnellen und intelligenten Unternehmen überleben zu können. Viele namhafte Firmen sind untergegangen, da es ihnen nicht gelungen ist, die Anforderungen moderner Kunden aufzugreifen.
Da Innovation bei Open Source schneller erfolgt und offene Plattformen Unternehmen bei der Einführung digitaler Geschäftsmodelle und Services auf Basis zukunftsfähiger IT-Systeme unterstützen können, entwickelt sich Open Source zum Standard.

Darüber hinaus bieten selbst führende Unternehmen wie Microsoft und Apple heute Linux-kompatible Software an. Festzustellen ist, dass Open Source endgültig die Herzen und Köpfe der großen Unternehmen gewonnen hat. Red Hat ist das erste Unternehmen, dass die Schwelle eines jährlichen Umsatzes von zwei Milliarden US-Dollar überschritten hat – ein Beleg für die große Popularität von Open Source.
 

Die Community bildet das Zentrum von Open Source

Jahrelang haben Closed-Source-Anbieter Linux und Open Source als Bedrohung angesehen und haben ihren Kunden von einem Einsatz abgeraten. Durch den Einsatz engagierter Entwickler, von Open-Source-Communities und Unternehmen wie Red Hat, ist Open Source erfolgreicher als je zuvor und für viele Menschen ein bedeutender Teil ihres Alltags.
In diesem Zusammenhang sei daran erinnert, dass die Community das Zentrum von Open Source bildet. Das ist das sprichwörtliche Geheimnis. Die Beobachtung der Arbeit von Open-Source-Communities und speziell die Kooperation bei der Problemlösung – unter gleichen Wettbewerbsbedingungen für alle, damit sich die besten Ideen durchsetzen – ist enorm leistungsfördernd.
 

Warum sollte man sich mit Open Source befassen?

Wenn es sie nicht gäbe, wäre so vieles, was als gegeben hingenommen wird, nicht möglich. Ohne die Cloud und das Web würde das Leben für jedermann anders aussehen. Beides würde es vermutlich geben, aber nicht so wie Cloud und Web heute bekannt sind.

Dass jeder mit anderen zusammenarbeiten kann, um eine Idee oder ein Projekt voranzubringen, dessen Ergebnis alle nutzen können, ist eine radikale Vorstellung. Etwas ganz besonderes ist es, wenn ein öffentlich entwickeltes Tool in einer Technologie zum Einsatz kommt, die einer besseren Patientenversorgung oder der Bildung zu Gute kommt. Durch die Bündelung von Wissen und den Zugang zu Patientendaten sind Krankenhäuser und Ärzte in der Lage, gemeinsam Therapien und die Patientenversorgung zu verbessern. Es ist unglaublich, mitzuerleben, wie Open-Source-Technologien die Innovation auf diesen Gebieten fördert.

Opern Source wird auch zukünftig die Innovation und Kreativität inspirieren.
Mehr noch: Die Offenheit in allen Aspekten der Gesellschaft, der Kunst und Kultur wird in nicht allzu ferner Zukunft zur grundlegenden Art des Handelns. Es gibt heute schon faszinierende Beispiele für Offenheit, Kooperation und Partizipation in der Musik und Kunst. Das alles ist erst der Anfang. Offenheit wird zum Standard für eine bessere und schnellere Innovation.

 

Red Hat

 

Autorenvita: Jim Whitehurst

Jim Whitehurst ist President und CEO von Red Hat.

James „Jim“ Whitehurst ist President und Chief Executive Officer von Red Hat, dem weltweit führenden Anbieter von Open-Source-Lösungen. Whitehurst ist ein begeisterter Verfechter von Open Source als Innovationskatalysator in Unternehmen.
Seit er sich Red Hat im Januar 2008 anschloss, hat er den Umsatz des Unternehmens mehr als verdoppelt und den Börsenwert verdreifacht. Bevor er zu Red Hat kam, war Whitehurst sechs Jahre bei Delta Air Lines. Dort trieb er die internationale Expansion des Unternehmens maßgeblich voran und leitete als Chief Operating Officer sämtliche Aspekte des Airline-Betriebs, vom Vertrieb bis hin zur Strategie.
Zuvor war er bei The Boston Consulting Group tätig, hatte verschiedene Führungspositionen in der Unternehmensentwicklung inne und arbeitete in Chicago, Hongkong und Shanghai sowie als Partner am Standort Atlanta mit einer Vielzahl an Kunden aus verschiedensten Branchen.

 

 

Bilder / Quellen / Lizenz

Digitalisierung ist mehr als pure Effizienzsteigerung

Wir sprachen mit Herrn Dr. Wenzel und Herrn Dr. Schulz, beide Geschäftsführer von 3DSE Management Consultants, über die Digitalisierung in Forschung und Entwicklung. Wichtig, so betonen beide, ist es, zu verstehen, dass Digitalisierung nicht bedeutet, pure Effizienzsteigerung zu betreiben. Vielmehr ginge es darum, neue Services in Produkte zu integrieren und dies schon direkt beim Produktkonzept zu bedenken. Diese neuen Services verlangen nach einem neuen Verständnis der Digitalisierung und einer entsprechenden Integration im Produktentwicklungsprozess. Die Digitalisierung der Produktion ist also Voraussetzung für die Digitalisierung im Produkt.

Herr Dr. Wenzel, welche typischen Fehler machen Unternehmen bei der Entwicklung im Kontext der Digitalisierung?

Dr. Wenzel: „Neue disruptive Geschäftsmodelle können das ganze Spiel verändern.“

Der erste und größte Fehler besteht darin, Digitalisierung als reines Effizienzthema zu betrachten. Wer lediglich die Entwicklungsprozesse automatisiert, um dadurch Geld zu sparen und die Profitabilität zu steigern, der vergisst den Kern der Digitalisierung. Neue disruptive Geschäftsmodelle können das ganze Spiel verändern. Sie kennen vielleicht den Begriff „Innovators Dilemma“: Führende Unternehmen scheitern teilweise daran, dass sie das, was sie machen, richtig gut machen. Sie achten zu sehr auf Effizienzsteigerung und vergessen dabei das Marktumfeld auf der Geschäftsmodellebene. Der zweite typische Fehler ist, dass Unternehmen in der Entwicklung entweder sehr operativ getrieben sind oder total strategischen Visionen hinterherlaufen und keine Taktik entwickeln, mit der sie Digitalisierung erfolgreich umsetzen können. Das führt dann manchmal zu „Dream-on“-Themen, also nicht umsetzbaren Visionen, da die Sprünge viel zu groß sind. Taktik heißt z.B., man identifiziert Zwischenschritte bei denen die notwendige Kompetenz vorhanden ist. Schritte, auf die man Einfluss nehmen kann, mit denen man lernen kann, um dann erst den nächsten Schritt zu gehen. Der dritte typische Fehler besteht darin, Digitalisierung als rein methodisches, toolgestütztes Thema zu betrachten. Dabei werden die Aspekte, die wir unter dem Stichwort Strategie und Innovation besprochen haben – wie Kultur, Change-Management und Leadership – einfach vergessen oder nicht hoch genug priorisiert.

Wie helfen Sie Unternehmen, Entwicklungsrisiken zu vermeiden bzw. früh genug zu erkennen?

Zunächst definieren wir mit den Unternehmen gemeinsam einen Nordstern, also einen Fix- oder Orientierungspunkt, zu dem die Reise hingehen soll. Dann erarbeiten wir die kritischen Erfolgsfaktoren und Stellhebel für die Unternehmen sowie „Frühindikatoren“, an denen wir später feststellen, ob wir noch auf dem richtigen Weg sind. Wir nennen das den „inneren Kompass“ – die Menschen müssen spüren, ob sie noch auf dem richtigen Weg sind, oder nicht. Das müssen keine harten Kennzahlen sein, sondern können durchaus qualitative Kenngrößen sein. Dann erarbeiten wir  mit dem Kunden die strategischen Stoßrichtungen, die alle relevanten Veränderungsbereiche berücksichtigen. Das sind in der Regel drei bis sechs Stoßrichtungen, über die wir die Veränderung einläuten können. Des Weiteren erarbeiten wir mit dem Kunden eine stimmige Roadmap. Stimmig heißt, basierend auf den Fragestellungen: „Was kann das Unternehmen? Wo steht das Unternehmen? Was sind die Einstiegsthemen? Was ist die mittelfristig mögliche Ziellösung? Und was ist die Vision, auf die wir langfristig zusteuern?“ Darüber hinaus bieten wir Best-Practice-Austausch – Unternehmen lernen, was andere machen. In Zukunft werden wir ein Lab aufbauen, in dem Mittelständler die Möglichkeit haben, in einem horizontalen Netzwerk Produkte zu entwickeln und wir geben ihnen eine passende Entwicklungsmethodik dazu.

Herr Dr. Schulz, was bedeutet für Sie die agile Produktentwicklung?

Dr. Schulz fordert „von monolithischen Produkten wegzugehen und stärker zu modularisieren und in Features zu denken.“

Vor allem Risikominimierung, die man im Wesentlichen durch drei Ansatzpunkte erreichen kann.
Erstens: Durch eine agile Produktentwicklung kann sehr flexibel auf kurzfristigen Marktbedarf in hoher Geschwindigkeit reagiert werden. Man muss nicht drei, vier Jahre warten, bis man eine Lösung für ein Kundenbedürfnis hat. Der zweite wesentliche Ansatzpunkt besteht darin, neue Features quasi „testweise“ in den Markt zu bringen und zu lernen, ob beim Kunden ein Bedarf besteht und wie diese Features angenommen werden. Über die Datenrückführung und die damit verbundenen Insights über den Kunden und sein Nutzungsverhalten wird eine solche nachgeschobene Funktionalität in kurzen Zyklen verbessert. Dies ist vollkommen konträr zur bisherigen Praxis mit langen und frühen Konzeptphasen und sehr viel Planung zum Zweck einer komplett ausentwickelten Funktionalität. Dafür besteht nicht mehr das große Risiko, dass man nach langer Vorlaufzeit erst spät erkennt, etwas entwickelt zu haben, was der Kunde gar nicht haben wollte.
Der dritte Ansatzpunkt sorgt dafür, dass man in sehr kurzen Iterationen arbeitet, an deren Ende man immer wieder anhand eines – in der Fachsprache sogenannten – „working prototypes“ versucht, den kompletten Funktionsumfang auslieferungsfähig zu erzeugen. In allen drei Ansatzpunkten ist die entscheidende Voraussetzung, von monolithischen Produkten wegzugehen und stärker zu modularisieren und in Features zu denken.

Herr Dr. Wenzel, welche Bedeutung hat in Zukunft die künstliche Intelligenz im Innovationsprozess?

Ich glaube, sie hat einen sehr hohen Einfluss. Hierzu möchte ich auf zwei sehr interessante Aspekte eingehen: Wir sind uns sicher, dass schlaue Computer in vielen Unternehmen Arbeiten übernehmen werden, die bisher Menschen und Ingenieure gemacht haben. Dabei meine ich nicht nur banale Aufgaben, sondern beispielsweise auch Bots, die Antworten auf Kunden und Lieferanteanfragen geben. Mittlerweile gibt es schon Programme, die Teile von Produkten entwerfen oder ganze Produkte auslegen können. Stichwort: generative design. Ein Kotflügel kann so von einem Computer gestaltet werden. Vielleicht brauchen wir in Zukunft keine Controller mehr in der Entwicklung – das können Computer irgendwann sicher auch. Sie werden wahrscheinlich sogar den Budget- und Ressourcenfluss besser managen können als einzelne Menschen.
Wir werden Sprachcomputer, wie wir sie heute im Smartphone mit Siri oder zu Hause mit Alexa haben, auch in der Entwicklung sehen. Das wird Meetings verändern, da man Fragen an den Computer stellen kann und direkt im Meeting Antworten parat hat. Man wird Termine und Schnittstellen, auch technische, über den Computer organisieren können.
Der zweite Aspekt: Natürlich wird KI dazu genutzt werden, das Kundenverhalten zu prognostizieren, wie wir es auch von Google kennen. Bei der Entwicklung neuer Produkte wird das immer wichtiger werden.

„Mittlerweile gibt es schon Programme, die Teile von Produkten entwerfen oder ganze Produkte auslegen können.“

Worauf müssen Unternehmen in diesem Kontext achten?

Zunächst benötigen sie die Kompetenz, solche Technologien und ihren Nutzen einzuschätzen. Es gilt jetzt, die Begriffe KI, AI, Machine Leraning, Deep Leraning, etc. nicht mit Träumereien, Dream-Ons, zu belegen, sondern harte Kompetenzen aufzubauen und zu lernen. Diese Themen müssen jetzt im Unternehmen etabliert werden. Des Weiteren benötigt KI Daten, aus denen sie lernen kann – gerade beim Thema Kundenverhalten. Das heißt, ich brauche eine Entwicklungsumgebung, eine Cloud, worin ich die Daten sammle und ich benötige Experten, die die Algorithmen entwickeln um gute Ableitungen zu treffen.
Außerdem müssen Unternehmen darauf achten, überhaupt die Kundenschnittstelle zu besetzen und das nicht einem Smartphone zu überlassen. Um User-Nutzerdaten überhaupt generieren zu können, reicht es nicht, nur zum Googlen zu animieren.

Welche Rolle wird Augmented Reality in Zukunft im Product Lifecycle einnehmen?

AR bzw. die computergestützte Erweiterung der Realität wird heute schon in der Entwicklung eingesetzt. Sie ermöglicht einen Wissenstransfer. Im Prinzip hängen dabei an Prototypen oder Fahrzeugen virtuelle Informationen, die dem Entwickler helfen, schnell zu wissen, was sich hinter dem Produkt versteckt. Vergleichbares gilt auch für den Service. Darüber hinaus können wir AR für den Test von Produkten nutzen und durch sie den Kunden leichter einbinden – Produkte frühzeitig zu verifizieren und zu bewerten..

Herr Dr. Schulz, wie schafft man es, eine gemeinsame Entwicklung mit unterschiedlichen Projektpartnern und mit deren unterschiedlichen Zielen erfolgreich aufzusetzen?

Man muss von den häufig eher „vertikal“ geprägten Beziehungen zwischen Kunden und Lieferanten wegkommen und versuchen, eine gemeinsame Perspektive für alle Beteiligten zu schaffen. Alle benötigen in irgendeiner Art und Weise einen Mehrwert aus dieser Kooperation bzw. den Ergebnissen, wobei die Mehrwerte der Partner sich durchaus unterscheiden dürfen. Wir glauben, dass sich die Zusammenarbeitsverhältnisse zukünftig stark verschieben werden, weg von den klassischen OEM-Lieferantenbeziehungen hin zu partnerschaftlichen Beziehungen. Zum einen lassen sich durch partnerschaftliche Beziehungen die notwendigen Investitionen besser schultern, zum anderen ist nur noch auf diese Weise der Zugang zu bestimmten Schlüsseltechnologien möglich, da Unternehmen, die diese Schlüsseltechnologien besitzen, sehr wohl um ihren Wert wissen und nicht mehr bereit sind, sich in eine klassische Lieferantenbeziehung zu begeben.

Was müssen deutsche Hightech-Unternehmen machen, um ihren Forschungsvorsprung nachhaltig zu festigen?

Zunächst müssen sie aus den eben genannten Gründen stärker in Netzwerken und Kooperationen denken. Der zweite wichtige Punkt ist die Bereitschaft, in „Erkenntnisgewinn“ zu investieren – also die Bereitschaft Dinge zu testen und zu akzeptieren, dass dabei möglicherweise Investitionen verloren gehen, aber dadurch Klarheit entsteht, dass diese Richtung nicht die richtige ist. Sie müssen bereit sein, entsprechende Ausdauer zu haben und nicht auf kurzfristige Erfolge zu hoffen. Zudem müssen Unternehmen sich sehr stark selber in Frage stellen können, was ihre Abläufe und Strukturen, aber auch was ihre Produkte und Services betrifft. Das ist ein ganz wesentlicher Punkt des digitalen Mindsets, der digitalen DNA. Sie müssen immer wieder prüfen, wo Disruption entstehen und sie gefährden kann. Auf diese Felder müssen sie dann selbst gehen, also an der eigenen Disruption arbeiten. Außerdem muss man jetzt konsequent und sehr zügig in den digitalen Wandel investieren und darf nicht weiterhin in einer abwartenden Position verharren. Alles muss daran gesetzt werden, das Thema für sich selbst passend auszugestalten. Dabei ist entscheidend, sich mehrere Optionen offen zu halten und sich nicht zu früh zu eng festzulegen. Man benötigt mehrere Pfade und sollte bewusst die Erfolgsmuster anderer digitaler Spieler studieren und, wenn sinnvoll, auf sich übertragen.

Inwieweit können Sie den Technologietransfer zwischen Universitäten und Unternehmen beratend unterstützen?

Wir agieren branchenübergreifend in unterschiedlichsten Industrien und sehen woran gearbeitet wird. Wir kennen daher den Bedarf der Industrie und wissen, welche Schwierigkeiten es in der Anwendung und Umsetzung gewisser Dinge gibt. Das können wir in Richtung Universitäten zurückspiegeln. Die Universitäten erhalten so Aufschluss hinsichtlich der Umsetzungsreife und des Umsetzungsgrads gewisser Ansätze und bzgl. bestimmter Handlungsfelder der Industrie.  Andersherum sehen wir in Technologie- und Forschungsinstituten an welchen Themen gearbeitet wird, was wir natürlich als Impuls an unsere Kunden weitergeben können.

 

Weitere Informationen unter:
www.3dse.de

3DSE hat eine Leitstudie zur Digitalisierung der F&E herausgebracht und veranstaltet dazu am Do, 13. Juli, 10:30 ein Webinar. Weitere Informationen hierzu unter: http://fue-leitstudie.de/

Digitalisierung der Retail Supply Chain

Über 50 Jahre Erfahrung in der Retail Supply Chain aus Fernost, aber keine Zeit sich auszuruhen. Digitalisierung und wachsende Endkundenanforderungen verändern die Supply Chain so schnell und nachhaltig, wie kaum eine Entwicklung zuvor.

Supply Chain im Wandel

Immer die aktuellsten Trends, beste Preise und die Ware aus nachhaltiger Quelle sind nur die offensichtlichen Anforderungen heutiger Endkunden, und die tägliche Herausforderung etablierter und neuer Händler. Offline, Online oder Multichannel ist dabei unwichtig – hauptsache die Ware ist zum rechten Zeitpunkt verfügbar.

Weitere Anforderungen, wie nachhaltige Produktion, CO2-optimierte Beschaffungswege oder individualisierte Produkte, werden immer wichtiger. In allen Kanälen war die Transparenz über Produktpreis, Verfügbarkeit, Qualität und Kundenerfahrungen zugleich nie höher als heute.

Transparenz

Um dem anhaltenden Trend zu verzahntem Mobile E-Commerce zu folgen, bauen die Händler die Grenzen zwischen den Vertriebskanälen zunehmend ab. Immer neue, inspirierende und überraschende Einkaufswelten zu schaffen, erfordert ihre volle Aufmerksamkeit. Die verfügbaren Ressourcen und Budgets müssen konzentriert werden – die Lieferketten müssen dabei einfach funktionieren.

Häufig werden deshalb Teile dieser Lieferketten outgesourced. Dazu gehört die Transparenz über die Lieferketten inklusive der Bestände an den diversen Lager- und Verkaufspunkten genauso wie die Übersicht über flexible Reaktionsmöglichkeiten auf Störungen im Ablauf. Aber auch die Sicherheit und Qualität der Produkte, der Hersteller und der Transportwege bei möglichst niedrigen Kosten fallen in diese Kategorie.

Als Megatrend unterstützt die Digitalisierung den Wandel des Handels nachhaltig. Manuelle Prozesse werden reduziert und durch digitale, medienbruchfreie Abläufe ersetzt. Hermes-OTTO International bietet konkret mehrere sich modular ergänzende Dienstleistungen an. Ziel ist, Händler weltweit in allen Aspekten der Digitalisierung der Lieferketten zu unterstützen.

Beschaffungsprozesse digitalisieren

Das kann nur nachhaltig gelingen, wenn auch die eigene Organisation voll digital denkt und handelt. Die Unternehmenskultur der Tochterfirma der Otto Group setzt dabei auf einen offenen und partnerschaftlichen Dialog aller Prozessbeteiligten.
Die zentrale Erkenntnis aus fast 20 Jahren Projektmanagement, Prozessoptimierung und Systemeinführungen in internationalen Beschaffungsorganisationen im Kontext der aktuellen Marktanforderungen ist, dass Mensch, Prozess und Technik in allen Projekten in Einklang gebracht werden müssen.

Die Beschaffungsprozesse sind dabei besonders herausfordernd, da viele global verteilte Prozessbeteiligte in die Veränderungsprojekte eingebunden und motiviert werden müssen. Die Vermeidung von Medienbrüchen und eine durchgängig entlang der gesamten Prozesskette gemeinsam genutzte Systemlandschaft erfüllt damit quasi automatisch die Maxime der Digitalisierung. Der Umgang mit rechtlichen, kulturellen und letztlich auch sprachlichen Unterschieden in den Beschaffungsmärkten bestimmt dabei die Akzeptanz der technischen Lösung oder Prozessveränderung.

Gearbeitet wird daher mit einer Order Management- und Supply Chain Tracking-Plattform, die von ihren Kunden erfolgreich genutzt wird.
Bereits seit 2002 arbeiten Lieferanten aus Deutschland, China, Bangladesh und vielen anderen Ländern auf dieser digitalen Auftragsplattform.

Software-as-a-Service Cloud-Plattform

Im Jahr 2013 wurde die technische Basis erneuert und die Hermes SCM Plattform als Software-as-a-Service Cloud-Plattform etabliert. Händler können Ihre Beschaffungsdaten über Standardschnittstellen mit dem eigenen ERP-System einfach mit der Plattform austauschen. Der fachliche Fokus erweiterte sich von einer reinen Order Management Plattform auf eine umfassende Supply Chain Tracking und Management Plattform.

Die enge Zusammenarbeit mit den Kunden führt zu stetigen Verbesserungen der Lösungen. Auf Händlerwunsch wurden zum Beispiel Vorlaufprozesse wie Lieferantenbuchungen, Anbindung der Container- und Schiffstrackingdaten von INTTRA, Anbindung von weiteren Tracking-Daten aus dem Hermes-Partnernetzwerk und weiterer Spediteure und nicht zuletzt das umfassende Dokumentenmanagement vom strategischen Partner Tradelink eingebunden.

Die Software-as-a-Service Plattform erlaubt dabei umfassende Flexibilität in der Definition der einzelnen Prozessschritte und der Händler-individuellen Konfiguration der Datenstrukturen. Vor allem aber wächst die Plattform mit dem Beschaffungsvolumen des Händlers bei 24/7 Verfügbarkeit.

Gemeinsam den Wandel meistern

Wichtig ist die Begleitung des Kunden durch Spezialisten. Eine umfassende Prozessaufnahme, Best Practice Empfehlungen aus bisherigen Einführungen, Schnittstellenprogrammierung wo notwendig und internationaler Rollout mit tausenden Lieferantennutzern auf allen Kontinenten inklusive begleitendem Support und Training sind daher Teil des Leistungsangebots von Hermes-OTTO International.

In erfolgreichen Projekten u.a. mit ihren Kunden Witt Gruppe und Bonprix konnte die Zukunftsfähigkeit der Lösungen schon unter Beweis gestellt werden:
Dokumentenflüsse sind digitalisiert, die Zollanmeldung erfolgt auf Basis digital-signierter Dokumente, die Handelsdokumente müssen nicht manuell nacherfasst werden und die Archivierung kann digital ohne weiteren Scan erfolgen.

Die Digitalisierung der Beschaffungsprozesse ist der logische nächste Schritt in der Optimierung der komplexen Beschaffungskette durch die Kombination einer Vielzahl etablierter und neuer Technologien und Dienste, mit dem Ziel die Endkundenbelieferung verlässlich zu gewährleisten.

 

Autor

Florian Lemberg Division Manager SCM Solutions, Hermes-OTTO International

Florian Lemberg ist Division Manager SCM Solutions bei Hermes-OTTO International
florian.lemberg@hermes-ottoint.com

Über das Unternehmen:

Hermes-OTTO International

 

CCO – Pixaby

 

Grenzenlose Kommunikation für Arbeitsplatz der Zukunft

Arbeiten 4.0: Moderne Kommunikationslösungen, reißen Grenzen am Arbeitsplatz der Zukunft ein

 

Gastsbeitrag von Wolfhart Krischke, Geschäftsleiter Avaya Deutschland GmbH

 

Die Digitalisierung und Automatisierung der Arbeitswelt macht vielen Arbeitnehmern Angst. Schließlich übernehmen Maschinen inzwischen viele Arbeiten und führen sie häufig sogar schneller und präziser aus als menschliche Mitarbeiter. Dennoch besteht kein Grund zur Panik: Durch die Digitalisierung entstehen auch neue Tätigkeitsfelder. So werden laut einem Bericht des Weltwirtschaftsforums (World Economic Forum) 65 Prozent der Kinder von heute später einmal in Berufen arbeiten, die heute noch gar nicht existieren[1].

 

Herausforderungen für Unternehmen und Mitarbeiter

Die Arbeitswelt befindet sich also in einem starken Wandel, in dem die Digitalisierung traditionelle Berufe und Aufgaben neu definiert und uns vor Augen führt, dass auch wir uns weiterentwickeln müssen. Daneben stellt die demografische Entwicklung, speziell die sinkende Anzahl der erwerbsfähigen Personen, Unternehmen vor neue Herausforderungen. Der in vielen Bereichen herrschende Fachkräftemangel und dadurch ausgelöste „War for Talents“ wird durch diese Entwicklung zusätzlich verschärft.

Gleichzeitig verändern sich mit dem technischen Fortschritt die Ansprüche der Mitarbeiter an ihren Arbeitsplatz. Menschen der Generation Y – die zwischen 1980 und 1999 geboren wurden – haben andere Anforderungen als die Generation X: Statt Prestige und Geld ist ihnen vor allem Spaß an der Arbeit und Selbstverwirklichung wichtig. Hinzu kommen eine ausgeglichene Work-Life-Balance und Flexibilität.

Smarte digitale Tools sind für sie selbstverständlich.
Laut einer aktuellen YouGov-Umfrage[2] im Auftrag unseres Unternehmens fordern Büro-Angestellte eine Abkehr von Schreibtisch-gebundener Kommunikationstechnologie wie „dumb phones“:

Statt Büro-Telefone, mit denen sie nur Anrufe tätigen können, wünschen sie sich smarte Mobil- und Cloudtechnologie, um auch außerhalb des Büros effizient arbeiten zu können. Generation Z, die noch mehr als Generation Y die „Digital Natives“ verkörpert, wird diesen Trend noch verstärken.

 

Der Arbeitsplatz der neuen Generation(en)

Im Kampf um die besten Mitarbeiter können es sich Unternehmen nicht erlauben, die Ansprüche der neuen Generationen zu ignorieren. Sie erfordern ein neues Arbeitsumfeld mit modernster technischer Ausstattung, einer umfassenden Sicherheitsstrategie, die auch Mobilgeräte abdeckt, und alternativen Raumkonzepten. Hier geht der Trendweg von festen Arbeitsplätzen und hin zu flexiblen Arbeitsbereichen, die unterschiedlichen Anforderungen gerecht werden.
Mitarbeiter wählen dann jeweils das für ihr Projekt oder ihre Aufgabe am besten geeignete Arbeitsumfeld. So eignet sich das Raumkonzept „Picnic Table“ etwa für gemeinsames Brainstorming oder Teamwork, während Räume nach dem „Library-Konzept“ selbständiges, konzentriertes und ungestörtes Arbeiten ermöglichen.

Im Spannungsfeld zwischen Digitalisierung, Globalisierung und demografischem Wandel wird der Arbeitsplatz der Zukunft immer stärker von Mobilität geprägt sein. Mitarbeiter an verschiedenen Standorten und in wechselnden Teams zu beschäftigen funktioniert jedoch nur, wenn Unternehmen ihren Angestellten mittels moderner Kommunikationslösungen ortsunabhängigen, sicheren Zugriff auf das Firmennetzwerk bieten.
So können Mitarbeiter zum Beispiel per Videokonferenz über Zeitzonen und Ländergrenzen hinweg auf Knopfdruck virtuell zusammenarbeiten. Dank dieser „sozialen Mobilität“ ist physische Mobilität immer seltener nötig und Zeitzonen und Ländergrenzen spielen am Arbeitsplatz der Zukunft keine Rolle mehr.

Die Überwindung von Grenzen geschieht zunehmend auch zwischen Unternehmensabteilungen: Zwar sind die Bereiche Contact Center (CC) und Unified Communication (UC) räumlich und technisch häufig noch getrennt, doch im Zuge der Digitalisierung zerfließen die Grenzen zunehmend. Durch Kommunikationssysteme, die UC und CC integrieren und speziell auf die Bedürfnisse der Anwender zugeschnitten sind, werden Mitarbeiter in Zukunft über alle Medienkanäle effizient untereinander, mit Kunden oder mit externen Dienstleistern kommunizieren können.

 

Virtuelle Zusammenarbeit als neuer Maßstab

Die Vorteile von Videokommunikation gegenüber reiner E-Mail-Kommunikation belegte das Fraunhofer-Institut sogar in einer Untersuchung. Die Studie „Virtuelle Teams. Kollaboration auf Distanz mit und ohne Video im Vergleich“ zeigte, dass Videokommunikation zu stärkerem Engagement und einer besseren Arbeitsatmosphäre führt.

Auch der Messenger nimmt bei der Zusammenarbeit eine immer wichtigere Rolle ein. Mit ihm lassen sich kleinere Angelegenheiten schnell klären oder Dateien austauschen und die Statusanzeige weist stets darauf hin, ob Kollegen aktuell verfügbar oder in Meetings sind.

Virtuelle Kommunikation eignet sich aber auch für die Zusammenarbeit mit externen Dienstleistern. Dank verschiedener Rollenkonzepte und individuell festlegbaren Zugriffsrechten kann bei virtuellen Collaboration-Tools sowohl für Gruppen wie auch Einzelpersonen genau definiert werden, wer welche Informationen lesen oder Dokumente bearbeiten darf.

Unterstützt durch künstliche Intelligenz (KI) werden Kommunikationslösungen bestimmte Arbeitsprozesse bald noch effizienter gestalten. Auf der Textebene ist KI inzwischen relativ gut entwickelt – in einigen Unternehmen beantworten Chatbots bereits einfache Kundenanfragen – während sich der Sprachbereich derzeit noch deutlich schwieriger gestaltet.
Doch Apples Siri oder Amazons Alexa lassen schon jetzt erahnen, wie virtuelle Assistenten Menschen künftig bei der Arbeit unterstützen könnten, etwa bei der Buchung von Geschäftsreisen, der Suche nach oder dem Aufbereiten von Daten und Dokumenten.

 

Herausforderungen in Chancen verwandeln

Die Digitalisierung führt in der Tat zu tiefgreifenden Veränderungen am Arbeitsplatz und zwingt uns, unsere Rolle zu überdenken und uns weiterzuentwickeln. Aber mit den richtigen Mitteln lassen sich die Herausforderungen in Chancen verwandeln. Denn innovative und sichere Kommunikationslösungen ermöglichen uns, berufliche Pflichten künftig besser denn je mit unseren persönlichen Ansprüchen zu vereinbaren, Grenzen einzureißen und enger zusammenzuwachsen.

 

 

Über unseren Autor:

Wolfhart Krischke ist seit 2016 als Geschäftsleiter der Avaya Deutschland GmbH tätig und verfügt über umfangreiche und langjährige Erfahrungen im ITK-Umfeld. Nach Abschluss seines Studiums in Hamburg leitete Wolfhart Krischke als CCO von AMF internationale Telekommunikationsprojekte im europäischen und asiatischen Raum. Dabei konnte er umfangreiche Praxis- und Projekterfahrung gewinnen.

 

Seit mehr als 10 Jahren leitet er Unternehmen in Deutschland, darunter als Geschäftsführer von CosmoCom wie auch Enghouse Interactive. Vor seinem Engagement bei Avaya war Wolfhart Krischke Geschäftsleiter und Country Operations Leader bei Interactive Intelligence. Herr Krischke gilt als anerkannter Spezialist der ITK – und Cloudbranche und hat sich zum Ziel gesetzt, das Wachstum von Avaya in Deutschland voranzutreiben und die Präsenz auf dem deutschen Markt weiter auszubauen.

 

 

 

 

Bots – smarte Helferlein im Kundensupport

Mit der digitalen Transformation – dem Arbeitsplatz 4.0 – erleben wir einen Paradigmenwechsel in der Arbeitswelt. Mobile Arbeit und Home-Office Arbeitsplätze sind vielfach bereits selbstverständlich geworden. Die Welt wird bereits geprägt von Collaboration und wächst als großes Netzwerk immer mehr zusammen. Das hat auch Auswirkungen auf die Kommunikation: Kommende Generationen in der Arbeitswelt bevorzugen direkte Kommunikation, persönlich oder im Chat. E-Mail oder ein Anruf sind als erster Kontaktpunkt nahezu ausgestorben. Künstliche Intelligenz kann hier eine wertvolle Brücke schlagen.

Selbstfahrende Autos, Sprachassistenten oder mitdenkende Haushaltsgeräte – Künstliche Intelligenz erobert darüber hinaus nach und nach unseren Lebensraum. Aber auch im Arbeitsalltag finden die Roboterprogramme immer häufiger Anwendung. In der Fertigungsindustrie beispielsweise längst etabliert, erreichen die programmierbaren Helferlein nach und nach auch den Dienstleistungssektor – und finden zunehmend Akzeptanz bei den Endverbrauchern. So ergab eine Befragung des Digitalverbandes Bitkom vor wenigen Wochen, dass bereits jeder vierte Deutsche bereit sei, bei Servicefragen einen Chatbot zu nutzen. Für Unternehmen eröffnen sich große Chancen, ihren eigenen Kundensupport intern wie extern neu zu organisieren und dabei effizienter zu werden, ohne hohe Kosten erwarten zu müssen. Bots können wertvolle Dienste leisten und auch dafür sorgen, dass kleine und mittelständische Betriebe mit dem globalen Wettbewerb mithalten können.

Grundlage von Künstlicher Intelligenz sind Daten – Stichwort: „Big Data“. Daten, die wir Menschen oder auch Maschinen mit nahezu jeder digitalen Aktion hinterlassen und die, zusammengetragen und erfasst, ein unglaublich großes Wissen und Informationen bereithalten. Diese Datenberge auszuwerten und die wirklich relevanten Informationen zu filtern und direkt zu nutzen, ist für einen Menschen allein nahezu unmöglich. Hier unterstützen uns selbstlernende Algorithmen, linguistische Analysen und kognitive Services, die auf Basis von Mustern Daten sortieren und bereinigen und dem Menschen in der Interaktion mit Text oder Sprache zur Verfügung stellen. Dann sprechen wir von Künstlicher Intelligenz.

Bots als Erstanlaufstelle im First-Level-Support

Eine Vielzahl der Daten beinhaltet wichtige Informationen, die zur Weiterverarbeitung durch künstliche Intelligenz genutzt werden können. „Eh-Da-Daten“ die durch intelligente Verknüpfung von künstlicher Intelligenz eine weitere Aufbereitung in einem Bruchteil der sonst üblichen Zeit ermöglicht. Daraus erzeugen wir höherwertige Informationen, die dann wiederum beispielsweise über einen Bot dem Endkunden zur Verfügung gestellt werden kann. Unternehmen werden dadurch effektiver und schöpfen außerdem den vollen Wert aus ihren Datenbergen. Und das ist keineswegs nur ein Privileg für große Unternehmen, sondern lässt sich auch ganz einfach in die Kommunikationsstruktur von kleinen und mittelständischen Betrieben integrieren – zum Beispiel in den First-Level-Kundensupport.

Exemplarischer Chatveraluf mit einem Support-Bot

Heutzutage erwarten Kunden und Mitarbeiter umgehend Hilfe und Antworten. Diesem Wandel müssen auch Unternehmen gerecht werden und nicht einfach nur schnell Antworten bieten, sondern auch qualitativen Input – und zwar dort, wo sich der Fragesteller am liebsten aufhält. Der User kontaktiert also auf einer Webseite, oder in Skype integriert, einen Bot per Chat. Die Hemmschwelle, so in einen direkten Kontakt zu treten, ist enorm niedrig. Der Bot wiederum aggregiert in Sekundenschnelle alle ihm intern verfügbaren Wissensressourcen und liefert die passende Antwort auf die gestellte Frage. Sollte der Bot an einem Punkt nicht weiterhelfen können, wird der User direkt zu einem Agenten im Kundenservice weitergeleitet. 

Höhere Effizienz, reduzierte Kosten & schnelle Abwicklung

  • Schnellere Abwicklung – Anfragende Personen verweilen in keiner Warteschlange und die Supportanfrage startet sofort
  • Umfassende Hilfe – Der Bot gibt automatisiert eine umfassende Hilfestellung und leitet bei Bedarf direkt an einen Agenten aus dem Support-Team weiter
  • Kontinuierliche Weiterentwicklung – Kundenanfragen, die der Bot nicht beantwortet, werden kontinuierlich in die Datenbank eingearbeitet
  • Reduzierte Kosten & höhere Effizienz – Standard-Anfragen wickelt der Bot ab; Agenten werden nur für Spezialanfragen hinzugezogen (Ressourcenschonung)

Die technische Infrastruktur hinter dem Bot – einfach & schnell implementiert

Das Microsoft Bot Framework bietet Tools und Services, die beim Erstellen, Bereitstellen und Veröffentlichen von Bots helfen – etwa das Bot Builder Software Entwicklungs-Tool, das Entwickler-Portal und die Bot-Konnektoren. Das Bot Framework unterstützt zusätzlich mit sogenannten Channels als Schnittstelle zwischen dem Bot und dem Benutzer. User können die Kommunikation zum Bot in jedem Channel starten (z.B. E-Mail, Facebook, Skype, Microsoft Teams oder SMS) und müssen die Kommunikationsplattform, auf der sie sich aktuell befinden, gar nicht erst verlassen.

Bots lassen sich einfach implementieren und User können über diverse Kanäle die Kommunikation starten.

Darüber hinaus lassen sich die Vorteile der kognitiven Services von Microsoft nutzen, um intelligente Funktionen wie „Natural Language Understanding„ oder Bild- und Spracherkennung hinzuzufügen. Simultane Übersetzungen gelingen dank Cortana in Echtzeit ebenso wie das Erkennen nicht eindeutiger Fragestellungen durch linguistische Analysen. Das Schöne: Unternehmen müssen das Rad nicht neu erfinden, sondern können auf bereits bestehende Services wie Text-to-Speech / Speech-to-Text zurückgreifen.

Checkliste für Unternehmen – worauf es ankommt

Ein eigener, vollständig individualisierbarer Bot ist gar nicht so schwer zu realisieren. Wichtig sind eine gute Vorbereitung und Planung, in welchem Umfeld der Bot zum Einsatz kommen soll und welche Wissensressourcen dafür zur Verfügung gestellt werden müssen. Unternehmen sind gut beraten, sich hier für einen Partner zu entscheiden, der nicht nur die Programmierung des Bots anbietet, sondern auch die strategischen Vorüberlegungen sowie den nachgelagerten Prozess mit begleitet.

Wenn Sie sich mit dem Gedanken tragen, einen Bot einzusetzen, sollten Sie drei Phasen berücksichtigen:

  • Planung – um Ihr Bot-Potenzial herauszustellen und zu erarbeiten, in welche Umgebung Ihr Bot am besten passt
  • Umsetzung – die Entwicklung und Programmierung Ihres Bots sowie die Zusammenführung aller Wissensressourcen in einer internen Datenbank
  • Monitoring – das Sicherstellen nahtloser Betriebsabläufe sowie die kontinuierliche Wartung Ihres Bots

Über den Autor

Dietmar Kraume, technischer Leiter bei der UC Point GmbH, ist ein ausgewiesener Experte für IT- und Telekommunikation und seit mehr als 25 Jahren in der Branche zu Hause. Unified Communications und Collaborations, Microsoft Cloud Lösungen sind ihm so vertraut wie die Straßenzüge seiner Kölner Heimat. Unter seinen beruflichen Stationen finden sich Unternehmen wie BORGWARE GmbH, Hewlett Packard, webcall Deutschland GmbH oder CREALOGIX Unified Communications GmbH. Bei UC Point kümmert sich Dietmar Kraume bereits seit mehr als sechs Jahren um die Produktsparte des Unternehmens, verantwortet den Presales-Bereich und ist immer auf der Suche nach den neuesten Kommunikations- und Collaborationstrends und Technologien der Zukunft.

 

Weiterführende Informationen

https://www.uc-point.com/de/global-lync-service/bot-technology/general

https://www.uc-point.com/de/global-lync-service/bot-technology/ucp-bot-services

https://www.uc-point.com/de/global-lync-service/bot-technology/how-it-works

 

Twitter: https://twitter.com/UC_Point

LinkedIn: https://de.linkedin.com/company/uc-point-gmbh

Xing: https://www.xing.com/companies/ucpointgmbh

 

Bildlizenzen: 

Aufmacherbild: kein Copyright (Public Domain)

Weitere Bilder und Grafiken: UC Point

 

 

Speed is key

3DSE Management Consultants hat eine Leitstudie zur Digitalisierung in Forschung und Entwicklung herausgebracht. Die TREND-REPORT-Redaktion sprach zu zentralen Ergebnissen und weiteren Fragestellungen mit den Geschäftsführen Dr. Schulz und Dr. Wenzel.

Herr Dr. Schulz, mit welchen digitalen Herausforderungen sieht sich die F&E in Zukunft konfrontiert?

Die erste Herausforderung ist, zu klären, was Digitalisierung eigentlich bedeutet. Unsere „Leitstudie zur Digitalisierung der F&E“ hat ergeben, dass jeder etwas anderes darunter versteht. Für Unternehmen ist es enorm wichtig, die Bedeutung für sich zu definieren. In unserer Studie haben wir fünf grundlegende Bestandteile herausgearbeitet, die für die meisten Unternehmen zutreffend sind. Wichtig ist es aber auch, eine digitale DNA im Unternehmen zu etablieren, also eine digitale Kultur, nach der alle im Unternehmen handeln – nicht nur der CDO.
Die zweite große Herausforderung für Unternehmen besteht darin, dass sie ihre Erfolgslogik teilweise verlassen müssen. Das, was sie bisher erfolgreich gemacht hat, müssen sie teilweise über Bord werfen, um sich den digitalen Grundprinzipien zu öffnen, sie zu verstehen und zu verankern, um dadurch neue Möglichkeiten erschließen zu können. Zu diesen Grundprinzipien gehört zum Beispiel „fail fast and learn“ – also scheitern ist gut, wenn es möglichst früh passiert und man daraus schnell lernt. Bisher ist es eher so, dass typisch ingenieurgetriebene Unternehmen versuchen alles durchzuplanen und es zur klassischen Erfolgslogik gehört, ohne detaillierten Plan erst gar nicht anzufangen. Jetzt gilt „problems are welcome“, weil sie erfolgreich machen,da man an ihnen lernen kann. Vor allem im Silicon Valley und anderen weltweiten Start-up Hubs wie Tel Aviv, Berlin oder Pittsburgh findet man mittlerweile diese Denkweise. Damit verbunden ist auch der dritte Herausforderungsaspekt, die Risikobereitschaft. Das heißt, vielleicht ohne klare Zielformulierung anzufangen und auch disruptiv zu denken, anstatt  alles erstmal mit einem detaillierten Businessplan hinterlegen zu wollen.

Der vierte Aspekt ist „Speed is key“ – also den Fokus auf Schnelligkeit zu legen. Dazu gehört auch die Erkenntnis, dass es besser ist mit 80% als Erster das Ziel zu erreichen, als mit 100% der Zweite zu sein. Insbesondere in einer immer weiter zunehmenden Plattformökonomie ist das oftmals der entscheidende Wettbewerbsvorteil. Das ist ein starker Wandel. Gerade im Internet entstehen Monopole, weil etwas als Erster gemacht wird und nicht, weil man alles 100% genau richtig gemacht hat. Es gilt die Produkte möglichst schnell auf den Markt zu bringen und dann kontinuierlich mit Updates und Upgrades für neue Features zu sorgen. Das ist für den deutschen Ingenieur, den Genius, der alles aus Erfahrung macht und „unkopierbar“ ist, natürlich schwer. Durch die Möglichkeiten digitaler Technologien im Hinblick auf die Automatisierung bei Prozessabläufen wirkt die Digitalisierung selbst als Emulator.

Die letzte Herausforderung besteht darin, das Kundenproblem ins Zentrum zu stellen. Es gilt vom Kunden her zu agieren und sich nicht einfach darauf zu verlassen, dass er die Produkte schon kaufen wird, da diese immer schon für Qualität standen. Die neuen Möglichkeiten im Bereich Datensammlung und Auswertung sind hilfreich für ein besseres Kundenverständnis und die Entwicklung innovativer Produkte. Stetig neue Features halten das Produkt für den Kunden dann attraktiv. Im Hinblick auf die Kundenbindung hilft es auch, die Produkte in Zukunft sehr viel stärker in Richtung Plattformen bzw. Ökosysteme zu entwickeln. Durch entstehende Wechselwirkungen kann so eine viel stärke Kundenbindung- und Loyalität erreicht werden.

Webinare mit exklusiven Einblicken in die neue Leitstudie zur Digitalisierung der F&E veranstaltet 3DSE am Do, 13. Juli, 10:30 – 11:15 Uhr oder Mi, 19. Juli, 10:30 – 11:15 Uhr.

 

Helfen sie dabei, digitale Ökosysteme für Unternehmen zu ergründen und aufzubauen?

Ja! Die Herausforderung besteht hier darin, dass Unternehmen über die Grenzen des eigenen Produktes hinwegdenken müssen. Bei der Entwicklung eines Bürostuhls etwa kann mittels Sensoren Technologie integriert werden, die weit über das „Prinzip Stuhl“ hinausgeht. Die konkrete Anwendung der Sensoren am Markt steht da noch gar nicht fest. Es gilt zu überlegen, was um den Stuhl herum zusätzlich angeboten werden kann. Daraus entstehen dann weitere Fragestellungen: Was für eine Cloud brauche ich dafür? Welche Art von Services biete ich an? Warum sollte sich der Kunde bei mir registrieren? Es muss in ganz anderer Art und Weise über das Produkt, das Geschäft, den Kunden und über das Leistungsangebot, das ich diesem unterbreite, nachgedacht werden. Das ist eine Aufgabe, bei der die deutsche Industrie noch vor großen Herausforderungen steht, weil sie aus der Historie heraus sehr stark produktgeprägt ist.

Herr Dr. Wenzel ergänzend: Dabei ist es wichtig auch die Anforderungen des Kunden zu ermitteln, die dieser heute selbst noch gar nicht formulieren kann. Wir nennen das „latente Anforderungen“ oder „Excitement Anforderungen“. Das iPhone ist hier ein gutes Beispiel. Das neu gebildete Ökosystem mit Apps, der einfachen Nutzung und Installation und die GUI beantwortete Kundenbedürfnisse, welche die Kunden zu diesem Zeitpunkt noch gar nicht kannten. Die Entwickler hatten diese antizipiert und damit einen Bedarf geweckt. Diese latenten Anforderungen – hier kann man die Kunden nicht fragen, was ihnen wichtig ist – muss man systematisch herleiten. Hierfür haben wir einige Prozesse und Möglichkeiten, um das umzusetzen.

 

Dr. Schulz (li.) und Dr. Wenzel plädieren für ein neues "Digitalisierungsverständnis". Digitalisierung darf nicht das Ziel sein, vielmehr ist sie der Weg; denn Digitalisierung eröffnet den Unternehmen neue Möglichkeiten auf dem Weg zum Ziel, den Endkunden mit neuen Services zu adressieren.

Dr. Schulz (li.) und Dr. Wenzel helfen Unternehmen beim Aufbau digitaler Ökosysteme.

Herr Dr. Wenzel, wie kann man die F&E im spezifischen Kontext des jeweiligen Unternehmens systematisch digitalisieren?

Man muss die Abläufe betrachten und klären, wo durch  digitale Technologien Potenziale gehoben werden können: Zum Beispiel durch Automatisierung, wobei manuelle Schnittstellen und Schritte entfallen, oder indem datenbasiert bisher subjektive Entscheidungen einer sehr viel stärkeren Faktenorientierung unterzogen werden. Es gilt also zu klären, wo ich das größte Potenzial habe, aber auch, wo ich eine schnelle Wirkung erzielen kann. Diese Bereiche müssen zuerst angegangen werden. Parallel dazu muss man im Blick haben, wo ein sehr starker „Befähigungsaufwand“ betrieben werden muss. Hier hat man zwar nicht unbedingt schnelle Effekte, aber aufgrund  langer Vorlaufzeiten muss schon sehr frühzeitig investiert werden, um die benötigte Fähigkeit rechtzeitig zu haben. Entscheidend dabei ist, dass man nicht einfach die bestehende Landschaft im Unternehmen hernimmt und auf „digital trimmt“. Ich muss hier vom Grund ausgehen und das Gesamtbild betrachten. Was würde ich grundlegend mit welchen digitalen Technologien anders machen? Böswillig ausgedrückt: Wenn ich einen schlechten Prozess habe und den digitalisiere, dann ist das immer noch ein schlechter Prozess. Er ist dann vielleicht wahnsinnig schnell und automatisiert, aber es bleibt trotzdem ein schlechter Prozess.

Herr Dr. Schulz, welche „Archetypen“ konnten Sie im Kontext Ihrer Studie ausmachen?
Wir haben vier Archetypen ausgemacht. Der Abwartende, der beobachtet und schaut wie sich das ganze Thema entwickelt und dann nachfolgt. Der Fokussierte, der schon Erfahrung gesammelt hat und eine klare Richtung einschlagen möchte, der das Ganze strategisch, schrittweise und sauber umsetzten will. Der Mutige, der mit wenig Erfahrung, aber dafür mit Mut einfach loslegt und probiert.
Der Selbstbewusste, der die digitale Speerspitze bildet, also beim Thema Digitalisierung schon ganz vorne mit dabei ist. Er will seinen Vorsprung einfach weiter ausbauen.

Vier Archetypen von Unternehmen im Bezug zur Digitalisierung der F&E

Welcher Unternehmenstyp hat es am einfachsten, die Möglichkeiten der digitalen Transformation zu adaptieren?

Nach meiner Einschätzung der Mutige und der Selbstbewusste, weil beide eben relativ schnell sind und sich auf das Spiel einlassen. Der Fokussierte hingegen muss aufpassen, dass er nicht in seiner Strategie hängen bleibt und zu viel plant.

Inwieweit können neue Technologien die F&E Bereiche unterstützen und welche Sicherheitsstandards müssen eingehalten werden?

Das Thema Sicherheit ist enorm wichtig. Hier reden wir von zwei Dimensionen: Zum einen, vom Schutz der eigenen IT- Infrastruktur, mit der man arbeitet, zum anderen vom Schutz der Produkte die man anbietet. Denken wir beispielsweise an das Thema „Autonomes Fahren“: ein Schutz des Produktes vor unbefugtem Zugriff von außen ist unter Umständen überlebensnotwendig. Hier kann die ISO 27008 – ein relativ neuer Standard –  ein Stück weit Orientierung bieten. Wichtig ist, dass man sich immer wieder regelmäßig selbst hinterfragt. Bin ich, ist mein Unternehmen, IT-sicherheitstechnisch noch auf der Höhe der Zeit? Denn auch Standards müssen sich konsequent weiterentwickeln. Teilweise muss man hier sogar schneller als die Standards sein, da sich auch die Technologien, die von potenziellen Angreifern eingesetzt werden, weiterentwickeln. Man kann sich nie zu 100 Prozent sicher sein und muss versuchen, immer auf dem letzten Stand der Sicherheitstechnik zu sein. Nur so ist man maximal gewappnet.
Das in den letzten Wochen aktuelle Thema „WannaCry“ ließ erkennen, wie angreifbar die digitale Welt nach wie vor ist. Dadurch wurden viele aufgeweckt und das notwendige Umdenken wurde weiter „befeuert“. Die Maxime lautet, konsequentes Handeln und Orientierung an existierenden Standards, die weiterentwickelt werden.

Die entscheidende Frage ist allerdings, wie Unternehmen feststellen können, welche Schwachstellen in ihren eingesetzten Programmen sind. Hilft hier ein Vulnerability Management? Die Lösung könnte darin bestehen, sein eigener Disruptor zu sein. Beim Thema IT-Sicherheit bedeutet das, dass ich mich selbst angreife und auch auf die ungewöhnlichsten Wege eingehe, um Schwachstellen und Lücken zu finden. Dies wird auch für mein eigenes Verständnis eine große Bereicherung. Ich setze mich selbst einem Stresstest aus und finde Lücken, bevor dies einem anderen gelingt. Man muss um die Ecke denken! Konkret heißt das, Unternehmen sollten Hacker beauftragen, sie anzugreifen.

Wie können die wettbewerbsentscheidenden Trends früher erkannt und erschlossen werden?

Damit das gelingt, müssen Unternehmen viel breiter „screenen“ als in der Vergangenheit. Bisher haben Unternehmen sehr viel darauf geachtet, was die eigene Branche, der Kernwettbewerb, macht. Gerade disruptive Bedrohungen kommen jedoch nicht aus der eigenen Branche, sondern von Unternehmen, die man so nicht auf dem Radar hat. Hier muss man gewissermaßen an der eigenen Disruption arbeiten, um zu erkennen, in welchen Bereichen Bedrohungen liegen könnten. Diese Bereiche kann man dann nach potenziellen Wettbewerbern, potenziellen „Disruptoren“, durchsuchen. Nach der Auffindung eines Disruptors stellt sich die Frage, ob dieser eine Gefahr für mich darstellt, oder ob ich mich gar an ihm beteiligen sollte? Vielleicht ist es sinnvoller eine Partnerschaft, eine Kooperation, einzugehen, anstatt in Konkurrenz zu treten?
Wenn ich mein eigener Disruptor bin, muss ich mich vor fremden Disruptoren nicht fürchten. Durch dieses „sich selber in Frage stellen und Suchen nach der eigenen Disruption“ finde ich die Trends, die für die Zukunft wirklich entscheidend sein könnten.

Herr Dr. Wenzel, welche Haupterkenntnis förderte Ihre aktuelle „Leitstudie Digitalisierung“ zutage?

Das Thema Digitalisierung ist im Sprachgebrauch stark von der Netzwerk-Ökonomie, die den Markt doch deutlich verändert, geprägt. Wir glauben, die entscheidende Frage in Deutschland wird sein: Wie können erfolgreiche, klassische Technologieunternehmen mit der Digitalisierung und deren Auswirkung umgehen und daraus einen Wettbewerbsvorteil ziehen? Dazu haben wir neun Erkenntnisse abgeleitet, die, wenn man sie im Einzelnen betrachtet, den Unternehmen helfen, diesen Wandel gut zu vollziehen und daraus Profit zu schlagen.

Weitere Informationen unter:
www.3dse.de

Weitere Infos speziell zur Leitstudie und den Webinaren:
http://fue-leitstudie.de/

 

 

 

 

Erfolgreiches Commerce benötigt hohe Datenqualität

Gastautor: Matthias Kant, Geschäftsführer der pirobase imperia GmbH

 

Verzahnung von Content-Management und Product-Information-Management schafft Wettbewerbsvorteile im Online Marketing

Ob im Handel, der Industrie, dem Gesundheitswesen oder dem öffentlichen Sektor – alle Branchen arbeiten im Zuge der digitalen Transformation mit großen Mengen heterogener Daten. Zukunftstechnologien wie Industrie 4.0 oder Smart City funktionieren nur mit Big Data, doch diese Informationen müssen auch händelbar bleiben und stets dem aktuellen Stand entsprechen.

Sowohl das Onlinemarketing von Herstellern und Handel, die automatisierten Prozesse von Werkstücken durch den Produktionsablauf oder die automatische Anpassung der öffentlichen Verkehrslinien für einen optimierten Verkehrsfluss benötigen immer aktuelle Datenin hoher Qualität.

Hier treten im operativen Alltag aufgrund von schlechten Informationen erhebliche Probleme auf. Im Gesundheitswesen erschweren Daten, die zum Teil nur unstrukturiert in Form von manuell geschriebenen Arztbriefen und Rezepten vorliegen, eine umfassende Patientenversorgung. Aufgrund manueller Datenverarbeitung treten Fehler in der Arzneimittelproduktion oder auf dem Beipackzettel auf.

Im Handel können fehlende Informationen sowie schlechte Zielgruppenansprachen die Absatzzahlen nach unten treiben. Zudem ist der Bedarf an Norm-Daten in der Branche hoch, da durch nicht standardisierte Informationen Mehrkosten innerhalb der Lieferkette, also für Distributoren und Hersteller, entstehen.
Sie schränken reibungslose Planungs-, Produktions- und Vertriebsprozesse ein und stellen einen hohen Verwaltungsaufwand dar.

Produktdaten beeinflussen Absatz

Laut GS1 Germany werden mehr als 70 Prozent der Kaufentscheidungen durch Informationen aus dem Internet beeinflusst. Vor der Kaufentscheidung suchen Interessierte nach Details zu Produkten oder Dienstleistungen, um zum Beispiel Angebote zu vergleichen. Finden potenzielle Kunden jedoch keine verlässlichen Informationen, entscheiden sie sich gegen einen Kauf, da sie dem Produkt, der Dienstleistung oder der Institution nicht vertrauen.

Detaillierte und genaue Informationen verbessern hingegen die positive Wahrnehmung von Produkten, Dienstleistungen oder Institutionen. Durch die Sichtbarkeit von Informationen im Web erzielen Unternehmen oder Einrichtungen ein höheres Ranking bei der Internetrecherche, wodurch sich der Zulauf der Online-Präsenzen steigern lässt. Strukturierte Informationen helfen Suchmaschinen mehr relevante Ergebnisse zu finden und erhöhen die Klickraten. GS1 Smart Search bietet hierfür einen Standard, der mit einem Konsortium aus Google, Bing, Yahoo und Yandex abgestimmt ist.
Mit Hilfe eines Product-Information-Management(PIM)-Systems werden  Produktdaten mit den von Suchmaschinen gewünschten Metainformationen angereichert.

PIM-Systeme für bessere Datenqualität

Bei der einfachen Abbildung komplexer Produktdaten sowie deren Zusammenstellung und Pflege unterstützen moderne PIM-Systeme, die sich flexibel mit anderen Systemen verbinden lassen. Sie ermöglichen durch automatisierte Aktualisierung, Ausspielung und Verwaltung auch komplexe Big-Data-Strukturen zu verwalten. Strategisch ist ein PIM-System notwendig, wenn Unternehmen internationale Expansionen in stationären Kanälen oder Online-Kanälen anstreben, denn sie ermöglichen Qualitätsverbesserungen, Vereinfachungen und Zeitersparnis.

Bei mehreren Standorten oder Vertriebskanälen müssen Mitarbeiter und Kunden auf einheitliche Daten zugreifen, international agierende Unternehmen benötigen ein multilinguales User Interface (UI). Grundsätzlich basieren die Vorteile bei der Verwendung eines PIM-Systems darauf, dass die Produktdaten, sobald sie einmal elektronisch im Gesamtsystem vorhanden sind, sich ohne Medienbruch weiterverarbeiten lassen.

Verzahnung von PIM und CMS

Um die Vorteile validierter PIM-Daten an unterschiedlichen Touch Points verfügbar zu machen, hat pirobase imperia mit pirobase COMMERCE eine Kombination von PIM und Content Management System (CMS) entwickelt. Mit dieser Verzahnung erweitern Marketingmanager validierte Produktdaten aus dem PIM um emotionalen Content. Dadurch ergeben sich eine wesentlich höhere Datenqualität und eine bessere Nutzererfahrung, wenn Produktinformationen für Webseiten, Onlineshops, Kataloge und andere Kanäle bereitgestellt werden.

Nutzer erhalten über diese Digitale Business Engine valide Produktinformationen nicht nur auf Websites, sondern auch über Tablets, Apps, Social Media oderüber GS1 Data bei vielen Händlern.
Individuelle Botschaften, die zielgerichtet mit passenden Informationen beim Kunden an allen relevanten Touch Points ankommen, lassen sich so über Omni-Channel-Marketing schnell, topaktuell und konsistent verbreiten.

Pirobase COMMERCE greift auf Produktdaten, die in pirobase imperia PIM vorliegen, sowie auf Online Content aus dem CMS zu. Diese Daten sind validiert, haben also eine hohe Qualität. Sie lassen sich aus dem PIM auch in einen E-Katalog im PDF-Format exportieren oder in Print-Formate ausleiten.

Im CMS verwenden Anwender diese für personalisierte User Experience. Die Informationen lassen sich auch in Webseiten oder Apps integrieren, sodass Kunden auf allen Kanälen jederzeit aktuelle Informationen finden. Validierte Produktdaten aus dem PIM geben Unternehmendie Sicherheit, dass Kunden immer die richtigen und aktuellen Produktinformationen sehen.

Da Produktdaten, Dienstleistungen oder Termine in Echtzeit synchronisiert werden, können Unternehmen einfach und schnell Promotion-Aktionen planen und umsetzen.
Für schnellen und stabilen Zugriff auf Produktdaten arbeitet die moderne Kombination mit Elasticsearch.

 

Autor

Matthias Kant, Geschäftsführer der pirobase imperia GmbH / © pirobase imperia

 

 

 

 

 

 

 

 

 

 

Kurzporträt

Als Softwareanbieter für Content Management und Produktinformationsmanagement mit über 20 Jahren Erfahrung bietet die pirobase imperia GmbH innovative Lösungen für Enterprise, Mittelstand und öffentliche Institutionen mit umfangreichen Serviceleistungen aus einer Hand.

Dabei versteht sich das Unternehen als strategischer Partner zur Verwaltung von Content in komplexen Unternehmensumgebungen mit hoher Designkompetenz, um Informationen und Inhalte im E-Business, E-Commerce und Cross-Channel schnittstellenübergreifend für alle denkbaren Absatzkanäle zur Verfügung zu stellen. Mit pirobase CMS und pirobase imperia PIM für Enterprise deckt das Unternehmen den kompletten Bereich der Digitalisierung, Aktualisierung und Archivierung sämtlicher Geschäfts- und Kommunikationsprozesse effektiv und zukunftssicher sowohl intern als auch extern ab. Gleiches gilt für Mittelständler und den öffentlichen Sektor, für die der Entwickler mit imperia CMS eine Lösung anbietet, die im Public Sector die Marktführerposition innehat. Mit pirobase Commerce hat pirobase imperia zudem eine starke Kombination von CMS und PIM geschaffen und ist damit aktuell der einzige Anbieter am Markt.

 

Weiterführende Informationen:

pirobase imperia GmbH

 

Aufmacher / Lizenz / Quelle

By Borys Kozielski (Own work) CC BY 4.0 , via Wikimedia Commons

Micro-Virtualisierung gegen Cyber-Bedrohungen

Antiviren-Software und Firewalls können nicht zuverlässig schützen

Die Redaktion sprach mit Jochen Koehler, Regional Director DACH bei Bromium über neue software-technische Ansätze gegen Cyber-Bedrohungen.

Herr Koehler, bitte erklären Sie uns kurz das Konzept „Micro-Virtualisierung“?

In einem Satz: Micro-Virtualisierung ist die Isolation von gefährlichen Vorgängen weg vom eigentlichen Client-Betriebssystem.

Gängige Sicherheitslösungen wie Intrusion-Prevention-Systeme, Antiviren-Software oder Next-Generation-Firewalls fokussieren hingegen auf die Detektion von Angriffen, beispielsweise unter Nutzung von Signaturen, Verhaltensanalysen oder heuristischen Methoden. Attacken aufzuspüren und dann innerhalb des Betriebssystems zu blockieren, um einen Zugriff auf Systemressourcen zu unterbinden, ist State-of-the-Art bei Softwarelösungen zur Sicherung von Endpunkten.

All diese Anwendungen haben aber einen gravierenden Nachteil:
Sie können keinen zuverlässigen Schutz vor der wachsenden Anzahl an polymorphen Cyber-Bedrohungen, Zero-Day-Attacken und Advanced Persistent Threats bieten. Der Grund ist klar, denn diese Lösungen sind auf die Erkennung von Schadsoftware angewiesen und bei neuer Malware stoßen sie prinzipbedingt an ihre Grenzen.

Bromium setzt deshalb auf einen anderen Lösungsansatz.
Die zentrale Idee dahinter ist, dass nicht die Detektion von Schadcode oder das Aufspüren von Angriffen im Vordergrund steht, sondern der gezielte Schutz vor Malware, die zudem nicht zwingend als solche erkannt werden muss.

Realisiert wird dies durch die Isolierung aller potenziell gefährlichen Aktivitäten.
Zentrale Bestandteile der Lösung sind ein speziell im Hinblick auf Sicherheit entwickelter Hypervisor und die integrierten Virtualisierungsfeatures aller aktuellen CPU-Generationen. Eine hohe Sicherheit ist gerade durch die Hardware-Virtualisierung gewährleistet, denn eine CPU-Kompromittierung wäre für einen potenziellen Angreifer mit einem beträchtlichen Aufwand verbunden.

Können Sie die Funktionsweise ihrer Lösung kurz skizzieren?

Bei der Bromium-Lösung werden Hardware-isolierte Micro-VMs für alle Anwenderaktivitäten mit Daten aus unbekannten Quellen erzeugt. Solche potenziell gefährlichen Anwenderaktivitäten können etwa das Aufrufen einer Webseite, das Downloaden eines Dokuments, das Öffnen eines E-Mail-Anhangs oder der Zugriff auf die Daten eines portablen Speichermediums sein. Jeder einzelne Task läuft dabei in einer eigenen Micro-VM und zwar strikt getrennt voneinander, vom eigentlichen Betriebssystem und vom verbundenen Netzwerk.

Konkret heißt das, dass alle einzelnen – auch mit nur einer Applikation verbundenen – Aktivitäten voneinander isoliert werden, zum Beispiel unterschiedliche Seitenaufrufe in einem Browser oder das Öffnen verschiedener Dokumente mit Word, Excel, Powerpoint oder anderen Anwendungen. Damit wird zuverlässig verhindert, dass sich Schadprogramme ausbreiten.
Eine Kompromittierung des Endpunkts und letztlich des Unternehmensnetzes über einen dieser Angriffswege ist damit gänzlich ausgeschlossen.

Führt ihre Lösung nicht zu einer Beeinträchtigung der Performance?

Nein, die Lösung bietet Sicherheit ohne Beeinträchtigung des Benutzerkomforts. Die Lösung läuft für den einzelnen Anwender vollständig im Hintergrund, ohne dass er dabei Einschränkungen hinsichtlich Benutzerkomfort oder Systemperformance hat.
Bei den heutigen Rechnergenerationen erfolgt das Laden einer Micro-VM in rund 20 Millisekunden und damit für den Endanwender kaum „spürbar“. Die minimalen Systemanforderungen liegen bei 4 GB Arbeitsspeicher für die einzelnen Client-Rechner.

Wie integrieren Sie bei Ihren Kunden Ihre Lösung in die vorhandene Infrastruktur?

Bei der Implementierung gibt es keine besonderen Anforderungen. Letztlich kann die Lösung wie jede andere Desktop-Komponente behandelt werden, da sie als Standard-MSI (Microsoft Windows Installer)-Paketierungslösung bereitgestellt wird. Der Rollout der Lösung kann etwa auch problemlos mit vorhandenen Softwareverteilungssystemen wie Microsoft SCCM (System Center Configuration Manager) erfolgen.

In einem zweiten Schritt ist eine Anbindung an zentrale Policy-Management-Lösungen nahtlos möglich; dabei können zum Beispiel Verzeichnisdienste wie das Microsoft Active Directory genutzt werden. Letzter Implementierungsschritt ist dann die Anbindung der Bromium-Lösung an das zentrale Security-Monitoring, das heißt an vorhandene SIEM (Security Information and Event Management)-Systeme.

Können Sie uns einen Ausblick geben, wie sich Ihre Technologie entwickeln wird?

Generell gehen wir davon aus, dass im Bereich Sicherheit die Virtualisierung das beherrschende Thema der nahen Zukunft sein wird.
Prominentes Beispiel dafür ist Microsoft. Das Unternehmen bietet bei der Enterprise-Edition des aktuellen Betriebssystems Windows 10 den Device Guard an, der Hardware- und Softwaresicherheitsfeatures miteinander kombiniert.

Zentrale Komponente ist dabei die Virtualization-Based Security (VBS).
Damit werden zentrale Betriebssystem-Services isoliert, so dass im Falle einer Kompromittierung des Betriebssystems kein Diebstahl von unternehmenskritischen Daten erfolgen kann.
Zudem beabsichtigt Microsoft auch bei seinem Browser Edge auf Virtualisierung zu setzen. So soll künftig die Option bestehen, den Browser in einer eigenen virtuellen Maschine auszuführen.

Ein weiteres Beispiel für den zunehmenden Virtualisierungstrend sind virtuelle „Surfumgebungen“, dass heißt Lösungen, die auf einem getrennten dedizierten Webbrowser basieren.

Auch Bromium wird den eingeschlagenen Virtualisierungsweg weitergehen.
Die Richtung lautet „Isolation von kompletten Applikationen mittels Micro-Virtualisierung“. Damit können dann sensible Anwendungen umfassend und wirksam geschützt werden.

Die Einsatzszenarien dafür sind weitreichend. Denkbar sind klassische unternehmenskritische Applikationen wie Kernbankensysteme oder Bestandsführungssysteme von Versicherungen, aber auch neue Anwendungen im Umfeld des Internets der Dinge, etwa im Bereich Connected Car.

 

Vielen Dank, Herr Koehler!

 

Jochen Koehler, Regional Director DACH

Weiterführende Informationen:

Bromium

 

Aufmacher / Lizenz / Quelle

By Starkus01 (Own work) CC BY-SA 4.0 , via Wikimedia Commons

Versand ist mehr als nur Transport

Gastbeitrag:
Hannes Jagerhofer ermuntert Online-Shopbetreiber zum Versanddienstleister-Vergleich, denn es gibt immer noch eine klügere und günstigere Option.

Die Zukunft des Handels besteht nicht mehr aus der guten Lage der Geschäfte in einer Fußgängerzone, wie es noch vor 10 Jahren der Fall war. Zwar gibt es noch immer die schön dekorierten Läden in der Innenstadt, die sogenannten Flagship-Stores, für die es umso wichtiger ist, die perfekte Lage zu finden, doch sind sie nur das analoge Tor zur digitalen Welt. Ein Laden zu Werbezwecken und zum Ausprobieren. In seltenen Fällen auch zum Abholen vorbestellter Waren. Doch auf jeden Fall sind sie nur noch ein kleiner Bestandteil des viel wichtiger gewordenen E-Commerce Geschäftsfeldes und nicht umgekehrt.

 

Nicht erst seit dem Aufkommen von Amazon, gibt es einen eindeutigen Trend zum Onlineshopping. Das E-Commerce Geschäft boomt, die Paketdienste ächtzen unter der Last und die Innenstädte beklagen einen Rückgang im Einzelhandelsgeschäft. Der Trend kennt aber nur eine Richtung und ist nicht mehr umzukehren. Bei durchschnittlichen Wachstumsraten von 13 Prozent bis 2019 ist klar, wo die Reise hingeht.

Dass der E-Commerce dabei auf schlaue Logistiklösungen angewiesen ist, ist unumstritten. Doch vor allem kleine Shop Anbieter, die sich eventuell gerade erst mit ihrem Shop selbstständig gemacht haben, laufen Gefahr, wichtige Chancen zur Gewinnmaximierung zu verschlafen. Besonders im Bereich Versand, der ein unumgänglicher Baustein im digitalen Handelsgeschäft ist, gefährdet Unwissenheit die Existenz.

 

Die Konkurrenz ist groß

Im Onlinehandel liegt das Geld schon lange nicht mehr auf der Straße. Der Markt ist heiß umkämpft und die Margen schrumpfen, durch den harten Konkurrenzkampf, immer weiter. Daher müssen vor allem auch kleine Shops sehen, an welchen Schrauben sie noch drehen können. Preis und Geschwindigkeit sind die beiden ausschlaggebenden Faktoren im Online-Business. Nachdem die Kunden über den Preis auf die Seite gekommen sind, gilt es sie auch als Stammkunden zu etablieren. Ein weiterer Kauf hängt immer vom Erlebnis des ersten Kaufes ab.

Shops die hauptsächlich online agieren und ihre Waren über Versanddienstleister zu ihren Kunden verschicken, haben leider nur wenige Kontaktpunkte mit dem Kunden persönlich – ein großer Nachteil für die Kundenbindung. Daher ist der Versand häufig das Aushängeschild des Onlineshops, obwohl dieser von Dienstleistern übernommen wird. Deshalb ist es umso wichtiger, dass kleine und mittlere Shopbetreiber, die sogenannten SMEs, die Wichtigkeit des Versands erkennen.

Kleine Shops können beispielsweise beim Kunden punkten, wenn sie verschiedene Dienstleister für den Versand anbieten, da einige auch Wunschzustellungen oder Express Services anbieten. Häufig handeln die Unternehmer, die hinter den Shops stehen, nicht sehr unternehmerisch. Entweder die Wichtigkeit von Premium Optionen beim Versand oder die Einsparpotenziale werden entweder aus Bequemlichkeit nicht genutzt oder sind gar nicht bekannt.

Als Betreiber der Plattform checkrobin, einer Vergleichsplattform für Paketversand, sehen wir, dass Unternehmen unseren Service bisher erst zu 5% nutzen. Während unsere Nutzerzahlen im privaten Segment schnell steigen, trauen sich nur wenige Geschäfte einmal ihre Versandoptionen zu überprüfen. Dabei ist eigentlich jedem bewusst, dass es immer noch eine klügere und günstigere Option gibt.

 

Im Onlinehandel entscheidet jeder Cent über den Fortbestand

Schaut man sich die Margen der Onlineshops an, dann ist klar, dass der Preiskampf nur eine Richtung zulässt und die Gewinne im Einkauf und Versand zustande kommen müssen. Zu den Versandkosten kommen neben den Entgelten für die Dienstleister aber auch noch die fixen Kosten für Verpackung und Etikettierung, wie onlineshop basics gut aufgeschlüsselt hat. Sobald man sich aber für eine fixe Verpackungsart entschieden hat, gibt es nur noch Verhandlungsspielraum bei der Wahl des Paketdienstes.

Viele Betreiber fürchten sich dabei noch immer die DHL als Standard aufzugeben. Dabei gibt es neben der DHL, noch viele weitere Anbieter. Durch den einfachen Vergleich auf unserem Portal haben wir schon einige Privatpersonen dazu bewegen können ihre Pakete auch mit den “großen” Speditionen wie UPS oder DPD zu verschicken. Dabei sind diese im Vergleich zur DHL nicht einmal größer, nur der Ruf haftet ihnen an. Wovon Privatpersonen schon lange profitieren, davor sollten Unternehmen nicht die Augen verschließen, da sich die Auswirkungen für sie besonders bemerkbar machen – abhängig vom Versandvolumen.

 

Auch neue Kurierdienste wie Liefery und Tiramizoo bieten besondere Vorteile für Onlineshops, da sie sehr enge Lieferfenster anbieten und schnelle Kurier Lieferungen im urbanen Raum ermöglichen. Für Shops die ihre kleinen Margen sichern müssen bieten sich die Vorteile in der Ersparnis durch das Vergleichen von verschiedenen Anbietern, für Premiumshops hingegen bietet der Blick über den Tellerrand eine Verbesserung der Kundenfreundlichkeit. In beiden Fällen lohnt es sich, nicht einfach aus reiner Gewohnheit an einem Dienstleister festzuhalten. Besonders im Falle von Lieferungen ins Ausland unterscheiden sich die Preise und Leistungen häufig enorm. Kleine Onlineshops die sich auf einzelne, exquisite Produkte spezialisiert haben, sind hier gefordert. Nicht nur sind die Preise sehr unterschiedlich, sondern auch die Versicherungsbeträge können im Auslandsversand stark variieren. Wer schon einmal ein Paket in die USA verschicken wollte, weiß, wie kompliziert die Deklarierung sein kann.

 

Versand muss ein zentrales Thema sein

Naturgemäß ist der Kauf die erste Hürde, doch wenn diese genommen ist entscheidet das Versandmanagement darüber, ob der Kunde wiederkehrt oder es bei einer einmaligen Bestellung bleibt. Die Branchengrößen, wie Amazon oder Otto, haben schon erkannt, dass der Kunde an der Haustür überzeugt wird. Nicht umsonst bietet Amazon auch einen eigenen Kurierdienst in den größten Städten an. Damit kleinere Anbieter da mithalten können, sollten Sie den Versand nicht stiefmütterlich behandeln.

 

Unser Autor

Hannes Jagerhofer, Gründer der Vergleichsplattform checkrobin

Hannes Jagerhofer ist gebürtiger Österreicher aus Klagenfurt und Gründer der Vergleichsplattform für Paketdienste checkrobin, die als Mitfahrzentrale für Pakete – jetzt myrobin – schon 2012 in Österreich online ging und seit April 2017 um eine professionelle Preisvergleichsplattform in Deutschland erweitert wurde. Zuvor hat er die Flugsuchplattform checkfelix gegründet und 2011 erfolgreich an KAYAK verkauft. Neben seinem Sinn für innovative Startup-Ideen ist Jagerhofer begeisterter Sportler und organisiert seit 2015, in Kooperation mit RedBull, die internationale Swatch Beach Volleyball Major Series.

 

 

Weiterführende Informationen

checkrobin GmbH

Markenerlebnisse an allen Touchpoints

Trend Report im Gespräch mit Herrn Heiko Wilknitz, COO und Mitbegründer von ARITHNEA und Herrn Stefan Maack, Unit Manager Kreation bei ARITHNEA über Markenerlebnisse und Customer Experience im digitalen Zeitalter.

 

Herr Wilknitz, welche Möglichkeiten hält die Digitalisierung vor, um den Kunden besser kennenzulernen?

Eine Grundlage ist das veränderte Kunden-beziehungsweise Kommunikationsverhalten über die verschiedenen digitalen Kanäle. Das heißt, der Kunde von heute gibt viel mehr Informationen über sich selbst preis, seien es Bewegungsdaten oder indem er Soziale Medien nutzt. Zudem hat die Leistungsfähigkeit der Analysewerkzeuge massiv zugenommen, Stichwort BigData oder Data Driven Marketing.

Die entscheidende Frage ist jedoch: WER will WANN WAS und in WELCHER Form?
Aus den Antworten auf diese Frage und aus der Auswertung der erhobenen Daten ergibt sich ein enormes Potenzial hinsichtlich der Personalisierung und Optimierung der Kundenansprache. Dabei können der jeweilige Kanal und Kommunikationsweg mit eingebacht werden – zum Beispiel durch Bonusprogramme mit Cross-Channel-Ansatz  oder Community Building wie „Kunden helfen Kunden“.

Speziell durch die Verknüpfung der verschiedenen Informationen aus den unterschiedlichen Kanälen und deren Zusammenspiel kann der Kunde ganzheitlich abgeholt werden. Ein enormes Potenzial birgt darüber hinaus auch das Angebot zusätzlicher Leistungen und Services rund um das eigentliche Produkt. Unternehmen sollten die Kundenbeziehung ganzheitlich und strategisch angehen, so dass nach dem Kauf des Produktes die Kundenansprache nicht beendet ist, sondern der Kauf den Beginn einer längeren Kundenbeziehung darstellt.

Heiko Wilknitz, COO und Mitbegründer von ARITHNEA

 

Herr Maack, inwieweit lassen Location-based-Services die reale und virtuelle Welt verschmelzen?

Location-based Services bilden eine Schnittstelle zwischen der realen und der virtuellen Welt. Was interessiert mich? Wo finde ich es – jetzt?! Über mein Endgerät wird die reale Welt in meiner direkten Umgebung transparenter. Anders herum kann ein Online-Händler den Kunden nach seinem „Bummel“ nochmal spezifisch auf Produkte ansprechen, zum Beispiel auf jene, die ihn zuvor interessiert haben. Dabei darf der Mehrwert für den Nutzer nicht vergessen werden: Location-based Services bergen nämlich auch das Risiko, den Nutzer zu verprellen, etwa dann, wenn er mit zu vielen oder mit Nachrichten adressiert wird, die ihn nicht interessieren. Die Technik darf kein Selbstzweck sein, sondern sie muss dem Menschen dienen. Der Mensch muss im Mittelpunkt stehen und dies anhand der Angebote und Services auch merken,
Stichwort „Customer Centricity“.

Welche Customer Experience kann mit solchen Angeboten generiert werden?

Im Idealfall lässt sich mit einer durchdachten Customer Experience eine ganzheitliche, kontinuierliche und wertschöpfende Markenerfahrung für den Kunden generieren. Das wichtigste dabei ist, dieZielgruppe beziehungsweise den Kunden genau zu kennen, um eine positive Wahrnehmung zu erwirken. Das Standardprogramm reicht dafür schon lange nicht mehr. Das Geheimnis liegt darin, den Kunden konsequent in den Mittelpunkt seines Handelns zu stellen.

Herr Wilknitz, was raten Sie heute dem stationären und dem Online-Handel, um die Chancen der Digitalisierung zu nutzen?

Der Ausgangspunkt ist es, seine Kunden genau zu kennen und die Personalisierung zu leben. Das heißt, eine Analyse der Daten ist elementar, um gezielt passende Maßnahmen abzuleiten. Für den stationären Handel birgt die Digitalisierung natürlich Risiken, aber gleichzeitig auch enorme Chancen. Die Konkurrenz aus dem Online-Handel ist aus Sicht der reinen Bedarfsversorgung für den stationären Handel eine enorme Bedrohung und wahrscheinlich langfristig auch der Sieger. Man nehme hier nur die Entwicklung von Dash-Buttons oder von virtuellen Assistenten, die den „Standardeinkauf“ erledigen können. Auf der anderen Seite kann der stationäre Handel Produkte erlebbar machen und Services bieten, die online nur schwer abzubilden sind.

In Ladengeschäften können echte Erlebnisse geschaffen, Einkaufen zum Event unter Freunden und vor allem die Haptik hervor gehoben werden. Die Zauberformel heißt hier individuelle Beratung und Service. Durch den Einsatz moderner Technologien wie z.B. Tablets im Verkaufsraum bekommt der Verkäufer Zugriff auf weitergehende Kundeninformationen, zum Beispiel die Kaufhistorie, und kann so entsprechend den Vorlieben des Kunden diesen optimal beraten und persönliche Empfehlungen aus dem Gespräch direkt ableiten. So können Verkäufer in dem Moment nicht nur die Konfektionsgröße und die bevorzugte Farbe erfragen, sondern zusätzlich eine persönliche Stilberatung bieten, die auf den individuellen Farb- und Figurtyp des Kunden und seine Wünsche eingeht.
Ein weiteres Beispiel ist etwa, den Kunden vor Ort in 3D zu vermessen und dadurch direkt zu passenden Produktempfehlungen am Point of Sale zu leiten.

Auf der anderen Seite wird das Thema Markenerlebnisse auch online eine immer größere Rolle spielen. Es gibt heute schon Möglichkeiten, sein eigenes Bild hochzuladen, um das Aussehen von Kleidern, Frisuren oder Brillen individuell zu testen.
Gewinnen werden die Händler, die beides, Digitalisierung und Personalisierung, optimal miteinander verknüpfen.

Deshalb ist ein perfektes Zusammenspiel beider Welten für mich das Erfolgsrezept bei der Digitalisierung von morgen.

Herr Maack, wie kann die Wunschvorstellung „eine individuelle Betreuung am Point of Sale“ wahr werden?

Um eine tatsächlich individuelle Betreuung zu schaffen, bedarf es der Bereitstellung von individuellen Informationen an das Fachpersonal am Point of Sale. Es geht um ein silofreies, ganzheitliches digitales Ökosystem. Der Verkäufer, egal ob real oder als Avatar, ist dabei umfassend über die Präferenzen und Bedürfnisse des Kunden informiert. Die Schnittstellen, die im Unternehmen und zwischen Unternehmen in dieser Customer Journey herrschen, zum Beispiel Partnerprogramme und Informationsvernetzung, sollten für den Kunden nicht spürbar sein. Wichtig ist dabei auch, dass der Kunde eine ehrliche Beratung erfährt. Es wird künftig nicht mehr um das Verkaufen um jeden Preis gehen, sondern vielmehr um Loyalität, um Ehrlichkeit und Wertschätzung.

Stefan Maack, Business Unit Manager Kreation bei ARITHNEA

 

Wie sieht die optimale E-Commerce-Handelsplattform der Zukunft Ihrer Meinung nach aus?

Ich denke, das ist eine Frage, mit deren Antwort man promovieren könnte. Ich persönlich denke, die Zukunft liegt überwiegend in der Vernetzung von Daten und Systemen, und zwar bereichs- und unternehmensübergreifend. Sie liegt in der Veränderung der Schnittstellen zwischen Mensch und Maschine.
Bei ARITHNEA leben wir das heute schon, indem wir Technik und User Experience optimal aufeinander abstimmen und die User Experience als Vermittler zwischen Mensch und Technik fungiert. Damit bringen wir Marken und Märkte in optimalen Einklang.

Stellen Sie sich mal vor, Sie als Verbraucher entscheiden sich für eine E-Commerce-Plattform und willigen ein, dass der Anbieter ganzheitlich Zugriff auf ihre Daten hat. Desweiteren stellen Sie sich vor, dass diese Plattform ebenfalls noch in Verbindung zu beispielsweise Ihren smarten Home-Devices und Wearables steht. Das System kennt auch ihre Umwelt, ihre Freunde und Familie. Mit den gelernten Präferenzen und Ihrer Shopping-Vergangenheit kann die Plattform echten Mehrwert schaffen. Ich stelle mir das so vor, dass meine Plattform mich kennt, wie damals mein Einzelhändler um die Ecke, der schon wusste, was ich brauche, wenn ich zur Tür herein komme. Oder besser noch: der die Tüte schon gepackt hat und sagt „Bitte schön. Heute ist doch ihr Hochzeitstag, ich habe die Zutaten für ein einfaches und sehr leckeres Menü schon zusammengepackt. Das Rezept liegt auch bei und der Babysitter ist ebenfalls schon gebucht.“

Herr Wilknitz, inwiefern sollten die Geschäftsprozesse End-to-End gestaltet und damit gebaut werden?

Um ein nachhaltiges Einkaufserlebnis und Kundenzufriedenheit zu gewährleisten, ist eine durchgängige Prozessabbildung absolut notwendig. Bei ARITHNEA fangen wir tatsächlich bei der Marke an, also ganz „vorne“, und bringen diese in Einklang mit Markt und Mensch. Daraus entwickeln wir eine störungsfreie, ganzheitliche Customer Journey, mit dem Kunden im Mittelpunkt. Unsere Herangehensweise und Prämisse ist es, für eine End-to-End-Lösung das Marketing, den Vertrieb, den Service und die IT bei unseren Kunden an einen Tisch zu bekommen.
Diese Herangehensweise bilden wir auch in unserer eigenen Organisationsstruktur ab. Denn die Kunden werden in Zukunft Fragen wie der nach der Verfügbarkeit, nach der Logistik oder der Same-Day-Delivery nicht mehr interessieren. Sie setzen es einfach voraus. Und wenn es bei einem Anbieter nicht funktioniert oder das Einkaufserlebnis entlang der Customer Journey gestört wird, sind die Kunden weg. Viele Dinge, die heute als innovativ gelten, sind morgen schon „Hygienefaktoren“.

„Eine Marke muss sich sehr nah am Kunden orientiert digitalisieren.“

Welche Bedeutung haben Omni-Channel-Modelle für den Handel?

Wenn Omni-Channel-Modelle eine transparente und lückenlose Customer Journey unterstützen, die auch zu ihren Kunden passt, dann steckt in solchen Modellen sehr viel Power. Dabei muss sehr genau analysiert werden, welcher Kanal zu welchem Kunden passt und welchen Mehrwert er in punkto Konversion oder Kundenbindung liefern kann. Eine Marke muss sich sehr nah am Kunden orientiert digitalisieren.
Ein Gießkannenprinzip ist einfach nicht mehr angebracht. Es kann sogar schaden, denn es verdeckt den Fokus und kostet immenses Budget.

Welches Change-Management ist in den Unternehmen dafür notwendig?

Digitalisierung fängt mit dem Abbau von Silos und der Vernetzung innerhalb des Unternehmens an. Wichtig ist dabei, alle Stakeholder auf dem Weg mitzunehmen. Nach unserer Meinung darf die Digitalisierung nicht hinter verschlossenen Türen stattfinden, sondern muss ein fester Bestandteil der Unternehmenskultur sein.

Plädieren Sie in diesem Kontext für den Neubau auf der „grünen Wiese“, um den neu zu bildenden Strukturen genügend Raum zu geben? Wie lange dauert dieser?

Diese Frage muss von Fall zu Fall beantwortet werden. Sie hängt von den Zielen und der bereits stattgefundenen Digitalisierung des Unternehmens ab. Manchmal müssen wir erst einmal mit der Vernetzung der Stakeholder, der Erarbeitung einer digitalen Strategie und dem Abbau von Datensilos anfangen, also ganz grundlegend.
In der Folge steht dann der Aufbau von ganzheitlichen Prozessen. Unserer Meinung nach ist Digitalisierung keine Frage der Dauer, sondern eine Frage der Haltung und, ob man diesen Weg tatsächlich ernsthaft mit allen Konsequenzen gehen will.

Wie wichtig ist das agile Projektteam, um die klassischen Projektlaufzeiten zu verkürzen?

Unter dem Gesichtspunkt der„Time-to-Market“ ist Agilität unabdingbar. Zudem erlaubt Agilität auch Flexibilität. Denn Digitalisierung ist kein Ziel, sondern ein Weg.

Wie nehmen Sie Ihre Kunden und deren Mitarbeiter mit ins Boot?

Hier geht es um Vertrauen und die Beteiligung aller im Unternehmen relevanten Stakeholder. Dabei darf Digitalisierung nicht top-down stattfinden, sondern muss auch die Basis, die Mitarbeiter aller Ebenen, einbeziehen. Wir sehen uns nicht nur als Dienstleister auf dem Wege der Digitalisierung, sondern als Partner! Wir machen nicht einfach nur ein Projekt und sind dann wieder weg! Gerade in der Anfangsphase ist es sehr wichtig, alle Beteiligten an einen Tisch zu bringen und ein gemeinsames Verständnis für einen erfolgreichen Weg zu finden.

„Mit dem sogenannten Brand Canvas bringen wir Mensch, Markt und Marke für unsere Kunden in Einklang.“

Herr Maack, wieviel Kreativität braucht man heute, um die Möglichkeiten der Digitalisierung im Handel anzuwenden und zu nutzen?

Ich würde sagen eine Menge. Allerdings wird Kreativität allein nicht reichen.
Im Kern kommt es auf den Nutzerfokus an, auf die viel zitierte Customer Centricity.
Bei ARITHNEA verbinden wir Kreativität mit Technologie, um Customer Objectives mit Business Objectives in Einklang zu bringen. Das können Sie nur erreichen, wenn sie sehr breit aufgestellt sind und die Technik genauso verstehen wie den Markt, den Kunden und die Marke.
Wir haben dafür ein eigenes Modell entwickelt: Mit dem sogenannten Brand Canvas bringen wir Mensch, Markt und Marke für unsere Kunden in Einklang und können diesen Einklang auch technisch sehr zielstrebig umsetzen. Ich denke, das Geheimnis des Erfolgs liegt in einer konsequenten Partnerschaft und sehr viel gegenseitigem Vertrauen zwischen Agentur und Kunde.

Wie werden heute Marken digital erlebbar?

Marken müssen heute sehr genau definiert sein und ihr Versprechen auch ganzheitlich einlösen. Wir entwickeln dafür eine medienneutrale Markenidee, die wir dann in den einzelnen, relevanten Kanälen für die Marke umsetzen. Im Rahmen der „User Experience Journey“ entwickeln wir so eine stringente Markenerfahrung. Das „Erlebnis Marke“ muss sich an allen relevanten Touchpoints genauso widerspiegeln wie bei der Anwendung des Produkts oder der Dienstleistung selbst. Wir nutzen dabei alle Facetten der digitalen Kommunikation bis hin zum Corporate Design.

Inwieweit wird künstliche Intelligenz den Handel revolutionieren?

Künstliche Intelligenz ist ein Wort, das ich nicht mag. Ich bin davon überzeugt, dass wir hier eher von reaktiver Intelligenz reden sollten. Denn bis heute können Maschinen nur reaktiv agieren, das heißt, sie brauchen eine Aufgabe und Daten. Daraus erzeugen sie eine Aktion.
Der Mensch kann antizipieren und agieren, noch bevor ein Fall X eintritt. Was im Hinblick auf den Handel die Zukunft stark beeinflussen wird, ist die Veränderung der Schnittstelle „Mensch und Maschine“. Weniger Bildschirm und Tastatur, dafür mehr Sprache, Location-based Targeting und Antizipation

 

Vielen Dank für das Gespräch!

 

Weiterführende Informationen und einen Live-Mitschnitt des Gesprächs:

ARITHNEA

 

 

Aufmacher / Lizenz / Quelle

By Beyondadvertising (Own work) [CC BY-SA 4.0], via Wikimedia Commons