Datensilos einreißen: Endlich alle Geschäftspotenziale realisieren
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte/von Bernhard HaselbauerIn der Theorie können Daten Unternehmen erhebliche Vorteile bringen: Durch ihre Analyse lassen sich neue Geschäftsfelder entdecken, Kundenerlebnisse verbessern oder interne Prozesse optimieren. In der Praxis scheitern diese Vorhaben allerdings häufig an einem entscheidenden Faktor – Unternehmen wissen nicht, über welche Daten sie überhaupt verfügen, weil diese in Datensilos vollständig getrennt voneinander existieren. Nur wer in der Lage ist, diese Silos aufzubrechen und alle relevanten Daten miteinander zu verknüpfen, kann das ganze Potenzial seiner Daten ausschöpfen. Welche Schritte Unternehmen dabei berücksichtigen müssen, erklärt Gregor Bieler, EMEA CEO bei Aparavi.
Daten sind wahlweise das Öl, Gold oder der Rohstoff des 21. Jahrhunderts. Grundsätzlich ist dieser Gedanke richtig; wer heute sein Unternehmen voranbringen möchte, kann sich nicht mehr alleine auf seinen Instinkt verlassen, sondern benötigt handfeste Informationen als Entscheidungsgrundlage. Allerdings stellen die Mengen an Daten, die heute in jedem Unternehmen vorhanden sind und täglich weiter anwachsen, Führungskräfte auch vor eine große Herausforderung: die benötigten Daten zu finden und zu verbinden. Zudem sind laut verschiedener Schätzungen von Analysten und Experten ein Großteil der Unternehmensdaten unstrukturiert, befinden sich also nicht in einer Datenbank, sondern zum Beispiel in Textdokumenten, E-Mails oder Präsentationen. Zum anderen sorgen Datensilos dafür, dass Daten an verschiedenen Stellen und Systemen unabhängig voneinander existieren und niemand eine vollständige Übersicht hat, welche Daten an welchen Orten vorhanden sind. Um das maximale Potenzial ihrer Daten auszuschöpfen, benötigen Manager deshalb einen Plan, wie sie diese Silos aufbrechen und die volle Kontrolle über ihre Daten zurückerlangen können.
Schritt 1: Alle Datenbestände identifizieren
Zunächst müssen Führungskräfte herausfinden, über welche Daten ihr Unternehmen in den vorhandenen Programmen, Servern und Cloud-Speichern verfügt. Eine manuelle Suche, gerade nach unstrukturierten Daten, ist nicht nur zeitaufwendig und nimmt Ressourcen in Anspruch, sondern ist auch in den meisten Fällen schlichtweg nicht umsetzbar. Unternehmen sollten sich deshalb innovative Technologie-Lösungen zunutze machen, die in der Lage sind, all ihre Daten aufzudecken, unabhängig davon, ob sich diese On Premise, in der Cloud oder hybriden Umgebungen befinden. Damit können sie außerdem feststellen, wer auf welche Daten Zugriff hat und welche Daten für bestimmte Mitarbeitergruppen und Abteilungen von besonders hoher Relevanz sind oder sein könnten.
Schritt 2: Ziele festlegen
Mit dem Wissen, welche Unternehmensdaten existieren, können Manager im Anschluss konkrete Ziele definieren, die durch das Aufbrechen der Silos erreicht werden sollen. Hierbei ist auch die Einbindung der Fachabteilungen wichtig, denn diese wissen ganz genau, wo es bei ihnen Optimierungspotenziale gibt und welche Daten weiterhin in Silos verbleiben können. Letzteres gilt insbesondere für sensible Informationen, wie Geschäftsgeheimnisse oder Personal- und Finanzdaten. Indem sie die Mitarbeiter von Anfang an einbeziehen und ihr Feedback berücksichtigen, können Führungskräfte zusätzlich die Akzeptanz für die neuen Prozesse erhöhen und dadurch verhindern, dass sich in Zukunft erneut Datensilos bilden.

Schritt 3: Überflüssige Daten beseitigen
Wenn Unternehmen wissen, welchen Zweck ihre Daten künftig erfüllen sollen, können sie dazu übergehen, ihre Daten zu konsolidieren, denn: ein nicht unerheblicher Teil von Unternehmensdaten ist redundant, obsolet oder trivial (ROT Data). 50 Kopien derselben Datei sind 49 zu viel und Informationen, die vor fünf Jahren noch hochaktuell waren, sind heute oft schon mehrfach überholt. Führungskräfte sollten diesem Schritt besondere Bedeutung zumessen, da sie durch die Konsolidierung das Datenchaos in Griff bekommen können. Gleichzeitig verringern sie durch konsequentes Löschen nicht mehr benötigter Datenbestände ihren Speicherbedarf, was sich positiv auf ihre Betriebskosten und CO2-Emissionen auswirkt. Mithilfe moderner Software-Lösungen können sie diesen Vorgang mit wenigen Klicks abschließen und darüber hinaus auch prüfen, welche Daten unter die Vorgaben der DSGVO fallen und besonders geschützt werden müssen.
Schritt 4: Eine zweckdienliche Lösung implementieren
Um die Daten ihres Unternehmens miteinander zu vernetzen und so einen Single Point of Truth zu schaffen, haben Manager zwei Möglichkeiten: Entweder sie verbinden ihre verschiedenen Systeme über Schnittstellen und Konnektoren miteinander oder sie implementieren eine neue zentrale Plattform, auf die die Datenbestände migriert werden. Welche Lösung die richtige ist, hängt auch mit den Zielen zusammen, die zuvor definiert wurden. So kann es ausreichen, den eigenen Onlineshop mit der Customer-Relationship-Management-Lösung und dem Enterprise-Resource-Planning-System über APIs zu verbinden, um mit diesen Daten die Kundenansprache und die Warenplanung zu optimieren. Wer allerdings rechenaufwendige Operationen mit seinen Daten plant, sollte eher auf eine zentrale Ablage setzen.
Schritt 5: Langfristigen Erfolg erreichen
Um den Erfolg dieses Prozesses sicherzustellen, sollten Manager im Anschluss genau prüfen, ob sich die gewählte Lösung bewährt, die definierte Ziele erreicht wurden oder ob noch an einigen Stellschrauben gedreht werden muss, um die Unternehmensdaten wie gewünscht miteinander verknüpfen zu können. Hierfür kann es hilfreich sein, nicht alle Datensilos auf einmal anzugehen, sondern in einzelnen Projekten und die Erkenntnisse aus diesen für die weiteren Vorhaben zu nutzen. Auch lohnt es sich, neue Richtlinien zu formulieren, die den künftigen Umgang mit Daten für alle Mitarbeiter transparent und nachvollziehbar regeln.
Fazit
Unternehmen haben zwar verstanden, dass sie es sich heute nicht mehr leisten können, immer mehr Daten anzuhäufen, aber nichts mit diesen zu machen. Allerdings sind viele schlicht nicht in der Lage, schnell wertvolle Erkenntnisse aus ihnen zu ziehen, da ihre Daten unabhängig voneinander in verschiedenen Anwendungen und Servern liegen und Entscheidungsfindungen erst aufwendige Recherchearbeiten involvieren. Manager, die diese Datensilos aufbrechen, können sich echte Wettbewerbsvorteile verschaffen und sich nachhaltige Erfolge sichern.
Wie stellen Sie sich die HR der Zukunft vor?
/in Creative Commons CC BY-ND, Freie Inhalte, New Work/von Bernhard HaselbauerHaben Sie sich je die Frage gestellt, wie genau die HR der Zukunft eigentlich aussehen soll? Wir haben festgestellt: Dies ist eine Frage, die Unternehmen aller Branchen und Größen beschäftigt … und Antworten sind vielfältig. Ein richtig oder falsch scheint es pauschal nicht zu geben, jedoch sind sich die meisten HR-Experten einig, dass die Digitalisierung der HR und die Automatisierung von Prozessen unweigerlich zur Zukunft der Arbeit dazu gehört.

Wir haben Wieland Volkert, Country Manager Central Europe und Niederlande bei UKG, nach seiner Einschätzung gefragt.
Herr Volkert, die Zukunft der HR, was bedeutet das für Sie?
Das ist eine komplexe Frage. Meiner Meinung nach werden die Unternehmen, die ihren Fokus auf die Mitarbeiter und insbesondere die Employee Experience legen, die Weichen für eine starke Zukunft stellen. Denn es sind schließlich die Menschen hinter den Kulissen, die als Motor für Erfolg und Wachstum fungieren. In der Retrospektive hat die Zeit in der Pandemie gezeigt, wie wichtig nicht nur Agilität und Sicherheit in unserer Arbeitswelt sind, sondern auch das Empowerment der Mitarbeiter. 2020 hat einen entscheidenden Impuls für den Wandel der Personalabteilung gesetzt und hat uns erkennen lassen, wie schnell, komplex und datenstark die Zukunft der Arbeit aussehen kann, wenn die Mitarbeiter in den Mittelpunkt strategischer Entscheidungen gestellt werden.
Und damit kommen wir zur Rolle der HR: Die Funktion muss sich in der Future of Work neu orientieren und stark positionieren. Es geht nicht mehr „nur” um die administrative Erledigung von mitarbeiterbezogenen, täglichen To Do’s. Die neue Rollenbeschreibung integriert den strategischen Sparring-Partner, die Schnittstelle zwischen Mitarbeitern und Führungsriege und auch die Funktion als administrativer Motor in Unternehmen als Schwerpunktthemen. Da kommt ein wichtiger und spannender Punkt ins Spiel: Das Zusammenspiel von Mensch und Maschine.
KI, Machine Learning und RPA sind keine neuen Themen, sie wurden bisher aber eher vorsichtig und argwöhnisch in den HR-Abteilungen umgesetzt. Das belegt auch die Studie von IDG Research Services (2021) “Digitalisierung im Personalwesen”: Die Prozesse aller anderen Fachbereiche sind automatisierter als die im HR-Bereich, geben die Befragten an. Dabei bieten KI-gesteuerte Lösungen durchaus Vorteile – vorausgesetzt sie werden von Menschen gesteuert und nicht umgekehrt. Automatisierte, digitale Lösungen verschaffen den Personalern die nötige Kapazität, um sich auf komplexere Mitarbeiterbelange und strategische Fragestellungen des Personalmanagements zu konzentrieren. Robotic Process Automation, also RPA, unterstützt den Wandel hin zur agilen Personalabteilung, indem selbst komplexe, manuelle Arbeitsabläufe im System standardisiert werden können. Und die Fehlerquote – etwas sehr Menschliches – wird reduziert. Es entstehen transparente Abläufe und eine standortunabhängige Zugänglichkeit zu allen HR Services für das HR-Team, aber noch viel wichtiger: für die Mitarbeiter. Auch Chatbots gehören unweigerlich zu dieser Entwicklung dazu und werden schon bald zum gewohnten Erscheinungsbild der Personalabteilung gehören. Um es auf den Punkt zu bringen: Die Zukunft der HR ist digital und dynamisch!
Welche Schwerpunktthemen und Trends gehören für Sie unbedingt dazu?
Kurz um: Die richtige Haltung, Employee Experience und Prozessoptimierung – in dieser Reihenfolge. Future of Work steht nicht nur für neue Technologien, sondern eine veränderte Haltung zur Rolle der Mitarbeiter und der HR. Moderne Infrastrukturen befreien von administrativem Ballast und ermöglichen den Mitarbeitern die gleiche Experience, die Kunden erleben – einen persönlichen, unbürokratischen Service! Zu Beginn jeden neuen Jahres setzen wir uns zusammen und definieren, wie viele andere HR-Spezialisten, die Mega Trends. Ich sehe die Trends, die wir für 2021 kommuniziert haben, sogar als langfristige Tendenzen. Sie werden uns so – oder leicht verschoben – in den nächsten Jahren begleiten: People before Profits, Work-Life-Synergien und die Renaissance der Personalabteilung.
People before Profits steht für die angesprochene Haltung oder einen möglichen Haltungswechsel, der die Mitarbeiter in den Mittelpunkt aller HR-Entscheidungen rückt. Ein prägnantes Schlagwort ist hier die Corporate Social Responsibility (CSR), die soziale Verantwortung von Unternehmen. Diese muss jedoch nach innen genauso wie nach außen gelebt werden. Die Pandemie hat noch einmal verdeutlicht, wie wichtig die Mitarbeitererfahrung für den Unternehmenserfolg sind und dass soziale Themen wie Sicherheit, Gesundheit und Wohlbefinden zentrale Themen in der Arbeitsgestaltung sein müssen. Das verdeutlicht auch Deutschlands größte Mitarbeiterbefragung #whatsnext2020 der IFBG (2020), in der 76 % der Befragten angaben, dass ihnen Themen der Work-Life-Balance wichtig sind.
Und genau hier schließt das Thema Work-Life-Synergien an. Gibt es das überhaupt, diesen Synergie-Effekt? Seit vielen Jahren verschwindet die Trennlinie zwischen Arbeit und Privatleben zunehmend. In einem Gespräch für unseren Podcast “Let’s Talk HR” hat Sabine Kluge das sehr treffend mit den Worten “Ist das gesund?” hinterfragt . Sie geht sogar noch weiter und nimmt Unternehmen in die Pflicht, die eigenen Mitarbeiter aktiv dabei zu unterstützen, Auszeiten zu nehmen und eindeutig zu vermitteln, dass Produktivität nicht mit Überstunden und Mehrarbeit gleichzusetzen sind. Je mehr Unternehmen mobiles und standortunabhängiges Arbeiten ermöglichen, desto größer ist die Gefahr, dass Mitarbeiter die Grenze zwischen Arbeit und Privatleben nicht mehr deutlich ziehen können. Es ist ja so “einfach”, E-Mails und Chatnachrichten auch nach Feierabend zu beantworten … Hier hat die HR die Möglichkeit, als Vordenker die Weichen zu stellen und entsprechende Maßnahmen umzusetzen, die den Mitarbeitern die Work-Life-Synergien klar machen. Wo liegen die Grenzen? Wo können Mitarbeiter, die in einem Hybrid-Modell arbeiten, selbstständig entscheiden? Denn: Ein Mitarbeiter, mit einem ausgeglichenen Verhältnis zur Arbeit ist zufriedener, leistungsstärker und motivierter.

Der dritte Punkt: die Renaissance der Personalabteilung. Es geht nicht mehr darum, als administrativer Ansprechpartner Personalbelange zu bearbeiten, wenn sie anfallen. Die Personalabteilung hat die wichtige Aufgabe richtungsweisend zu agieren und strategische Verantwortung zu übernehmen, damit die Mitarbeiterbedürfnisse in Zukunft – möglichst vorausschauend, aber auch kurzfristig – erfüllt werden können. So können Unternehmen eine positive Employee Experience fördern . Laut der schon genannten IDG- ist die Employee Experience für 56,2 % der Befragten bei der Auswahl einer passenden HR-Lösung wichtig.
Die Pandemie hat bewiesen, dass die Personalabteilung ein wichtiger Angelpunkt ist, der die Führungsebene mit den Mitarbeitern verknüpft. Zielführende und lückenlose HR-Services sind neben dem optimalen, teils KI-gestützten Set-Up, das auch idealerweise einen HR-Self-Service für die Mitarbeiter bietet, die wichtigste Voraussetzung für diese erfolgreiche Transformation. In Zukunft wird die HR einen festen Platz am Entscheidertisch in Unternehmen besetzen und bei wichtigen strategischen Fragen, besonders hinsichtlich der Mitarbeiter, Meinungsführer sein.
Was macht einen starken Partner bei der HR-Transformation aus?
Die Digitalisierung der Personalabteilung ist ein Prozess. Gemeinsam mit einem Haltungswechsel sehen Organisationen eine nachhaltige Transformation, und die ist nicht in einem Atemzug getan. Solch ein Change-Prozess gelingt am besten mit einem Partner auf Augenhöhe. Der Technologie-Partner der Wahl sollte die Bedürfnisse des Unternehmens verstehen und die Thematik aus der Perspektive, der HR- und der Mitarbeiterbedürfnisse angehen. Wir bei UKG arbeiten nach dem Leitsatz „Lösungen von HR für HR“.
Für mich persönlich heißt dies, dass ein Partner die Herausforderungen von Personalabteilungen verinnerlicht haben sollte, die Komplexität der jeweiligen Organisation verstehen muss und jeden Implementierungsschritt mit entsprechendem Know-how begleitet. Die Digitalisierung der HR fördert nicht nur eine positive Employee Experience, sondern bietet messbare Vorteile. Dazu gehören deutliche Kosteneinsparungen, zum Beispiel für Papierarchive, IT- und Audit-Kosten sowie eine Reduzierung der HR-Arbeitslast bzw. der Bearbeitungsdauer von HR-Prozessen.
Eins ist klar: Die Anforderungen an Unternehmen werden sich weiter dynamisch verändern, genauso wie der Technologiemarkt, der durch KI-getriebene Innovationen vorangetrieben wird. Software-Lösungen, die den Alltag der Personalabteilung weiter erleichtern, sind ein grundlegender Bestandteil der HR der Zukunft. Meiner Erfahrung nach helfen eine langfristige Partnerschaft und eine offene Kommunikation mit internen und externen Stakeholdern dabei, vorausschauend zu planen und das Unternehmen für einen nachhaltigen Erfolg zu positionieren.
Weitere Informationen unter:
www.ukg.com
Initiative von Red Hat: Leading with Containers
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte/von trendreportVon Petra Heinrich*

Laut der Studie „2021 State of Enterprise Open Source“ von Red Hat ist die Digitale Transformation der wichtigste Grund für Unternehmen in EMEA, Enterprise Open Source einzusetzen. Dies ist ein eindeutiger Beleg für Red Hat und seine Partner, dass Enterprise Open Source nicht mehr nur in der traditionellen Infrastruktur eine entscheidende Rolle spielt. Open Source wird inzwischen vielmehr auch aus strategischen Gründen von Unternehmen gewählt, um innovativ zu sein und neue Geschäftsmodelle und Anwendungen entwickeln zu können.
Herausforderungen bewältigen
Im Kontext von Open Source spielen Container und Kubernetes eine Schlüsselrolle in der modernen Applikationsentwicklung. Außerdem unterstützen sie neue Geschäftsmodelle rund um Edge, IoT und KI/ML. Es wird erwartet, dass die Container-Nutzung in den nächsten zwölf Monaten in EMEA um 74 Prozent steigen wird, wobei Unternehmen ihre Hybrid-Cloud-Strategien auf Basis von Container-Plattformtechnologien aufbauen.
Trotz alldem gibt es immer noch einige Hürden für eine noch schnellere Einführung von Open Source in Unternehmen. Speziell in EMEA sind Bedenken hinsichtlich des Supports, der Kompatibilität mit Altsystemen und des Mangels an Mitarbeitern mit entsprechendem Know-how vorhanden.
Um Partner bei der Überwindung dieser Hürden zu unterstützen, hat Red Hat die Initiative „Leading with Containers“ ins Leben gerufen. Sie soll sowohl einem Red Hat Advanced als auch Premier Business Partner in EMEA helfen, die Chance zu ergreifen, ein anerkannter Technologieführer und vertrauenswürdiger Berater für die Kunden im Bereich Container zu werden. Die Initiative unterstützt und beschleunigt das Engagement ausgewählter Partner von Red Hat, die Einführung von Red Hat OpenShift, der branchenführenden Kubernetes-Plattform für Unternehmen, voranzutreiben.
Leading with Containers
„Leading with Containers“ beinhaltet zwei Hauptkomponenten: eine Partnerspezialisierung namens Red Hat Container Platform Specialist und ein Sales Accelerator Program, das zusätzliche Vorteile für diese Zielgruppe bietet.
Durch die Teilnahme an der Initiative „Leading with Containers“ können Partner unter anderem von folgenden Vorteilen profitieren:
- Differenzierung als Marktführer im Container-Bereich durch ein neues exklusives Partner-Logo
- Umfassende Angebote zur Steigerung der Container-Plattform-Kompetenz
- Dedizierte Marketing-Inhalte und Sales-Tools zur Adressierung von Kunden
- Unterstützung der Partner im gesamten Sales-Prozess, einschließlich Consulting-Support zur Förderung der Container-Einführung
- Zugang zu neuen Incentives und exklusiven Einkaufskonditionen
Die richtigen Tools und Materialien
Eine wachsende Zahl von Partnern in EMEA verfügt bereits über dedizierte Vertriebs-, Technik- und Bereitstellungsexpertise sowie Zertifizierungen für Red Hat OpenShift, die sie als Red Hat Container Platform Specialist auszeichnen.
Red Hat hat zudem kürzlich sein Partnerprogramm für Lösungsanbieter in EMEA aktualisiert. Neu sind ein vereinfachtes Regelwerk und mehr Flexibilität bei der Auswahl aus einer breiten Palette von Middleware-Zertifizierungen für Partner, um den Status eines Red Hat Advanced oder Premier Business Partner zu erreichen. Außerdem sind Entwickler-Subskriptionen für alle Partner-Spezialisierungen zu einem vergünstigten Preis erhältlich.
„Die richtigen Tools und Materialien zu haben, ist der Schlüssel, wenn die Kunden uns nach der besten Container-Plattform fragen“, betont David Santafé, Infrastructure Services BL Director bei Inetum. „Die Initiative ‚Leading with Containers‘ von Red Hat hilft uns, näher an die Kunden heranzukommen und gleichzeitig die Art und Weise zu verbessern, wie wir unser Angebot in diesem schnell wachsenden Markt bereitstellen. Als bewährter Red Hat Premier Business Partner fühlen wir uns damit besser positioniert, um die Container-Evolution unserer Kunden zu unterstützen.“
Weitere Informationen zu „Leading with Containers“ finden sich unter https://www.redhat-partner.com/programs/partner-programs/overview/#cps
* Petra Heinrich ist Vice President EMEA Partners & Products bei Red Hat
Lieferkettenrisiken entgegenwirken
/in Allgemein, Digitalisierung, Future Store/von Martina Bartlett-MattisVier Maßnahmen, die Störungen in der Lieferkette vermeiden
Unvorhergesehene Lieferengpässe stellen Unternehmen unter akuten Handlungszwang. Das haben jüngste Ereignisse wie die Corona-Pandemie, die Blockade des Suezkanals oder der Brand in einem Werk des Autochip-Lieferanten Renesas einmal mehr verdeutlicht. Umso wichtiger ist es, Schwachstellen in komplexen Lieferketten frühzeitig zu identifizieren und entgegenzuwirken.
Source-to-Pay Anbieter JAGGAER sieht vier wichtige strategische Maßnahmen, die produzierende Unternehmen dabei unterstützen, die Transparenz der Beschaffungsprozesse zu erhöhen, Risiken zu minimieren und die gesamte Supply Chain besser in den Griff zu bekommen:
1) Lieferantenbasis für mehr Agilität diversifizieren
Unternehmen, die auf eine Single-Sourcing-Strategie setzen, sehen sich im Krisenfall mit einem hohen Ausfallrisiko konfrontiert. Durch die Erweiterung des Lieferantenstamms profitieren sie von einer höheren Sicherheit und müssen sich nicht länger auf die Lieferfähigkeit eines Hauptlieferanten verlassen. Der Source-to-Pay Anbieter rät, den Ausbau des Lieferantennetzwerks stets höher zu gewichten als potenzielle Kosteneinsparungen.

2) 360°-Sicht auf das Lieferantennetzwerk sicherstellen
Auch Unternehmen mit einem breiten Lieferantenportfolio sind beschaffungsrelevanten Risiken ausgesetzt, insbesondere wenn es an Transparenz mangelt. Denn ein vollständiger Überblick über die verschiedenen Zuliefererebenen ist Grundvoraussetzung für eine widerstandsfähige Lieferkette. So gilt es, die beauftragten Lieferanten regelmäßig nach definierten Kriterien sowie Leistungskennzahlen zu bewerten und zu vergleichen, unter anderem in Bezug auf Qualität, Risiko, Wert und Compliance-Vorgaben.
Durch den Einsatz einer fortschrittlichen Softwarelösung wie JAGGAER ONE, lassen sich die Intransparenz beseitigen und sämtliche Datenquellen zu einer 360°-Sicht zusammenführen. So ist es Unternehmen möglich, proaktiv auf potenzielle Risiken zu reagieren.
3) Ganzheitliches Lieferantenmanagement verfolgen
Die Resilienz von produzierenden Unternehmen steht und fällt mit der Stärke der Lieferantenbeziehungen. Denn enge Partnerschaften zahlen sich insbesondere in Krisenzeiten aus, da die Zulieferer bereitwillig bei der Navigation durch Störungen in der Lieferkette helfen und die Lösungsfindung unterstützen.
Je nach strategischer Bedeutung sind dabei neue Ansätze des Beziehungsmanagements erforderlich. Jedoch ist stets darauf zu achten, auch kleine Lieferanten, die strategisch wichtige Waren beschaffen, nicht zu vernachlässigen.
Schließlich kann ihr Ausfall weitreichende Konsequenzen nach sich ziehen, sofern die Versorgung nicht auf anderem Wege sichergestellt ist. Darüber hinaus ermöglicht ein ganzheitliches Lieferantenmanagement zum einen die Identifikation von leistungsschwachen Zulieferern, die es für eine Erhöhung der Widerstandsfähigkeit zu ersetzen gilt. Zum anderen werden Synergien und bessere Möglichkeiten der Zusammenarbeit erkennbar.
4) Supply Chain Audits für schnellere und tiefere Erkenntnisse um KI ergänzen
Die regelmäßige Durchführung von Audits unterstützt Unternehmen dabei, Schwachstellen in der Lieferkette aufzudecken, um geeignete strategische Entscheidungen und Maßnahmen zu deren Behebung zu forcieren. Durch Kombination von künstlicher Intelligenz und maschinellem Lernen mit der fachlichen Kompetenz des Teams lassen sich die Zeit- und Kosteneffizienz bei großen Datenmengen wesentlich erhöhen und die Ergebnisfindung beschleunigen.
Denn die neuen Technologien können relevante Informationen automatisch aggregieren, komplette Datensätze testen und auf diese Weise Anomalien wie auch Problemherde identifizieren. Durch Automatisierung dieser Prozesse lassen sich die freigesetzten personellen Kapazitäten zur Optimierung der zeitdringlichsten Risiken und Chancen einsetzen, die sich im Rahmen des Audits und anderen strategischen Bereichen wie dem Lieferantenmanagement, Category Management oder der Risikoanalyse ergeben haben.
Weiterführende Informationen
JAGGAER unterstützt Unternehmen bei alldem mit einer umfangreichen Beschaffungssoftware, die alle Kernprozesse des Einkaufs auf der Plattform JAGGAER ONE abbildet. Das umfasst das Spend Management, Category Management, Lieferantenmanagement, Sourcing, Vertragsmanagement, eProcurement, die Rechnungsabwicklung, das Supply Chain Management und Bestandsmanagement.
https://www.jaggaer.com/de/
Aufmacherbild/ Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay
Request to Pay wird eine Erfolgsgeschichte
/in Ausgaben, Freie Inhalte, Future Store/von Martina Bartlett-MattisAutor: Marc Bröking*
Mit dem neuen Verfahren Request to Pay können Unternehmen Rechnungen an Kunden schicken und gleichzeitig Zahlungsvorgänge initiieren. Es wird damit zu einer erheblichen Prozessbeschleunigung beitragen. Die flächendeckende Nutzung des neuen Standards für die Zahlungsanfrage und -aufforderung ist deshalb nur eine Frage der Zeit.
Zahlungspflichtige erhalten Rechnungen in der Regel per Post oder E-Mail, die sie per Überweisung begleichen. Eine Alternative hierzu bietet der neue vom EPC (European Payment Council) konzipierte Standard RTP (Request to Pay), dessen Regelwerk am 15. Juni 2021 in Kraft getreten ist. Das Verfahren ermöglicht Zahlungsempfängern, aktiv eine elektronische Zahlungsanfrage an einen Zahlungspflichtigen auszulösen.
Die RTP-Konzeption und -Einführung steht im Kontext der zunehmenden Bedeutung des mobilen Bezahlens, das im Mittelpunkt des aktuellen Kauf- und Zahlungsverhaltens steht. Kartensysteme waren dabei der Anfang, kontobasierte Lösungen sind der nächste Schritt. Und mit Request to Pay wird eine neue Autorisierungsmöglichkeit in der Zahlungsinfrastruktur für Konto-zu-Konto-Transaktionen geschaffen.
Ein Klick bis zur Überweisung
Der RTP-Prozess ist denkbar einfach: Der Zahlungsempfänger übermittelt an den Kunden eine elektronische Nachricht mit der Zahlungsaufforderung. Sobald der Zahlungspflichtige diese Nachricht erhält, kann er mit einem einzigen Klick auf dem Smartphone die Zahlungsanfrage akzeptieren – oder auch ablehnen. Anschließend muss er die Transaktion nur noch autorisieren, sodass seine Bank die Überweisung tätigen kann.
In einen typischen RTP-Prozess sind somit vier Akteure involviert: der Zahlungsempfänger und der Zahler sowie die Banken der beiden Parteien. Technisch betrachtet liegt die Herausforderung für die RTP-Umsetzung deshalb hauptsächlich in der Bereitstellung der nötigen Schnittstellen, um den Nachrichtenfluss unter den beteiligten vier Parteien sicherzustellen.
Sobald aber Banken und Zahlungsabwickler RTP als API (Application Programming Interface) anbieten, wird eine Infrastruktur vorhanden sein, die die Zahlungsabwicklung in Europa deutlich vereinfacht. Außerdem steht damit dann eine Alternative zu Kreditkarte, Lastschrift oder zu Bezahldiensten wie PayPal oder Apple Pay zur Verfügung.
Von der E-Rechnung bis zum mobilen Bezahlen
In der ersten Phase wird RTP vermutlich primär für das Auslösen von Überweisungen und bei E-Commerce-Transaktionen genutzt. Darüber hinaus bietet das Verfahren aber auch die Möglichkeit, den Zahlvorgang im stationären Handel um eine weitere Methode zu erweitern.
Große Versicherungen etwa versenden monatlich Tausende von Rechnungen per Post oder E-Mail. Werden die Rechnungen als RTP-Nachricht übermittelt, können Empfänger die Daten an ihrem Mobilgerät sofort prüfen und für die Zahlungsinitiierung übernehmen. Die Nutzer verwenden dabei ihr bekanntes Banken- Authentifizierungsverfahren. Analog kann eine Zahlungsabwicklung auch im E-Commerce erfolgen.
Auch im Retail bietet RTP eine bankgeprüfte Zahlungsalternative. Die RTP-Initiierung mit dem Mobilgerät eines Käufers kann über NFC oder einen QR-Code erfolgen. Die RTP-Nachricht wird mit digitalem Beleg von der Händlerbank dann an die Bank des Käufers weitergleitet, der den RTP genehmigt und die Überweisung einleitet.
Digitaler Bezahlkomfort
RTP bietet zahlreiche Vorteile. Das digitale Verfahren und Belegmanagement erfordern weniger Papier, verursachen geringere Kosten und reduzieren die Fehlerquote. RTP hilft sowohl Unternehmen als auch Kunden, Bezahlvorgänge schneller, komfortabler, übersichtlicher und sicherer abzuwickeln.
Die digitale Abbildung von Rechnungs- und Bezahlvorgängen führt zu einer deutlichen Prozessoptimierung. Rechnungsteller können mit RTP zum Beispiel ihr Forderungsmanagement optimieren, da ein Zahlungsstatus immer transparent vorliegt. Für Zahlungspflichtige entfällt die zeitaufwändige und fehleranfällige Aufgabe, Rechnungen manuell in ein ERP-System oder eine Banking-Applikation einzugeben.
Im E-Commerce können durch RTP kostenintensive Scoring- und Adressverifizierungen reduziert werden, die bei Kreditkarten- oder Lastschriftzahlungen anfallen. Im POS-Handel ist mittels RTP und SEPA Instant Credit Transfer ein alternatives Zahlungsmittel via Smartphone realisierbar, das unabhängig von internationalen Systemen die europäische Infrastruktur der Banken nutzt. Die Übertragung eines RTP mittels NFC ermöglicht dem Händler, eine sofortige Zahlungszusage anzufragen, und Kunden, ohne den Einsatz einer Karte eine Zahlung vom Konto durchzuführen.
>>>
Banken als Nutznießer
Gerade Finanzinstitute können vom RTP-Standard erheblich profitieren. Er bietet die Möglichkeit, eine neue Infrastruktur für ein europäisches Zahlungsverkehrssystem zu schaffen. Auf dieser Basis können Banken Services für Unternehmen entwickeln, um deren Cash-Management-Prozesse weiter zu vereinfachen. Die Erweiterung des Serviceangebotes trägt zudem auch zur Stärkung der Kundenbindung bei. Nicht zuletzt ist denkbar, dass Finanzinstitute künftig neben den Kartensystemen zum Zahlungsabwickler am POS (Point of Sale) und im Internet werden, um eigene Angebote für den Handel und seine Payment Service Provider zu entwickeln.
Die Vorteile, die das Verfahren RTP bietet, wird dazu führen, dass es mittelfristig ein wichtiger zusätzlicher Service im Zahlungskontext sein wird. Vor allem Unternehmen mit einem hohen Rechnungs- und Lastschriftanteil, der E-Commerce, Banken und Zahlungssystemanbieter werden bereits in naher Zukunft das Thema aufgreifen. Wie schnell sich der neue Standard durchsetzt, wird auch davon abhängen, welche Preismodelle gewählt werden. Ein Erfolgsgarant wäre, wenn das Bestellerprinzip weiterhin gelten würde und die Händler von attraktiveren Systemkosten profitieren können. Schließlich sind sie schon heute mit Kosten im Zusammenhang mit Zahlungsvorgängen konfrontiert, seien es Kreditkarten, Sofortüberweisungen oder das Giropay-Bezahlverfahren.
Weiterführende Informationen
CGI unterstützt Banken und Unternehmen bei der zielorientierten und gewinnbringenden RTP-Umsetzung. Das CGI-Angebot umfasst dabei Beratung, Konzeption und fachliches Projektmanagement. Gemeinsam mit dem Fintech Ordo hat CGI bereits ein umfassendes RTP-Projekt in England u.a. für einen großen Energieversorger umgesetzt. Dabei hat CGI eine RTP-Service-Plattform gebaut, die eine intelligente, einfache, kostengünstige und risikolose Zahlungsanforderung unterstützt. CGI plant ein europaweites Ausrollen dieser Lösung.
Marc Bröking steuert als Director Digital Payments die strategische und operative Entwicklung von Digital-Payment-Lösungen im Bereich Business Consulting von CGI. Marktveränderungen, die sich durch die Europäische Payment-Initiative (EPI), Request to Pay (RTP) oder durch Instant Payment ergeben, spielen für sein Service Engineering bei Banken, Zahlungsinstituten und Prozessoren eine essenzielle Rolle.
Bröking vertritt CGI im Arbeitskreis Zahlungsverkehr des EHI Retail Institute und arbeitet in der Multi-Stakeholder-Gruppe des European Payment Council (EPC) an der Entwicklung von SEPA Request to Pay (SRTP) in Brüssel mit.
No Code: Digital Enablement in Reinform
/in Digitalisierung, Pressemitteilungen/von Bernhard Haselbauer
Seit drei, vier Jahren setzen Unternehmen verstärkt auf No-Code- und Low-Code-Anwendungen. No Code bedeutet: Die Mitarbeiter in den Unternehmen entwickeln ihre Software-Lösungen unter Anleitung in kleinen Schritten selbst – ganz ohne Programmierkenntnisse. Low-Code-Lösungen hingegen erfordern zumindest Basiskenntnisse beim Programmieren. Fest steht: Beide Technologien sind nicht nur schnell einsetzbar, die Anwender machen sich auch unabhängig von überlasteten IT-Abteilungen. Das Dresdner Software-Unternehmen Stella Systemhaus verfolgt seinen No-Code-Ansatz bereits seit 15 Jahren – und legt mit der Software „G2“ eine inzwischen ausgereifte Technologie vor. Sie garantiert eine Zeiteinsparung von 90 Prozent gegenüber herkömmlicher Software, verspricht Geschäftsführer Dr. Gerd Staudinger im Interview.
No-Code- bzw. Low-Code-Anwendungen gehören zu den stärksten Trends in der Software-Entwicklung. Wie lässt sich das mit Zahlen untermauern?
Der US-amerikanische Marktforscher Gartner zum Beispiel prognostiziert für das laufende Jahr, dass der Umsatz mit diesen Technologien weltweit um 23 Prozent auf 13,8 Milliarden Dollar anwachsen wird. Bis 2025 sollen nach Schätzung dieser Analysten 70 Prozent aller neuen Anwendungen Now-Code- oder Low-Code-Lösungen sein. Dass der Trend in diese Richtung geht, hängt auch mit dem chronischen Mangel an Software-Spezialisten zusammen. 86000 offene Stellen hat der IT-Branchenverband Bitcom im vergangenen Jahr registriert.
Wie sind Sie auf die Idee gekommen, eine No-Code-Technologie zu entwickeln?
Bis 2006 haben wir mit herkömmlicher Technologie IT-Branchenlösungen für Unternehmen entwickelt. Wie der Name schon sagt, vereinen solche Lösungen stets die Anforderungen an eine ganze Branche. Sie müssen also an die speziellen Gegebenheiten im Unternehmen angepasst werden. Das Problem für uns als Software-Firma bestand immer wieder darin, dass die Anwender in den Betrieben unseren Entwicklern ihre Anforderungen nicht lückenlos benennen konnten. Hatten sie jedoch Angaben vergessen oder noch gar nicht bedacht, mussten unsere IT-Fachleute die Software später anpassen. Wenn man aber immer wieder etwas nachträglich ändert oder hinzufügt, wird die Software instabiler und letzten Endes auch immer schwieriger zu warten. Das bewog uns dazu, eine neue Software-Technologie zu entwickeln, die es den Anwendern ermöglicht, ihre Daten unabhängig von uns zu verwalten und weiterzuentwickeln – Schritt für Schritt und ohne aufeinander Rücksicht nehmen zu müssen.
Aber ist es für Laien auf diesem Gebiet nicht äußerst schwierig, Daten eigenständig zu verwalten und neue Lösungen zu entwickeln?
Nein. Dass die Anwender in den Unternehmen dazu durchaus in der Lage sind, haben wir an den komplizierten Excel-Lösungen gesehen, die viele Mitarbeiter nach und nach für sich entwickelt haben, weil die Branchenlösung in ihrem Unternehmen nicht alles abgedeckt hat. Wir als IT-Firma lassen die Anwender ja auch nicht allein. Sollten sie einmal nicht weiterkommen, bieten wir eine Beratung an. Taucht ein größeres Problem auf, geben unsere Software-Fachleute Anregungen in einem Workshop oder lösen das Problem selbst. Das kommt aber selten vor.
Anbieter von Low-Code-Technologien versprechen, dass sich die Anwender Apps für die unterschiedlichsten Einsatzzwecke nach dem Baukastenprinzip schnell selbst zusammensetzen könnten. Funktioniert Ihre Technologie ähnlich?
Bei Low-Code-Lösungen handelt es sich meist um kompakte, fest programmierte kleine Module. Anders als bei einer Branchenlösung holt man sich nur die Module, die man tatsächlich benötigt, und kann sie auch sofort testen. An den Modulen ändern lässt sich aber in der Regel nichts. Auch mit unserer Technologie „G2“ bekommt der Anbieter genau die IT-Lösung, die er braucht – nicht mehr und nicht weniger. Er kann die Kennziffern in den Modulen aber nach Bedarf selbst verändern oder neue einführen. Und unsere No-Code-Technologie kommt auch nicht an ihre Grenzen, wenn es kompliziert wird.
Wie muss ich mir „G2“ denn in der Praxis vorstellen?
„G2“ ist eine generische, branchenunabhängig einsetzbare Software. Sie funktioniert ähnlich wie das Tabellenkalkulationsprogramm Excel. Doch anders als bei Excel werden die Firmendaten vollständig und revisionssicher auf einem zentralen Datenbankserver erfasst und verwaltet. In elektronischen Formularen legen die Mitarbeiter selbst fest, welche Daten erfasst werden und welche Eigenschaften diese Daten haben sollen. Die Beziehungen zwischen diesen Daten werden wie bei Excel in Formeln hinterlegt. Das alles tun die Anwender, ohne programmieren zu müssen. Indem sie ihre Daten selbst verwalten, machen sie sich unabhängig von raren Software-Spezialisten. Mit „G2“ lassen sich überaus komplexe Lösungen „bauen“. Um mit der Software arbeiten zu können, reichen Excel-Kenntnisse aus.
Wer arbeitet mit Ihrer Technologie?
Sie wird zum Beispiel im Saarland eingesetzt. Die Ministerien dort nutzen die Technologie seit vielen Jahren mit Erfolg für die EU-Fördermittelverwaltung – und zwar landeseinheitlich. Dabei handelt es sich um eine äußerst komplizierte Angelegenheit mit einem Volumen von insgesamt mehr als 150 Millionen Euro pro Förderperiode. Was die Behördenmitarbeiter besonders schätzen, ist der geringe Aufwand, den sie betreiben müssen, wenn sich rechtliche Vorgaben der EU-Kommission ändern. Während andere Verwaltungen immer wieder externe Programmierer bemühen müssen, um die Software an die aktuellen Veränderungen der Rechtslage anzupassen, können die Mitarbeiter das mit einfachen Bordmitteln selbst tun und sind damit fix und flexibel. Mit „G2“ können Sie zum Beispiel aber auch ein Dokumenten-Management-System verwalten oder eine Projektverwaltung betreiben. Unsere Lösung ist für Unternehmen und öffentliche Verwaltungen aller Größen geeignet.
Worin besteht dann eigentlich die Aufgabe der Entwickler von Stella?
Wenn ein Unternehmen unsere Software einsetzen will, läuft das Prozedere folgendermaßen ab: Wir stellen den Mitarbeitern immer eine Einstiegslösung in mehreren Varianten zur Verfügung. Diese Formulare dienen als Mustervorlage. Daran können sich die Anwender orientieren und – das ist das Entscheidende – selbst weitere Formulare entwickeln, verändern und prüfen. Das dauert dann je nach Umfang nur wenige Tage. Entscheidend ist, dass die Nutzer mit „G2“ in der Lage sind, ihre Lösung binnen Minuten ohne Programmierkenntnisse an die aktuellen Erfordernisse anzupassen, zu verändern und zu erweitern – und zwar exakt so, wie sie sie brauchen. Die Anwender können klein mit einem Formular beginnen und ihre Lösung Schritt für Schritt erweitern. Sie müssen also nicht schon zu Beginn alle Anforderungen im Kopf haben. Dennoch entsteht am Ende eine ganzheitliche Lösung. „G2“ ermöglicht eine Zeiteinsparung von 90 Prozent gegenüber herkömmlicher Software.
Die selbstständige Erfassung und Verwaltung der Daten ist das eine. Können die Mitarbeiter auch in den Daten beliebig recherchieren und selbst festlegen, welche Angaben sie sehen wollen?
Ja, dieser Vorteil von G2 dürfte vor allem die Geschäftsführung interessieren. Sie erfährt häufig erst im Meeting von einem Problem im Unternehmen – und nicht schon vorher. Der Effekt ist, dass kein gedanklicher Vorlauf besteht und der Fall meist ad hoc gelöst werden muss. Noch schlimmer wird es, wenn die Leitung nur durch einen Zufall oder gar nichts von dem Problem mitbekommt. Damit das nicht passieren kann, benötigt die Geschäftsführung zu jeder Zeit Zugriff auf alle relevanten Firmenkennzahlen – und zwar schnell und einfach. Viele Unternehmen verwalten ihre Daten jedoch noch immer in diversen Insellösungen. Der Nachteil: Zwischen ihnen können weder Daten ausgetauscht werden noch lassen sich daraus komprimierte Informationen ziehen, die Aufschluss über die Entwicklung wichtiger Kennziffern geben. Genau hier setzt unsere Software „G2“ an. Sie verfügt über einen Datenkonverter und ist damit in der Lage, beliebige Daten aus den Insellösungen in kurzer Zeit zusammenzuführen, zu ergänzen und für die Leitung aufzubereiten.
Könnte das nicht auch mit einer Branchenlösung bewerkstelligt werden?
Nein. Die Schwierigkeit für die Geschäftsführung besteht darin, dass sie es mit immer wieder anderen Problemen zu tun hat. Deshalb muss sie auch ständig neue Indikatoren beobachten können. Branchenlösungen sind dafür nicht gemacht. Immer wenn sich die Kennzahlen ändern, müssten neue Algorithmen gefunden werden, die sie auswerten. Dafür sind Software-Spezialisten nötig. Das kostet Zeit und Geld. Mit „G2“ können die Mitarbeiter entsprechend ihrer Berechtigung beliebige Prüfkriterien selbst entwickeln und binnen Minuten an die aktuellen Gegebenheiten anpassen – exakt so, wie sie es benötigen. Alle Mitarbeiter nutzen die gleichen Formulare, in die sich nicht nur Texte, sondern vor allem auch getypte Daten wie Zahlen oder Ja-/Nein-Angaben eintragen lassen. Das ermöglicht, Soll- und Ist-Werte automatisch zu vergleichen, Abweichungen herauszufiltern, Tendenzen zu erkennen.
Weitere Informationen unter:
http://www.stella-systemhaus.de/
Das Auto wird zur Datenplattform
/in Creative Commons CC BY-ND, Digitalisierung, Expertenpanel, Freie Inhalte, Smart Citys/von Bernhard Haselbauer
Wir sprachen mit Jörg Zimmer, Vice President, EMEA Sales bei der BlackBerry Technology Solutions. Er ist spezialisiert auf QNX und BlackBerry IVY zum Thema „Automobil als Datenplattform“ und die Rolle der Datensicherheit in diesem Prozess.
Herr Zimmer, der jüngste Report von Frost & Sullivan konstatiert, dass im Bezug auf die Automobilindustrie nur einheitliche Datenplattformen auf Dauer Bestand haben werden. Welche Herausforderungen kommen da auf die Marktteilnehmer zu?
Es wird für die Marktteilnehmer auf jeden Fall darauf ankommen, Datenplattformen zu nutzen, die unabhängig von Fahrzeugherstellern, Zulieferern oder städtischen Infrastrukturen funktionieren. Damit das gelingt, ist ein gemeinsamer Standard für den Datenaustausch zwingend notwendig.
Das Auto muss an sich in einem größeren Kontext der Mobilität gesehen werden. Dementsprechend wird das Auto bald nur noch ein Baustein der Mobilität sein – und es wird wohl auch längst nicht mehr überall fahren dürfen. Wie wir uns und unsere Güter fortbewegen wird daher auch in Zukunft eine der Frage sein, die wir uns bei der Gestaltung unserer Städte stellen. Wie profitieren Ihre Kunden von Ihrer Technologie?
Konnektivität ist der Schlüssel, um die neuen Anforderungen zu erfüllen. Ein Beispiel: Wenn ich mit meinem Auto nicht direkt zu meinem Ziel fahren kann, möchte ich trotzdem eine möglichst reibungslose Reise erleben. Das ist aber nur mit intelligenter Konnektivität zwischen den verschiedenen Transportmitteln möglich. Wenn mein Auto meine Route kennt, kann es mir automatisch einen idealen Parkplatz anzeigen, damit ich dann auf ein alternatives Transportmittel umsteige und so mein endgültiges Ziel erreiche.
Konnektivität hat wie auch das autonome Fahren spezifische und hohe Anforderungen an die allgemeine und funktionale Sicherheit. Wir befassen uns bei BlackBerry mit der zugrundeliegenden Softwaretechnologie und erfüllen mit ihr die Anforderungen an Sicherheit, funktionaler Sicherheit und Konnektivität. Darüber hinaus ermöglichen wir mit der Datenplattform BlackBerry IVY neue Geschäftsmodelle, die zur Unterstützung der neuen Anforderungen im Bereich Mobilität erforderlich sind.

Nichts führt am Datenaustausch zwischen Plattformen, Herstellern und „Menschen“ vorbei. Wie lassen sich Letztere mitnehmen und auf welche Weise kann ihnen ein sicheres Umfeld garantiert werden, sodass sie diesen Trends folgen?
Entscheidend ist, jederzeit für die nötige Sicherheit aller Daten zu sorgen. Das schließt ihre jeweils einzelne Übertragung und Speicherung natürlich mit ein. BlackBerry hat für die Sicherung im Hinblick auf Automobile einen 7-Säulen-Plan erarbeitet. Dieser Plan beinhaltet:
- Absicherung der Lieferkette
- Verwendung vertrauenswürdiger Komponenten
- Isolierung von Steuergeräten
- Statusüberprüfungen
- Einsatz eines Rapid Incident Response Network
- Lebenszyklus-Management
- Schaffung und Aufrechterhaltung einer Safety-/Security-Kultur
Wo sehen Sie Ihre Rolle und die Ihrer Datenplattform in dieser Konstellation?
Wir sind ein wichtiger Akteur, denn wir stellen das grundlegende Betriebssystem für die Systeme bereit, die sich an Bord von Fahrzeugen befinden. Darüber hinaus bieten wir zusätzliche Software-Komponenten an, die neben grundlegenden Anforderungen wie Sicherheit, funktionale Sicherheit oder Updatefähigkeit der Software auch andere Herausforderungen wie intelligente Datenverarbeitung und Zugänglichkeit von Daten erfüllt. All das ist entscheidend, um sicherzustellen, dass Fahrzeuge die Mobilität und die Anforderungen der Nutzer unterstützen.
Weitere Informationen unter:
https://www.blackberry.com/us/en/products/automotive/blackberry-ivy
Kundenbesessenheit jetzt auch für den Mittelstand
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte, Globalisierung, New Work/von Bernhard HaselbauerCustomer First… Das sollte eigentlich das Motto eines jeden Unternehmens sein. Doch auch große Unternehmen tappen gerne mal in die „Kundenfalle“. Dank der digitalen Transformation und dem Educated Customer stehen aber heute alle Unternehmen quasi „automatisiert“ im internationalen Wettbewerb. Die Auswirkungen und Lösungswege kommentiert William van der Pijl, CEO des IT-Dienstleisters Macaw.
Man kann es drehen und wenden wie man will: Kunden haben die Kontrolle übernommen. Spätestens seit der Allgegenwart von sozialen Medien und mobilen Devices begutachten sie unerbittlich Produkte und Services, sezieren Preis und Leistung, diskutieren Kaufentscheidungen und bewerten in Echtzeit jede Regung eines Unternehmen. Die Globalisierung der Märkte hat die Dynamik weiter entfacht, sodass gerade internationale Marken heute mit den Meinungen gleich tausender ihrer Kunden konfrontiert sind – die nicht immer wohlwollend urteilen. Das 2013 von Marktforscher Forrester beschriebene „Age of the Customer„? Wir sind mittendrin. Seither nimmt die Macht der Kunden jeden Tag ein bisschen weiter zu und führt zur Disruption ganzer Industrien. Viele Grüße von den Fintechs und dem weltweiten E-Commerce-Oligopol.
Nicht allen Unternehmen fällt es leicht, mit diesem Paradigmenwechsel Schritt zu halten. Schließlich müssen sie nicht nur ihre IT an die Entwicklung anpassen – allein diese Maßnahme ähnelt einem technologischen und finanziellen Kraftakt. Genauso essenziell ist es, ein neues Mindset zu schaffen, das nicht nur Kundenzentriertheit, sondern gleich Kundenbesessenheit in den Mittelpunkt stellt. Die Gefahr der Kannibalisierung von neu und alt ist groß, das feine Austarieren der bisherigen, bequemen Exploitation und der anstehenden, ungewissen Exploration schwierig. Aber es hilft nichts: Wer nicht bereit ist, diese Schritte zu gehen, wird weder die nötige Customer Experience aufbauen, noch sich lange am Markt halten können.
Nicht erst seit der Pandemie wissen wir, dass Deutschland, seine Behörden und Organisationen wahrlich keine Vorreiter der Digitalisierung sind – und der viel zitierte Föderalismus ist nicht daran schuld. Immer wieder begegnet einem das Bonmot „Digitale Transformation beginnt mit dem TÜV“. Es verleitet zum Schmunzeln, beschreibt aber durchaus zutreffend die kulturell bedingte Zurückhaltung der Manager und ITler in diesem Land. Andere Länder sind viel weiter, weil deren Entscheider pragmatischer und mutiger sind – egal, ob sie B2C- oder B2B-Märkte bedienen.

Der deutsche Mittelstand, überdurchschnittlich geplagt durch knappe Budgets und fehlende Personalressourcen in der IT, hat noch öfter das Nachsehen. Gerade im Bereich der Digital Experience (DX), die angesichts der stärkeren Fokussierung auf den Kunden einen immer größeren Raum innerhalb der Digitalen Transformation einnimmt, halten sich kleine und mittlere Unternehmen erschreckend oft zurück. Kein Wunder: Konventionelle DX-Plattformen, die, um einen tatsächlichen Impact zu haben, aus einer Vielzahl von Lösungen wie CMS, E-Commerce, Asset Management, CRM oder MDM zusammengestellt sein sollten, sind manchmal behäbig, oft überdimensioniert und lassen sich nicht immer nahtlos in die bestehende IT-Landschaft integrieren. Damit sprengen sie meist die Budgetvorstellungen und den geplanten zeitlichen Aufwand der Unternehmen.
Anfang des Jahres gab es ein mittleres Beben im Bereich der DX-Managementlösungen. Sitecore, ohnehin einer der wichtigen Player, hat die gigantische Summe von 1,2 Milliarden US-Dollar an Land gezogen. Dieses Volumen entspricht vermutlich der größten, jemals getätigten Kapitalinvestition im Bereich der Marketingtechnologie. Kurz danach gab der Softwarehersteller die Übernahme gleich dreier Unternehmen bekannt: Boxever mit einer SaaS-basierten Customer Data Platform, Four51 mit einer E-Commerce-Lösung und der Marketing-Automation-Spezialist Moosend. Die Systeme der Player wird Sitecore in das eigene Angebot integrieren.
Das sind gute Nachrichten vor allem für den Mittelstand, denn der nächste logische Schritt von Sitecore wird der Aufbau einer umfassenden DX-Plattform sein, die alle Aspekte der personalisierten Digital Experience abdeckt, zahlreiche Tools und KI-Lösungen integriert, große Agilität erlaubt – und SaaS-basiert ist. Mit einem Pay-per-Use-Modell entfällt für viele mittlere und kleine Unternehmen die kaum tragbare Last, abenteuerliche IT-Budgets für die Implementierung einer eigenen Lösung investieren zu müssen. Anders formuliert wird die strategische Tragweite dieses Weges besser greifbar: Der Mittelstand kann mit überschaubaren Mitteln in das Zeitalter der Digitalisierung eintreten, gleichberechtigt am „Age of the Customer“ teilhaben und mit finanzstarken Großunternehmen mithalten. Diese Entwicklung hat tatsächlich eine wirtschaftspolitische Dimension. Wenn Sitecore von disruptiven Digitalmarketing-Lösungen spricht, ist es nicht übertrieben.
Natürlich geht so etwas nicht auf Knopfdruck: Auch eine SaaS-basierte DX-Plattform enthebt Unternehmen nicht von der Notwendigkeit, eine anstehende Digitalstrategie präzise mit ihrem bestehenden Business abzustimmen. Und auch die Integration mit existierenden Legacy-Systemen und anderen Datensilos ist keine triviale Angelegenheit. Wichtig ist deshalb die Entscheidung für die richtigen Tools, Plattformen, Architekturen und Dienstleister und die frühzeitige Identifizierung mit dem richtigen Mindset: Be customer obsessed!
Weitere Informationen unter:
www.macaw.net
Warum Unternehmen jetzt ihre Data-Residency-Strategie überdenken sollten
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte, Künstliche Intelligenz, Neue Gesellschaft, Sicherheit/von Bernhard HaselbauerDas Urteil im „Schrems II“-Rechtsstreit im letzten Jahr ist eines der bedeutendsten seit dem Inkrafttreten der DSGVO vor vier Jahren. Damit ist die Diskussion um den Speicherort, also dort, wo etwa bei Cloud-Lösungen die Daten wirklich liegen, aktueller denn je. Für Unternehmen ist es nämlich nicht immer leicht, aber immer wichtig, dies zu dokumentieren, wie Julian Totzek-Hallhuber, Senior Principal Solution Architect von Veracode, erläutert.

Seit der Entscheidung des EuGH in der Rechtssache „Schrems II“ ist das Thema Data Residency für deutsche bzw. europäische Unternehmen aktueller denn je. Wo werden (personenbezogene) Daten verarbeitet und gespeichert? Diese Frage stellt sich auch im Rahmen der Anwendungssicherheit, wenn für Scans und Testing Cloud-native SaaS-Lösungen zum Einsatz kommen – auch hier müssen DSGVO-Richtlinien und gesetzliche Compliance-Vorgaben eingehalten werden. Im folgenden möchte ich über die Bedeutung von Data Residency und die damit verbundenen Herausforderungen für Application Security Testing berichten.
Im Juli letzten Jahres befand der Europäische Gerichtshof die Verarbeitung und Speicherung personenbezogener Daten von EU-Bürgern in den USA als nicht angemessen. Das Urteil im „Schrems II“-Rechtsstreit ist eines der bedeutendsten seit dem Inkrafttreten der DSGVO vor vier Jahren, denn es befeuerte erneut die Diskussion um die Data Residency – also die Orte, an denen Daten gesammelt, gespeichert und verarbeitet werden. Laut DSGVO dürfen personenbezogene Daten von EU-Bürgern lediglich auf Servern innerhalb der EU-Grenzen bzw. in Ländern, deren Datenschutzniveau als angemessen eingestuft wird, transferiert werden. Dies gilt für jede Form personenbezogener Daten – zu den besonders streng regulierten Branchen zählen vor allem der Finanz- und Finanzdienstleistungssektor, Verwaltungen und Behörden sowie das Gesundheitswesen.
DSGVO und Data Residency: Eine Sache des Aufenthaltsortes
Dieses Urteil wirkt sich massiv auf den Datentransfer von Unternehmen auf der ganzen Welt aus: Außerhalb der EU befindliche Unternehmen wie eCommerce-Plattformen, die EU-Bürger zu ihren Kunden zählen, dürfen deren Daten nur unter den oben genannten Voraussetzungen speichern und verarbeiten. Gleiches gilt für EU-Unternehmen, die ihre Daten auf Servern außerhalb des Wirkungsbereichs der DSGVO lagern. Der Zugriff auf in der EU befindliche Netzwerke und Daten von außerhalb unterliegt ebenso diesen Anforderungen. Wenn sich der Betreiber eines EU-Unternehmens dazu entscheidet, den Standort seines Kundenservice außerhalb der Grenzen zu errichten, muss er sicherstellen, dass das vorgesehene Land dem geforderten Datenschutzniveau entspricht. Erst dann darf der Kundenservice mit personenbezogene Daten von EU-Bürgern arbeiten.
Softwareentwickler sind ebenfalls von diesen Regulierungsmaßnahmen betroffen: Sobald EU-Bürger zu ihrer Userschaft zählen, müssen auch ihre personenbezogenen Daten innerhalb der EU-Grenzen bleiben oder auf Servern in einem vertrauenswürdigen Land mit entsprechendem Sicherheitsniveau untergebracht werden. Doch inwiefern betrifft Data Residency die Gewährleistung der Anwendungssicherheit, wie eingangs angedeutet?
AppSec-Testing: Essentieller Bestandteil der Anwendungssicherheit und Datenschutzrisiko
Schwachstellen in der Anwendung können dazu führen, dass User-Daten ungewollt abfließen oder einem bösartigen Angriff Dritter zum Opfer fallen. Daher ist es unerlässlich, dass Entwicklerteams ihre Codes noch während der Entwicklungsphase oft und in regelmäßigen, kurzen Abständen testen, um Fehler früh genug erkennen und beheben zu können. Aus der aktuellen State of Software Security Studie von Veracode, für die innerhalb von zwölf Monaten mehr als 130.000 Applikationen auf Fehler hin gescannt wurden, geht jedoch hervor, dass die Mehrheit aller getesteten Programme (76 Prozent) mindestens eine Sicherheitsschwachstelle aufweisen. Die Hälfte dieser bleiben selbst sechs Monate nach Entdeckung noch offene Lücken. Unbehobene Schwachstellen häufen sich immer schneller an und produzieren mehr fehlerhafte Codes – eine nachträgliche Behebung über Patches ist nicht nur kostspielig, sondern beansprucht viel Zeit und die Nerven des – in vielen Fällen ohnehin schon unterbesetzten – Teams.
Entwicklerteams greifen im Rahmen von Analytics und Application Security Testings daher immer häufiger auf Cloud-native SaaS-Lösungen zurück, die einerseits skalierbarer als On-Prem-Lösungen und zudem kostengünstiger sind. Andererseits sind diese in der Lage die Scans automatisiert durchzuführen. Hier ist zu beachten, dass Cloud-Anwendungen zum Testen und Scannen von Anwendungen auch außerhalb der EU gehostet werden können und somit potentiell die Compliance gefährden.

Es ist Zeit, die Data-Residency-Strategie zu überdenken
Die Einführung der DSGVO und das „Schrems II“ Urteil machen deutlich, wie wichtig es für Unternehmen heute ist, ihre Data-Residency-Strategie zu überprüfen und an die Comliance-Anforderungen der EU anzupassen. Dafür muss zuerst einmal ermittelt werden, wie der derzeitige Status Quo in Sachen Data Residency ist: Wo werden meine Daten gehostet? Wohin sende ich sie zum Testen? Im nächsten Schritt geht es an die Wahl (bzw. Anpassung) der Data Residency: Der sicherste Weg ist es, dass sämtliche Instanzen der Anwendung, die personenbezogene Daten von EU-Bürgern enthalten, in Rechenzentren gehostet werden, die sich physisch in der EU befinden. Dies betrifft ebenfalls Kopien, die von Dritten zum Scannen und Testen verwendet werden. So verfügt Veracode beispielsweise über eine EU-Instanz in Deutschland, um sicherzustellen, dass Software auf Servern innerhalb der EU getestet und geliefert werden kann. AppSec-Tools sollten daher sämtliche Aspekte der Anwendungssicherheit abdecken – einschließlich einer Integration in die CI/CD-Pipeline – und gleichzeitig die DSGVO-Konformität vor Release überprüfen und sicherstellen können. Cloud-native Data Residency-as-a-Service-Lösungen sind für das Hosting von Daten auf länderspezifischen Servern spezialisiert.
Sollte ein Transfer auf internationale Server vorerst unumgänglich sein, sind die Empfehlungen des European Data Protection Boards (EDPB) zu beachten.
Fazit
Die Softwareentwicklung ist wie andere Branchen auch zur Einhaltung der DSGVO-Richtlinien und der Gewährleistung des Schutzes von Daten und Privatsphäre von EU-Bürgern verpflichtet. Das Testen der Anwendungssicherheit mithilfe Cloud-nativer AppSec-Lösungen kann demnach nur dann stattfinden, wenn sich die entsprechenden Compliance-Anforderungen einhalten lassen – vor allem dann, wenn die zu testenden Komponenten personenbezogene Daten beinhalten. DSGVO-konforme Anwendungssicherheit schützt nicht nur vor Bußgeldern. Kunden und Anwender können darauf vertrauen, dass ihre Daten in der Anwendung der Gesetzeslage entsprechend sicher sind.
Weitere Informationen unter:
https://www.veracode.com/
Podcasts: so klappt´s!
/in Digitalisierung, Freie Inhalte, Future Store, Neue Gesellschaft, Trend Monitor/von Martina Bartlett-MattisPodcast- und Audio-Experte Mateusz Sojka erläutert wichtige Schritte für erfolgreiche Podcasts und Podcasting.
Herr Sojka, wie können Unternehmen mit ihrem Podcast Reichweite generieren?
Mittlerweile hören mehr als 10 Millionen Deutsche regelmäßig Podcasts und der Markt wächst weiter. Podcast-Hörer werden also eine immer bedeutendere Zielgruppe für Unternehmen und sind noch dazu demografisch (und qualitativ) äußerst attraktiv: Sie sind interessiert Neues zu lernen, jünger, besser ausgebildet, besitzen ein höheres Einkommen als der Durchschnitt und sind toleranter gegenüber werblichen Inhalten. Studien zeigen, dass selbst Personen, die Werbung meiden, durch gebrandete Podcast-Inhalte erreicht werden können – um 22% mehr als bei Markennennung im Fernsehen zeigt z.B. die BBC Global News Studie.
Corporate-Podcasts können also Unternehmen dienen, um Online-Präsenz zu schaffen, Digitalisierung voranzutreiben und das Unternehmen als Experten zu positionieren. Innerhalb eines Podcasts treten Markennennungen besonders hervor und fördern bis zu 16% mehr Engagement. Dabei kann die Brand Awareness um 89% steigen und das Kaufverhalten beeinflussen.

„Ein gutes Ranking in Google oder YouTube ist für die Markenbekanntheit nachhaltiger als beispielsweise bezahlte Anzeigen.“
Mateusz Sojka, Geschäftsführer der Podigee GmbH
Erfahren Sie mehr über unseren Interviewpartner auf: https://www.mateuszsojka.com/
Unternehmen nutzen die Reichweite des Podcast-Markts, indem sie sich auf den großen Podcast-Plattformen wie Spotify, Apple Podcasts, Amazon Music, Google Podcasts, Deezer und Podimo platzieren, Cross-Promotion über Social Media nutzen und den Podcast bei der reichweitenstarken Medien-Plattform YouTube veröffentlichen. Beispielsweise besitzt der Corporate Podcast des internationalen Unternehmens Slack insgesamt ca. 2 Millionen Aufrufe.
Welche Kanäle eignen sich für die Distribution und gibt es hier Empfehlungen?
Wir empfehlen die Podcast Veröffentlichung breit aufzustellen und auf allen großen Podcast-Plattformen präsent zu sein. Spotify, Apple Podcasts, Amazon Music, Google Podcasts, Deezer und Podimo können durch einen Hoster einfach bespielt werden.
Sie erhöhen die Reichweite und machen es potenziellen Hörern leichter, den gewünschten Podcast zu finden.
YouTube gilt als zweitgrößte Suchmaschine und besitzt eine große Community. Für viele Podcasts ist die Video-Plattform ein guter Zugang, um neue Hörer zu erreichen.
Auf eine eigene Podcast Website sollte zudem nicht verzichtet werden. Denn um aus Hörern Kunden zu generieren, muss die Marke sichtbar mit dem Podcast verknüpft werden.
Welche Rolle spielen SEO-Maßnahmen?
Bei den explodierenden Podcast Zahlen, insbesondere seit Beginn der Pandemie, spielen SEO-Maßnahmen zunehmend eine wichtige Rolle. Es ist essenziell für Podcasts, dass ihre Zielgruppe sie über die Suche nach bestimmten Keywords findet, um nicht unterzugehen. Der schriftliche Inhalt eines Podcasts, wie Beschreibungen und Titel, können deshalb Suchmaschinen optimiert werden.
Es gilt: Je besser der Podcast des Unternehmens in Google oder anderen Suchmaschinen platziert ist, desto mehr Sichtbarkeit erhält die Marke. Ein gutes Ranking in Google oder YouTube ist für die Markenbekanntheit nachhaltiger als beispielsweise bezahlte Anzeigen.
Welche Möglichkeiten gibt es für Unternehmen ohne eigenen Podcast, an diesem Medium zu partizipieren?
Es gibt viele Möglichkeiten, indirekt am Wachstum des Podcast-Markts zu partizipieren. Wichtig ist, welche Ziele sich das jeweilige Unternehmen setzt und über welche Ressourcen es verfügt:
Eine Möglichkeit ist die Teilnahme an einer Podcast-Episode als Gast, Expertenwissen zu teilen, das Branding des Unternehmens zu unterstützen und sich zu vernetzen.
Für Unternehmen, die mehr investieren können, kann es attraktiv sein einen Podcast zu sponsern und das Podcast-Projekt finanziell oder mit Equipment unterstützen. Der Podcast wird so zum „Branded Entertainment“.
Eine weitere Möglichkeit ist es einzelne Episoden eines Podcasts zu sponsern oder Product-Placement zu betreiben.
Außerdem gibt es die klassische Art, Podcasts für Unternehmen zu nutzen: für Werbung. Durch die Zusammenarbeit mit Vermarktern und Podcast-spezifischen Werbeanbietern, können Unternehmen Ihre Werbung in Podcast-Kampagnen ausstrahlen lassen. Untersuchungen zeigen, dass sich Hörer besser an Podcast-Werbung erinnern als an die vergleichsweise deutlich teurere Radiowerbung und tolerieren sie eher. 69% der Hörer geben laut der Podrating-Studie von Goldmedia an gegenüber Werbung im Podcast kaum abgeneigt zu sein.
Für diese Möglichkeiten, in den Podcast-Bereich einzusteigen, ohne selbst zu podcasten, ist es wichtig, eine Strategie zu entwerfen, um die Reichweite bestmöglich zu nutzen und möglichst präzise die Zielgruppe anzusprechen.
Stichwort Monetarisierung – welche Lösungen bietet Podigee? Welche Möglichkeiten einen Podcast zu monetarisieren gibt es?
Je nach Ihren Bedürfnissen und Anforderungen bieten sich unterschiedliche Lösungen zur Monetarisierung eines Podcasts an. Jedes Unternehmen und jeder Kunde ist verschieden und bewegt sich in anderen Märkten und Branchen. Deshalb sind flexible Lösungsmodelle wichtig:
Eine davon ist die Integration von dynamischen Werbekampagnen: Ad Insertion. Es werden dynamische Podcast-Kampagnen gestartet, die sich nach Nutzerdaten wie Zeit und Ort richten.
Ein weiterer Punkt ist die Möglichkeit, private Podcasts zu erstellen, die nur für ein exklusives Publikum zugänglich sind sowie Steady oder Patreon einzubinden. Auf diesem Wege können Kunden von ihrer Podcasts-Community direkt unterstützt werden können.
Was könnten neben der Generierung von Reichweite weitere Gründe für Unternehmen sein, ins Podcasting einzusteigen?
Podcasting ist ein großartiges Instrument, um die Kunden- und Geschäftsbeziehungen zu stärken. Sowohl für den Markenaufbau, als auch für das Employer Branding, kann es eine starke Wirkung nach außen erzielen. Es zeigt ein modernes Verständnis von Kommunikation, wirkt authentisch und ist on demand abrufbar.
Für die interne Kommunikation bieten interne Podcasts Potenzial, das gerade in Zeiten von Corona wichtig ist. Remote im Homeoffice zu arbeiten ist alltäglicher denn je. Podcasts können helfen auch auf Distanz die Mitarbeiterbindung zu stärken. Gerade für Unternehmen, die multinational aufgestellt sind, ist das entscheidend. Interne Podcasts erfüllen dadurch viele Aspekte des New Work. Sie können sowohl für Schulungszwecke als auch für die Bereitstellung von geschäftsinternen Informationen, vertraulichen Inhalten oder persönlichen Geschichten genutzt werden, um Vertrauen und Loyalität innerhalb einer Organisation aufzubauen.
Aufmacherbild / Quelle / Lizenz
Photo by Mohammad Metri on Unsplash
Die Bitrate allein macht noch keinen zufriedenen Kunden
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte, Neue Gesellschaft/von Bernhard HaselbauerIm Angesicht rückläufiger Abonnentenzahlen von TV und Festnetztelefonie müssen die Anbieter ihre Internet-Dienste neu bündeln und ein breiteres Spektrum an personalisierten In-Home-Erlebnissen anbieten. Die Bitrate alleine ist nichts, was Kunden greifen können. Wie also Internet-Anbieter sich aufstellen sollten, darüber sprach die TREND-REPORT-Redaktion mit Gregor Stegen, Director Business Development Europe bei Plume.
Plume steigt in den deutschen Markt ein. Was können Sie Providern und Netzbetreibern bieten/womit wollen Sie ihre potenziellen Kunden in Deutschland überzeugen?
Plume ist der erste Anbieter einer Plattform für verschiedene Smarthome-Services, die auf WLAN basieren. Dabei unterscheiden wir uns mit unserer Vision von Services grundlegend von allen bisherigen Marktteilnehmern, denn unser Fokus liegt auf dem Kundenerlebnis. Für die Kunden sind Bandbreiten wie 100 MBit oder 1 GBit pro Sekunde nicht wirklich greifbar – aber ob der Video-Stream und die Zoom-Konferenz störungsfrei laufen, ist unmittelbar erlebbar. Dass das nicht immer der Fall ist, sorgt hierzulande immer noch viel zu häufig für Frust.
Und damit zum zweiten Teil Ihrer Frage: Wir adressieren nicht nur das Kundenerlebnis, sondern bieten den Providern darüber hinaus ganz neue Möglichkeiten des Kunden-Supports. Auch dies resultiert in einem besseren Kundenerlebnis mit höherer Kundenzufriedenheit.

Zurzeit überbieten sich die Anbieter hierzulande in den Bandbreiten. Aber eigentlich sind Services, Latenz und Qualität wichtiger – zumal kaum so viel konsumiert werden kann, dass die derzeitigen Angebote auch wirklich ausgeschöpft werden.
Worauf sollten die Telkos und Carrier in Zukunft achten? Auf welche Dienste sollten sie sich vorbereiten?
Völlig richtig, fast alle Service Provider versuchen ausschließlich über die theoretisch verfügbare Bandreite am jeweiligen Endpunkt zu verkaufen. Aber wenn ein Vertrag mit einer Übertragungsrate von maximal 1 GBit/s abgeschlossen wird, heißt das noch nicht, dass auch wirklich 1 GBit am Haus ankommen. Und es heißt noch lange nicht, dass Kunden im Haus auf jedem Gerät und in jedem Raum ein perfektes WLAN-Erlebnis haben. Ein Beispiel dazu:
Ich kann mir einen Sportwagen kaufen, doch wenn ich kein gutes Navigationssystem habe, komme ich trotzdem nicht so schnell wie möglich, sicher und mit viel Spaß beim Fahren ans Ziel. Stattdessen ärgere ich mich, dass etliche andere Verkehrsteilnehmer dieselbe Route gewählt haben und stehe im schlechtesten Fall im Stau. Plume ist das Navigationssystem für das Smarthome – und darüber hinaus noch viel mehr. Mit der Plume App hat der Kunde volle Transparenz (beispielsweise bezüglich der tatsächlich zur Verfügung stehenden Bandbreite) und kann sein Heimnetzwerk, auch ohne gleich ein Experte auf dem Gebiet sein zu müssen, einrichten und verwalten. Denn was am Ende des Tages deutlich mehr zählt, als nur Bandbreite, sind die Angebote darüber hinaus, die dem Endkunden das Leben einfacher machen.
Welches Spektrum an Services bietet Plume hier konkret? Und für welche Kunden?
Für Privatkunden bietet Plume mit der Lösung HomePass ein perfektes WLAN-Signal im ganzen Haushalt. Aber nicht nur das: Hinzu kommen umfassende Kontrollmöglichkeiten wie z.B., welche Inhalte auf welchem Gerät abrufbar sein sollen oder wie lange die Spielkonsole im Onlinemodus verfügbar sein soll, etc. Solche Funktionen sind insbesondere für Eltern sehr interessant.
Darüber hinaus helfen wir beim Schutz des Heimnetzwerks. Zwar verfügt eine wachsende Anzahl an Geräten über eine WLAN-Anbindung – die allermeisten sind jedoch nicht oder nur rudimentär geschützt. Plume schützt alle mit dem Heimnetzwerk verbundenen Geräte gleichermaßen gegen Spionageprogramme oder Hacker. Dass dieser Schutz dringend notwendig ist, zeigt sich beispielsweise daran, dass wir inzwischen auch vermehrt Angriffe Cyber-Krimineller auf private Haushalte beobachten. Unser Ansatz ist es, die Vorteile technischer Innovation zu nutzen und gleichzeitig die Privatsphäre zu schützen.
Ein weiterer Punkt ist die physische Sicherheit: Mit unserer Lösung lassen sich Bewegungen im Haushalt erkennen, ohne dass dafür Kameras erforderlich sind. Das ist hilfreich, um ungebetenen Besuch zu bemerken oder auch im Bereich der Altenpflege wichtig, um z.B. Stürze zu erfassen und umgehend Hilfe zu rufen.
Über die Services für private Haushalte hinaus hat Plume mit WorkPass ein umfassendes Angebot für kleine und mittelgroße Unternehmen wie z.B. Cafés, Friseure oder Arztpraxen.
Gerade für Unternehmen als „Endkunden“ sind einfach nutzbare Services eine hilfreiche Ergänzung, um das eigene Kerngeschäft zu verfolgen und durch mehr Wissen über die Kunden bessere Maßnahmen zur Kundenbindung ableiten zu können. Gleichzeitig spielt der Datenschutz eine wichtige Rolle. Wie setzen Sie als amerikanischer Anbieter diesen Spagat um?
Aus unserer Sicht ist das kein Spagat. Es ist Teil unseres Ansatzes. Denn Datenschutz ist für uns sehr wichtig. Plume hat seinen Hauptsitz zwar im Silicon Valley, allerdings haben wir diverse Büros und Mitarbeiter in verschiedenen europäischen Ländern, unter anderem in der Schweiz und in Deutschland wo strenge Datenschutz-Bestimmungen gelten. Wir haben folglich eine sehr hohe Sensibilität für Datenschutzthemen und haben unsere Strukturen und Prozesse komplett DSGVO-konform gestaltet. Das Datencenter für deutsche Kunden steht in Frankfurt und wir überprüfen unsere Prozesse fortlaufend mit lokalen Rechtsexperten.
Damit im Zusammenhang: Gibt es Unterschiede in den verschiedenen Regionen, in denen Sie tätig sind, im Angebot, z.B. aufgrund von Datenschutzvorschriften? Und falls ja, wie gehen Sie damit um?
Wir haben Daten Center in verschiedenen Regionen, aber die Angebote sind grundsätzlich gleich. Provider und auch Endkunden haben jedoch die Möglichkeit, bestimmte Produktelemente nicht zu nutzen oder nicht nutzbar zu machen. Die Datenschutzvorschriften überprüfen wir individuell je nach Land und stellen mit unseren Partnern deren Einhaltung sicher. Das ist für uns eher Philosophie als Herausforderung.
Wie sehen ihre weiteren Pläne für den deutschen Markt aus?
Nach Deutsche Glasfaser, Komro aus Rosenheim, R-Kom aus Regensburg und SWU TeleNet aus Ulm streben wir es an, noch viele weitere Partnerschaften in der ganzen Republik einzugehen. Dabei spielt die Größe des Providers für uns keine Rolle. Neben den klassischen Angeboten wird das Thema Homeoffice weiterhin eine zentrale Rolle für den Wirtschaftsstandort Deutschland spielen, und wir wollen mit Plume in möglichst vielen deutschen Haushalten einen Beitrag dazu leisten. So dass immer weniger Menschen sich um die Stabilität ihres WLANs sorgen müssen und damit Entschuldigungen in den Videokonferenzen à la „sorry, meine Verbindung ist schlecht“ bald der Vergangenheit angehören.
Weitere Informationen unter:
www.plume.com
„Personalern stehen effiziente Recruiting-Tools zur Verfügung“
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte, New Work/von Bernhard Haselbauer
Die TREND-REPORT-Redaktion sprach mit Sven Konzack, Geschäftsführer der Staffery GmbH, über Recruiting und die aktuelle Arbeitsmarktsituation, die immer noch von der Pandemie geprägt ist. Mit seinem Start-up verfolgt Sven Konzack einen Ansatz, um möglichst viel Automatisierung im Recruiting zu erreichen und auf diese Weise schneller und effizienter zu werden. Im Mittelpunkt steht dabei der Staffery Autopilot.
Herr Konzack, trotz der aktuellen wirtschaftlichen Herausforderungen wird am Arbeitsmarkt weiter um Fachkräfte gekämpft. Welchen Herausforderungen sehen sich Unternehmen und Organisationen bei der Personalsuche gegenüber?
Qualifiziertes Personal zu finden, ist in vielen Bereichen konstant schwierig – das galt selbst während der akuten Krise. Etwa in der Logistik oder in der gesamten Lebensmittelindustrie gab es zu jeder Zeit einen immensen Bedarf an Fachkräften. Die Gesundheitsbranche läuft praktisch außer Konkurrenz – dort war gerade während des vergangenen Jahres ein akuter Engpass zu verzeichnen, der bis heute anhält. Im Moment kämpfen zusätzlich Corona-Impfzentren um genügend Mitarbeiter. Jetzt, wo Gastronomie und Tourismus wieder hochfahren, werden darüber hinaus auch Arbeitskräfte wieder dringend benötigt, die während der vergangenen Monate nur „stille Reserve“ waren.
Wo liegen die Probleme für Unternehmen und Organisationen, wenn es darum geht, zügig und effizient Personal zu finden?
Teilweise gibt es schlichtweg einen Mangel an geeigneten Kräften. Dies betrifft insbesondere technische Berufe – oder natürlich den Healthcare-Sektor, etwa in Kliniken und Senioreneinrichtungen. Doch nicht immer sind die Hintergründe strukturell bedingt. So zeigt das Beispiel der Pflege: Zwar ist dort sicherlich eine Notwendigkeit festzustellen, Bezahlung und Arbeitszeiten zu verbessern. Doch auch unabhängig davon stehen durchaus schlagkräftige Hebel zur Verfügung, um qualifizierte Fachkräfte zu gewinnen. Allerdings machen die Träger von Kliniken und Einrichtungen von effizienten Recruiting-Maßnahmen nur selten optimal Gebrauch.
Welche Maßnahmen wären sinnvoll?
Wichtige Instrumente sind ein schlagkräftiges Personalmarketing und zielgenaue Bewerbungsverfahren. So wird bei der Suche nach geeigneten Fachkräften ein starkes Employer Branding immer wichtiger: Als entscheidender Erfolgsfaktor, um das Interesse potenzieller Kandidaten zu wecken – im sozialen Bereich ebenso wie in technischen Berufen oder im Food-Umfeld. Es gilt, sich als Arbeitgeber von anderen abzuheben. Dabei spielen die kulturellen Werte eine Rolle, für die die Firma oder die Organisation steht. Dabei geht es darum zu vermitteln, dass eine konstruktive Team-Atmosphäre oder ein guter Zusammenhalt unter den Mitarbeitern vorhanden sind. Schon eine überzeugende Karriere-Website kann hierbei einen Unterschied machen, ebenso wie gelungene Kommunikation über Social Media.
Genügen solche Faktoren für Personaler bereits, um Stellen zu besetzen?
Eine starke Arbeitgebermarke legt die Grundlage für erfolgreiches Recruiting – doch allein reicht dies meist nicht aus. So spielt bei der Kandidatensuche auch die Reichweite eine wichtige Rolle, die Stellenausschreibungen erzielen. Denn das beste Image hilft wenig, wenn potenzielle Kandidaten gar nichts von offenen Vakanzen erfahren. Zentrales Tool, um Stellen zügig zu besetzen, sind Jobbörsen und Jobsuchmaschinen.
Sind Jobbörsen oder Jobsuchmaschinen das geeignetere Tool?
Zunächst ist wichtig zu wissen, dass sich beide Plattformarten grundlegend unterscheiden: Während Unternehmen ihre Stellenangebote in einer Jobbörse händisch zu einem festen Anzeigenbudget inserieren, fällt dieser Schritt bei Jobsuchmaschinen vollständig weg. Dort werden die Suchergebnisse aus externen Quellen ‚aggregiert‘: Grundlage ist eine per Algorithmus automatisierte Suche nach Stellenanzeigen. Durchforstet werden vor allem Jobbörsen, Karriereseiten von Unternehmen sowie anderen Jobsuchmaschinen. Der Mechanismus unterliegt einem Cost-per-Click-Modell.

Welche Variante ist vorteilhafter?
Für eine Ausschreibung auf Jobbörsen ist das Budget von vornherein fix – das verschafft Planungssicherheit. Allerdings zahlen Arbeitgeber dafür den Preis mangelnder Flexibilität: So kann der HR Manager das Budget auf der Suchmaschine jederzeit anpassen – je nachdem, wo sich der Prozess gerade befindet. Werden mehr Bewerbungen benötigt, lässt sich das Volumen problemlos skalieren. Stehen dagegen bereits mehrere Kandidaten in der Warteschleife, kann schnell zurückgefahren werden – das spart unter dem Strich Geld. Für Jobsuchmaschinen spricht außerdem die hohe Zahl der Zugriffe – und damit die potenziell größere Zahl an Bewerbern. So verzeichnete beispielsweise der führende Robot „Indeed“ in Deutschland im April 2021 eine Zahl von 14,55 Besuchen – wohingegen etwa die große Stellenbörse Stepstone in diesem Zeitraum ‚nur‘ 8,8 Mio. Besuche verbuchen konnte.
Wie gelingt es Arbeitgebern, auf Jobsuchmaschinen die gewünschten Erfolge zu erzielen?
Personaler müssen nicht nur Anzeigen attraktiv gestalten, sondern bei Ausschreibungen auch eine Reihe von technischen Parametern berücksichtigen. Und genau hier beginnt häufig das Problem: Viele Human Resources Manager kennen sich mit der Technologie nicht vollständig aus. Kein Wunder – schließlich haben sie vielfältige andere Aufgaben und decken damit bereits ein großes Verantwortungsspektrum ab. Da kann keiner erwarten, dass sie sich noch mit den Raffinnessen von Jobportalen beschäftigen. Häufig wird das Recruiting dann für teures Geld an Agenturen outgesourct – und trotzdem gelingt es in vielen Fällen nicht, passende Bewerber zu finden.
Wie sorgen Arbeitgeber dennoch für Bewerbungen der ‚richtigen‘ Kandidaten? Und wie unterstützen Sie dabei?
Dass Personaler daran scheitern, die richtigen Kandidaten zu erreichen, liegt primär an den komplexen Mechanismen der Jobsuchmaschinen. Um die Chance auf passende Bewerbungen zu erhöhen, muss das Handling von Ausschreibungen vereinfacht werden. An dieser Stelle unterstützen datengetriebene Technologielösungen wie der Autopilot von Staffery. Sie schaffen ohne viel manuelles Zutun eine höhere Reichweite. Das Gute daran ist, dass Recruiterinnen und Recruiter das Latein der Sucharithmetik dabei nicht verstanden haben müssen. Trotzdem wird es ihnen ermöglicht, die Zahl der eingehenden Bewerbungen passender Kandidaten signifikant zu erhöhen – und zwar ohne, dass daraus Mehrkosten resultieren. Gleichzeitig wird ihnen zu einem vollständigen Überblick über die via Suchmaschinen zu besetzenden Stellen, die eingegangenen Bewerbungen und die eingesetzten Budgets verholfen.
Weitere Informationen unter:
https://www.staffery.com
Quantencomputer ‚Made in Germany‘
/in Digitalisierung, Expertenpanel, Künstliche Intelligenz, Trend Monitor, Wissenskultur/von Martina Bartlett-MattisGegen die Zeit: Die Weichen für den Quantencomputer ‚Made in Germany‘ werden jetzt gestellt
Das Wettrennen um die Vormachtstellung in der Quantenwelt ist bereits in vollem Gange. Zahlreiche Technologiegiganten vor allem aus den USA und China arbeiten seit längerer Zeit mit Hochdruck daran, dem Quantencomputing zum Durchbruch zu verhelfen. Das beweisen eindrucksvoll deren Investitionen in Grundlagenforschung. Allein Google steckte, wie ein Blick in die letzten Bilanzen zeigt, im vergangenen Jahr gut 27,5 Milliarden Dollar in die Forschung rund um Quantencomputer, aber auch Bereiche wie Künstliche Intelligenz, Bio-Informatik oder Robotik.
Zählt man allein die Ausgaben der amerikanischen Tech-Riesen zusammen, geben sie – über den Daumen gerechnet – so viel Geld für wegweisende Technologien aus wie alle deutschen Unternehmen und Universitäten zusammen. Und es ist auch ein US-Konzern, der jetzt den ersten kommerziellen Quantencomputer nach Europa gebracht hat. In der Nähe von Stuttgart wurde in Zusammenarbeit mit der Münchner Fraunhofer-Gesellschaft ein ultraschneller Rechner der Firma IBM eingeweiht. Der „Quantum System One“ soll dafür sorgen, dass Deutschland bei der nächsten industriellen Revolution an vorderster Front mitspielt und die hiesige Wirtschaft im Wettstreit mit China und den USA bestehen kann.
„Wir müssen Menschen zudem befähigen, mit Quantentechnologien umzugehen – Wissen darf kein Geheimwissen bleiben, sondern muss transparent und für alle zugänglich sein.“
Der Hype um die Technologie ist verständlich: Quantencomputer nutzen ein ganz anderes Rechenparadigma und erlauben damit Sachen, die wir uns heute noch gar nicht vorstellen können. Während bei herkömmlichen Computern Bits als kleinste elektronische Recheneinheit zum Einsatz kommen, arbeiten Quantencomputer mit Quantenbits – kurz Qubits. Diese sprengen die Möglichkeiten der gebräuchlichen Binärcodes aus Nullen und Einsen, weil sie beliebig viele Überlagerungszustände einnehmen können.
Dieses Prinzip, Superposition genannt, ist mit nichts aus unserer alltäglichen Welt vergleichbar und lässt sich am besten anhand eines Bildes erklären: Stellt man sich ein Qubit wie eine Kugel vor, an deren Nordpol die Eins und deren Südpol die Null steht, kann es – im Gegensatz zu einem Bit bei einem klassischen Rechner – alle Zwischenzustände, die sich auf der Kugeloberfläche befinden, annehmen.
Damit steigt die Performance eines Quantencomputers exponentiell, besonders für Simulationen wären solche Leistungen perfekt geeignet. Auf der Suche nach neuen Medikamenten könnten beispielsweise Forscher, anstatt die Zusammensetzung aufwendig im Labor zu testen, molekulare Strukturen nachbilden und so die Zusammensetzung von Wirkstoffen berechnen.
Im Ergebnis könnte die Pharmaindustrie Medikamente mit besserer Wirkung entwickeln, und zwar um ein Vielfaches günstiger und schneller. Quantencomputer würden aber auch völlig neue Chancen für das Klima und die Umwelt eröffnen – indem sich Wetterveränderungen genauestens messen und vorherberechnen lassen, neue Produkte auf Basis komplett nachhaltiger Materialen entwickelt sowie Mobilitätskonzepte inklusive autonomen Fahren optimiert werden und damit der Verkehrskollaps in den Städten der Vergangenheit angehört.
Stand heute
Stand heute lässt sich nur erahnen, was möglich sein wird – denn der Quantencomputer, der das alles kann, steht noch lange nicht vor der Tür. Mit allen bisherigen Systemen sind erst kleine Rechnungen gemacht worden, zudem müssen die fragilen Quanten gegen sämtliche Umwelteinflüsse abgeschirmt werden: Die Chips benötigen mit etwa minus 273 Grad eine Temperatur niedriger als im All, arbeiten nur unter Vakuumbedingen und müssen elektromagnetisch abgeschirmt sein – ansonsten sinken die Chancen auf brauchbare Berechnungen.
Allerdings war, als die heutigen Computer am Anfang standen, genauso fraglich, ob und welche Grenzen sie überwinden werden. Der erste funktionsfähige Digitalrechner weltweit, der vor 80 Jahren von Konrad Zuse vorgestellt wurde, hat nicht weniger als den Grundstein für eine Vielzahl von technischen Hilfsmitteln gelegt, die wir heute ganz selbstverständlich einsetzen. Bis ein vollständig Fehler-korrigierter, programmierbarer Quantenrechner stabil in Unternehmen eingesetzt werden kann, wird es zwar noch eine ganze Weile dauern. Die Weichen dafür werden aber jetzt gestellt und Deutschland darf keinesfalls den Fehler begehen, diese Entwicklung zu verschlafen.
Ein erster Schritt ist mit dem Förderpaket der Bundesregierung erfolgt. Die Politik hat im Sommer 2020 zwei Milliarden Euro bereitgestellt, für die vor Kurzem grünes Licht gegeben wurde. Das heißt aber auch: Ein ganzes Jahr lang wurde darüber debattiert, ob und wie Wissenschaft und Wirtschaft bei den Quantentechnologien kooperieren sollen. So viel wertvolle Zeit dürfen wir nicht noch einmal verlieren.
Wir müssen jetzt die verstreuten Kompetenzen in unserem Land vernetzen und die Wirtschaft von Anfang an integrieren. Strukturelle Maßnahmen müssen den Aufbau von Hubs, also Verbünde von unterschiedlichen Akteuren, einschließen. In diese Richtung geht die jüngste Allianz von zehn großen Industrieunternehmen, die die Erforschung industrieller Anwendungen vorantreiben wollen. Denn wir brauchen Geschäftsmodelle, die am Ende für Wertschöpfung sorgen, und damit ein Ökosystem mit potenziellen Anwendern.
Wir müssen Menschen zudem befähigen, mit Quantentechnologien umzugehen – Wissen darf kein Geheimwissen bleiben, sondern muss transparent und für alle zugänglich sein. Wenn alle Faktoren ineinandergreifen, hat der Standort Deutschland im internationalen Wettbewerb eine echte Chance.
Das Wettrennen um einen universell einsetzbaren Quantencomputer, der zahlreiche der heutigen gesellschaftlichen Herausforderungen lösen kann, hat gerade begonnen. Wir müssen jetzt aufpassen, uns bei diesem Schritt hin zu einer völlig neuen Generation von Technologie nicht die exzellente Grundlagenarbeit der letzten Jahre in der Umsetzung wegnehmen zu lassen.
Warum Digitale Transformation neue Rollen und Gesichter braucht
/in Creative Commons CC BY-ND, Digitalisierung, Freie Inhalte, Neue Gesellschaft/von Bernhard Haselbauervon Nina Kohl* und Anna-Maria Sperber**
Es ist unumstritten, dass die Digitale Transformation ein strategisches Thema höchster Priorität ist und ganz oben auf der CEO-Agenda steht. Die Corona-Pandemie hat diesen Stellenwert nochmals unterstrichen und den größten und schnellsten digitalen Wandel bewirkt, den die Wirtschaft je erlebt hat. Dabei nähern sich die meisten Unternehmen der Digitalen Transformation auf die naheliegendste Weise an, nämlich auf Basis der Technologie. IT ist zweifellos ein wesentlicher Treiber für die Digitale Transformation und ermöglicht innovative Lösungen oder Geschäftsmodelle. Trotz aller Begeisterung für die Technologie wird der entscheidende Aspekt „Transformation“ ungerechtfertigter Weise zu oft vernachlässigt. Dabei sollte der Fokus klar auf der Transformation liegen, denn den Unterschied für den Erfolg machen Mitarbeiterinnen und Mitarbeiter in neuen Rollen, mit anderen Mindset und kritischen Skills.
Neue Rollen für die Digitale Transformation
Um die Aufgaben der Digitalen Transformation zu bewältigen, zeichnen sich in Unternehmen neue Rollen und Positionen ab. Die bekanntesten sind der Chief Digital Officer (CDO), Change Agents, Innovation Think Tanks, Data-Analysten oder Prozessmanager. Es sind diese Personen, die die mit der Digitalisierung einhergehenden Anpassungen der vorhandenen Strategie, Struktur, Kultur und des gesamten Organisations-Designs umsetzen. Darüber hinaus beherrschen sie die Methoden, um agil und kundenzentriert zu arbeiten und damit neue Ideen in marktfähige Ergebnisse umzusetzen. Unabhängig davon, wie sich diese neuen Rollen im Kontext der Digitalen Transformation nun nennen, beschäftigt Unternehmen vor allem die folgende Frage: Wie soll das Profil dieser Mitarbeiter aussehen und welche konkreten erfolgsbringenden Fähigkeiten bringen diese mit?
Kompetenzverschiebung
Dieser Fragestellung ist auch die Standardisierungsorganisation LEADing Practice in ihrer aktuellen Outperformer Study von 2021 nachgegangen. Dabei zeichnet sich bei Personen, die im Bereich der Digitalen Transformation arbeiten, ein deutlicher Kompetenzwechsel ab:

Die Ergebnisse bestätigen, dass bei den Kompetenzen der Arbeitnehmer und Arbeitnehmerinnen eine klare Verschiebung der Prioritäten stattgefunden hat: Einige Attribute sind heute stärker gefragt, zugleich stehen auch ganz neue Eigenschaften auf der Agenda.
Unternehmenskultur und Mitarbeiterkompetenzen als Erfolgsfaktoren der Digitalen Transformation
Der steigende Bedarf nach neuen Rollen und Fähigkeiten von Mitarbeiterinnen und Mitarbeitern verdeutlicht, dass die Digitale Transformation mehr braucht als das notwendige Digital-Know-how. Das Wissen über aktuelle Technologietrends und vorhandene Digitalisierungsstrategien allein führt nicht zu einer erfolgreichen Transformation. Vielmehr liegen die Erfolgsfaktoren in den Kompetenzen und Fähigkeiten der Mitarbeiter, die gebraucht werden, um einen tatsächlichen Wandel zu bewirken. Denn die Digitale Transformation ist zuallererst ein kultureller Wandel. Eine offene Unternehmenskultur sowie ein innovatives Mindset tragen maßgeblich zum Erfolg der Digitalen Transformation bei. Bekannte Gesichter einer solchen innovativen Unternehmenskultur sind Thought Leader: Sie denken Dinge neu und haben den Mut zur Veränderung. Sie bestechen nicht nur mit Fachkompetenz, sondern vor allem durch Zukunftsvisionen – sie sind die Vordenker des Unternehmens und bereiten den Weg der Digitalisierung.
Darüber hinaus sind Innovationen ein wesentlicher Eckpfeiler, um ein Unternehmen nachhaltig digital zu entwickeln. Wer dabei nun ausschließlich an Automatisierung oder Digitalisierung von bestehenden analogen Prozessen denkt, der hat deutlich zu kurz gedacht. Neben inkrementellen Innovationen braucht es evolutionäre oder sogar radikale Innovationen – und damit letztendlich Personen, die über Kreativität und Innovationskraft verfügen. Diese immateriellen Assets sind ausschlaggebend, um nötige Veränderungen zu erkennen und neue Möglichkeiten für Produkte, Geschäftsmodelle oder Prozesse zu entwickeln. Anschließend müssen diese Ideen von der Chance zur Realität geführt werden. Innovationskraft bedeutet hier vor allem Umsetzungskompetenz. Das erfordert zum einen emotionale Intelligenz und Koordination mit der Kernorganisation, um gegebenenfalls vorhandene Denkblockaden oder eingerostete Prozesse zu überwinden. Zum anderen sind agile Methoden kritische Voraussetzung. Zum Methodenkoffer der neuen Rollen in der Digitalen Transformation gehören dabei unter anderem Scrum, Kanban, Open Innovation und Design Thinking. Dahinter steht die Erkenntnis, dass traditionelle Management-Methoden und Wasserfallmodelle in der schnelllebigen digitalen Welt an ihre Grenzen stoßen. Während eines Projektes können sich Anforderungen ändern oder es treten unerwartete Herausforderungen auf. Die Arbeit in Sprints und das Konzept, kleine Teile des Projekts iterativ umzusetzen – statt zu Beginn das gesamte Projekt im Detail zu planen und dann gemäß diesem Plan starr abzuarbeiten –, haben sich mittlerweile nicht nur in der Software-Entwicklung bewährt. Methodenstarke Mitarbeiterinnen und Mitarbeiter können den Grundgedanken von Geschwindigkeit, Lernen durch Ausprobieren und Flexibilität aufgrund ihrer Erfahrung weiterentwickeln und auch auf andere Bereiche, wie beispielsweise der Erstellung von Strategien, transferieren.
Fazit
Die Digitale Transformation braucht neue Rollen und Gesichter, denn der Erfolg liegt buchstäblich in den Händen dieser Mitarbeiter. Eine erfolgreiche Transformation braucht Vordenker und diverse Teams, die neben dem Wissen über neue Technologien auch ein innovatives Mindset und das notwendige methodische Know-how mitbringen. Unternehmen sollten also nicht nur in die neusten digitalen Technologien investieren, sondern ihren Fokus insbesondere auf die Weiterbildung und Akquise der richtigen Skills setzen. Das ist der Schlüssel zum Erfolg.
Über die Autoren:

*Nina Kohl hat einen Masterabschluss in International Business and Marketing. Vor ihrem Quereinstieg in die IT hat sie Strategie- und Digitalisierungsprojekte im Tourismus- und Handelsumfeld umgesetzt. Bei Computacenter Deutschland steuert Nina nun als Program Manager die Weiterentwicklung des Professional Services Portfolios. Im letzten Jahr verantwortete sie zudem die Transformation der größten Trainingskonferenz bei Computacenter mit 1.500 Teilnehmer*innen in ein virtuelles Eventformat.
Kontakt: Nina.Kohl@computacenter.com; https://www.linkedin.com/in/kohlnina/; Tel: +49 173 2638249

**Anna-Maria Sperber hat einen Masterabschluss in Innovationsmanagement und Internationales Management. Gemäß formeller Rolle ist Anna-Maria als Project Manager bei Computacenter Deutschland tätig. In dieser Position leitet sie IT-Infrastruktur-Projekte und strategische Beratungsprojekte für die Digitale Transformation. Zu ihren Schwerpunkten zählen agile und hybride Projektmanagementmethoden sowie Management of Change in Organisationen. Im letzten Jahr hat sie den Aufbau einer neuen Unit zum Thema Enterprise Standards for Digital Transformation bei Computacenter begleitet.
Kontakt: Anna-Maria.Sperber@computacenter.com; www.linkedin.com/in/anna-maria-sperber;
Tel: +49 173 266 2760
Weitere Informationen unter:
www.computacenter.com
Drei Strategien für mehr Kunden im Handel
/in Freie Inhalte, Future Store, Trend Monitor/von Martina Bartlett-MattisDie Corona-Pandemie hat den Strukturwandel im Handel kräftig vorangetrieben. Um etwa sieben bis acht Jahre, so eine Analyse des Instituts für Handelsforschung (IFH), die das Phänomen „Coronaturbo“ nennt. Für Händler bedeutet dies, dass sie noch schneller auf das geänderte Konsumverhalten und auf Kundenbedürfnisse reagieren müssen. Benjamin Thym, CEO des Shopper Marketing Networks Offerista Group, beleuchtet drei Strategien, die Händler für sich prüfen sollten.
Omnichannel und digitales Handelsmarketing werden wichtiger denn je.
Während des Lockdowns haben die Konsumenten gemerkt, welche Vorteile der stationäre Handel bietet. Und genau deshalb sind die Unkenrufe, die die Innenstädte für tot erklären, nicht gerechtfertigt. Auch in Zukunft wird der stationäre Handel nicht verschwinden. Vier von fünf deutschen Konsumenten (81 Prozent) haben es laut einer Studie von Offerista während des Lockdowns vermisst, vor Ort im Laden einzukaufen – in erster Linie, weil ihnen das Anschauen und Anprobieren von Produkten fehlt. Das ist die große Chance der Ladengeschäfte. Ein haptisches Erlebnis kann Online nicht bieten. Allerdings müssen Ladengeschäfte innovativer, serviceorientierter und digitaler werden, um Kunden anzuziehen und zu halten.
„Durch die Corona-Krise wird der Wunsch nach besonderen Einkaufserlebnissen, die Experience Economy,
langfristig an Bedeutung gewinnen. Jeder Ausflug zum Shopping wird zu einer bewussten Entscheidung der Konsumenten.“
Eine Verzahnung von Online- und Offline-Angeboten wird künftig noch wichtiger. Der Handel testet bereits unterschiedlichste Konzepte aus Click & Meet, Home Delivery, online bezahlen mit NFC oder Payback Pay sowie Self-Check-out-Kassen wie bei Amazon GO. In der Corona-Krise hat sich der Handel zeitweise mit Click & Collect über Wasser gehalten. Dieser Service ist bei Kunden beliebt geworden. Mittlerweile ist Click & Collect mit 88 Prozent der am häufigsten kommunizierte Omnichannel-Service von Händlern, gefolgt von Verfügbarkeitsanzeigen für Warenbestände in Ladengeschäften (53 Prozent). Einen Instore-Return, also die Rückgabe online gekaufter Waren in Ladengeschäften, ermöglichen knapp 44 Prozent der Händler. Das zeigt die Studie „Connected Retail 2021“ des Handelsinstituts EHI, das die 1.000 umsatzstärksten Online-Shops in Deutschland analysierte.
Der Online-Anteil am Handel wird früher ansteigen als gedacht, so das IFH Köln. Die Experten sprachen in ihren Vor-Corona-Prognosen von bis zu 22 Prozent bis 2030. Nun wird diese Einschätzung insgesamt bis zu acht Jahre früher eintreten. Das bedeutet nicht unbedingt, dass alle Händler künftig Online-Shops brauchen, allerdings sollten sie im Netz mit ihrer Marke und ihren Angeboten präsent sein – mit einer Website, über Social Media, Bewertungen oder mithilfe digitaler Werbung. Durchschnittlich brauchen Konsumierende nämlich sechs Kontaktpunkte bis zum Kauf (Studie „5 Jahre Wavemaker Momentum“, 2019).
Auch die Angebotskommunikation, die im Handel traditionell über gedruckte Werbeprospekte stattfand, wird digitaler. Nur noch gut 30 Prozent des Bruttowerbeaufkommens fließen in die klassischen Handelsmedien, wie Prospekte, Handzettel, Flyer oder Anzeigen, wie der „EHI Marketingmonitor 2021-2024“ zeigt. Gut 34 Prozent der Investitionen gehen stattdessen in die digitale Handelskommunikation, zum Beispiel in SEO, Social Media oder digitale Prospekt- oder Gutscheinportale. Bis 2024 sollen digitale Medien um weitere 4 Prozentpunkte in ihrer Bedeutung zulegen, während klassische Handelsmedien 7 Prozentpunkte verlieren werden.
Gerade in Corona-Zeiten sind die Vorteile des digitalen Angebotskommunikation noch einmal klar geworden. Sie ist nicht nur weniger aufwändig und günstiger, sondern auch in Echtzeit möglich. Spontane Änderungen zur Öffnung von Filialen oder zum Sortiment (wir erinnern uns an das kurzfristige Verkaufsverbot von Feuerwerk 2020) sind über digitale Wege kein Problem. Ein weiterer Pluspunkt ist die Erfolgsmessung, die Händlern die Kontrolle über ihr Marketingbudget gibt, indem das Kosten-Nutzen-Verhältnis klar aufgezeigt wird. Bei Printmaßnahmen ist dies deutlich schwerer. Durch die digitale Kommunikation von Angeboten hat der Händler auch eine bessere Möglichkeit, die Kunden entweder in die Filiale (Drive-to-Store-Kampagnen) oder in den Online-Shop zu schicken.
Mehr Chancen durch Kooperationen und Marktplätze

(Bildnachweis: Offerista Group GmbH)
Händler sollten dort sichtbar sein und ihre Produkte anbieten, wo sich ihre Kunden aufhalten. Denn sind sie es nicht, profitieren andere. Eine mögliche Strategie ist also, nicht nur auf eigene Verkaufsplattformen zu setzen, sondern parallel auch auf Marktplätzen, wie Amazon, Waren anzubieten und Retail-Media-Angebote zu nutzen.
2021 hat beispielsweise das Modeunternehmen C&A Aufsehen damit erregt, nun auch über Zalando zu verkaufen, um von der Reichweite des bekannten Online-Modehändlers zu profitieren. Die Auswahl eines Kooperationspartners sollte natürlich immer gut bedacht sein, damit sie nicht zu einer Schwächung oder Schädigung der eigenen Marke führt.
Unabhängig davon, ob Händler selbst Filialen haben oder nur im Online-Handel unterwegs sind, bieten Kooperationen mit anderen Marken viele Vorteile. Immer mehr Händler werden zukünftig ihre Kundenkontakte monetarisieren. Intersport beispielsweise bietet Werbeflächen in seinen Online-Kanälen und auf den Flächen der Händler vor Ort zur Vermarktung an – auch für branchenfremde Unternehmen. Dies ist ein guter Omnichannel-Ansatz, um mehr Sichtbarkeit, Reichweite und neue Zielgruppen zu erreichen. Auch eine regionale oder internationale Ausweitung des Geschäfts oder das Testen neuer Märkte und Produkte ist darüber auf relativ schnellem Wege möglich, ohne eigene Verkaufsplattformen aufbauen zu müssen.
Experience Economy: Kundenerlebnisse gewinnen an Bedeutung
Der E-Commerce boomt, aber damit ist der stationäre Handel noch lange nicht abgeschrieben. Ganz im Gegenteil. Zwar informiert sich ein Großteil der Deutschen (80 Prozent) über Angebote des Handels auf digitalen Kanälen, wie Webseiten, Apps und Social Media, kauft jedoch mehrheitlich (67 Prozent) im stationären Einzelhandel. Dieses Konsumverhalten wurde durch die Corona-Krise gestört. Die Folge: Viele Menschen solidarisieren sich mit ihrer Nachbarschaft. 60 Prozent der Verbraucher geben an, dass sie lokale Läden in diesen Zeiten ganz bewusst unterstützen, so der IDH Konsumentenreport für das erste Quartal 2021. Darauf sollten sich Händler allerdings nicht ausruhen.
Durch die Corona-Krise wird der Wunsch nach besonderen Einkaufserlebnissen, die Experience Economy, langfristig an Bedeutung gewinnen. Jeder Ausflug zum Shopping wird zu einer bewussten Entscheidung der Konsumenten. Es werden jene Händler gewinnen, die ihrer Kundschaft offline wie online ein herausragendes und konsistentes (Einkaufs-)Erlebnis bieten und auf smarte Omnichannel-Strategien setzen.
Händler können davon profitieren, wenn sie sich nicht nur als Ort des Verkaufens von Waren begreifen, sondern als ein Ort der Begegnung und des Erlebnisses. Also genau jene Dinge, die den Menschen in der Pandemie so gefehlt haben. Ein Beispiel: Ein lokaler Unverpackt-Laden in einer deutschen Großstadt hat ein Café mit Mittagstisch in das Geschäft integriert. Und nach Ladenschluss veranstalten die Betreiber Vorträge und Workshops zu Themen rund um ein nachhaltiges Leben. Und natürlich können aus solchen Event-Formaten dann wiederum Kooperationen mit anderen Marken und Unternehmen entstehen.
Im Handel der Zukunft ist alles miteinander verknüpft. Online wie offline. Wenn Händler dies begreifen und umsetzen und das Kundenerlebnis in den Mittelpunkt rücken, profitieren sie von neuen Kunden, Wettbewerbsvorteilen und verstärkter Kundenbindung.
Über den Autor:
Benjamin Thym kennt und versteht die Herausforderungen des Handels. Er ist CEO des Shopper +++ Offerista Group, das auf digitale Lösungen für standortbasiertes Angebots- und Filialmarketing in Europa spezialisiert ist. 2021 hat er mit seinen Mitbewerbern die Gattungsinitiative „Initiative Digitale Handelskommunikation“ (IDH) gegründet. Sie wollen das Thema als zukunftsweisenden Industriezweig breiter in die öffentliche Wahrnehmung bringen.
Weiterführende Informationen zum Unternehmen:
Offerista gehört zu den drei Initiatoren der 2021 ins Leben gerufenen „Initiative Digitale Handelskommunikation“ (kurz IDH). Ziel der Gattungsinitiative ist es, das Thema digitale Handelskommunikation als zukunftsweisenden Industriezweig breiter in die öffentliche Wahrnehmung zu bringen.
Aufmacherbild / Quelle / Lizenz
Photo by Joshua Rawson-Harris on Unsplash
VORAUS:schau Live
/1 Kommentar/in Allgemein, Expertenpanel, Specials, Veranstaltungen und Messen/von Martina Bartlett-MattisMit „VORAUS:schau live“ startet eine neue Q&A-Reihe mit Expertinnen und Experten des BMBF-Zukunftskreises aus unterschiedlichen wissenschaftlichen Disziplinen und Berufssparten, die Zukunftsvisionen erörtern.
In der sechsteiligen Q&A-Reihe „VORAUS:schau live“ beantworten Expertinnen und Experten des Zukunftskreises und Zukunftsbüros, die dem BMBF beratend zur Seite stehen und damit zu dessen strategischer Vorausschau beitragen, die Fragen der Moderatorin und des Publikums.

Aus einem breiten Spektrum wissenschaftlicher Disziplinen und beruflicher Hintergründe heraus bieten sie sowohl Forschenden als auch interessierten Bürgerinnen und Bürgern eine Orientierung für die Zukunft und klären über den Prozess der Vorausschau (Foresight) auf. Sie stellen schon heute die Fragen von morgen, um frühzeitig Orientierungswissen über zukünftige gesellschaftliche und technologische Entwicklungen zu erlangen.
Ob es nun um die Zukunft der Umwelt, des Wohnens, unserer Gesundheit und Alterungsprozesse oder die Themen Bildung, Gesellschaft und Arbeit geht: In den sechs Folgen „VORAUS:schau live“ betrachten ausgewählte Fachleute aus Wissenschaft und Wirtschaft über die kommenden zwölf Monate hinweg die Welt von morgen aus einem realistischen, produktiven, nachhaltigen und lösungsorientierten Blickwinkel.
Die zentralen Fragen der Veranstaltungsreihe: Welche Zukunftstrends sind schon heute sichtbar und wie werden sich diese in Zukunft entwickeln? Welche Zukunftsszenarien sind denkbar und wie können wir diese bereits jetzt mitgestalten?
Premierenfolge – Thema Wasser
Den Start machen Björn Theis vom Zukunftskreis und Zukunftsbüro-Mitglied Michael Astor. Sie widmen sich dem Thema Wasser:
Steigende Temperaturen, trockene Sommer, schnelle Wetterumschwünge – diese Auswirkungen des Klimawandels sind unmittelbar in unserem Alltag spürbar.
Das Thema Wasserknappheit läuft jedoch noch unter dem Radar. Das bestätigt eine aktuelle repräsentative Meinungsumfrage des Meinungsforschungsinstituts Civey im Auftrag des BMBF: Nur 24 Prozent der deutschen Bürgerinnen und Bürger geben an, dass sie sich persönlich von der zunehmenden Wasserknappheit betroffen fühlen.
Fragt man jedoch nach ihrer Einschätzung für die Zukunft, ist fast die Hälfte der Befragten (48 Prozent) der Meinung, dass die zunehmende Wasserknappheit ihren Alltag in 20 Jahren betreffen wird.
Ist dieses Problem wirklich noch so weit weg? Wie wird die Wasserknappheit unser Leben verändern und vor welche Herausforderungen wird sie uns stellen?
Diese und weitere drängende Fragen zur Zukunft stehen im Zentrum der Premierenfolge.
Dr. Jo Schilling von Technology Review, dem Magazin für Innovation von Heise und Medienpartner dieser Veranstaltungsreihe moderiert die Folge und diskutiert mit den Experten über die Zukunft der Umwelt.
>>> Hier können Sie die Premierefolge ansehen: https://www.youtube.com/watch?v=4msni_oXYz4
Nächste Folge am 30.08.
Zuschauerinnen und Zuschauer sind eingeladen, ihre persönlichen Fragen live an die Experten zu richten und so mit führenden Köpfen aus Wissenschaft und Wirtschaft in den direkten Austausch zu treten. Die Teilnahme ist kostenfrei und virtuell für alle möglich.
Zu den Veranstaltungen geht es unter: bmbf.de/vorausschau-live/interaktion
Innovationstreiber Rechenzentren
/in Allgemein, Digitalisierung, Unternehmen & Märkte/von Martina Bartlett-MattisRechenzentren als Innovationstreiber und zuverlässige Basis einer zukunftsfähiger IT-Infrastruktur
Wer kann sich heute noch vorstellen, eine Reise offline zu planen, mit den Kollegen nur per Brief und Festnetzanschluss zu kommunizieren oder eine Rechnung mit einem Print-Überweisungsformular zu bezahlen? Die Digitalisierung hat nach und nach jeden Bereich unseres Lebens durchdrungen. Und die Geschwindigkeit, mit der diese Entwicklung inzwischen fortschreitet, ist atemberaubend – ebenso die Menge an Daten, die dafür gespeichert, gesichert und in Sekundenschnelle um die Welt geschickt werden muss. Und ein Ende dieser Entwicklung ist nicht abzusehen: Bis 2025 soll die Menge der Daten auf 175 Zettabytes anwachsen.
Damit diese Datenmengen auch verarbeitet werden können, muss die IT-Infrastruktur mit der Weiterentwicklung der Technologien Schritt halten. Während der Ausbau der Datenübertragung beispielsweise mit Diskussionen um 5G in aller Munde ist, führt die Frage „Wie können wir auch künftig unsere Datenmengen sinnvoll speichern?“ ein relatives Schattendasein. Und dass, obwohl sie für Wirtschaft und Gesellschaft von eklatanter Bedeutung ist. Datenspeicherung findet vor allem in Rechenzentren statt. Wie also sieht es aus, das Rechenzentrum der Zukunft? Und welche Faktoren werden dieses beeinflussen?
Einfluss durch Nutzer und Marktumfeld
Neben der bereits angesprochenen reinen Menge an Daten beeinflussen noch andere Faktoren die Marktdynamik im digitalen Umfeld. Eine große Rolle spielt beispielsweise die Erwartungshaltung der Nutzer: Niemand will heute mehr zwei Minuten warten, bis sich eine gesuchte Webseite aufbaut, schon gar nicht auf mobilen Endgeräten. Das bedeutet im Umkehrschluss, dass rasche Übertragungsraten und eine hohe Verarbeitungsgeschwindigkeit für jeden ein absolutes Muss sind, der seine Kunden oder User behalten möchte.
Gleichzeitig sind auch die Anforderungen an die Datensicherheit und Skalierbarkeit noch einmal deutlich gestiegen. Dafür gibt es zwei Gründe: Zum einen nutzen und speichern Verbraucher sowie Unternehmen inzwischen viel häufiger sensible Daten virtuell. Zum anderen haben sich gleichzeitig die Hackerangriffe vervielfacht: So sind laut einer bitkom-Studie in den vergangenen zwei Jahren 75 Prozent der befragten Unternehmen Opfer eines Cyberangriffs geworden[1]. So müssen auch die Rechenzentren dafür sorgen, in punkto Sicherheit stets dem „State of the Art“ zu entsprechen.
Nachhaltigkeit nimmt künftig zentrale Position ein
Während die Bereiche Geschwindigkeit und Sicherheit seit den Anfängen der Digitalisierung immer schon Fokusthemen waren, wird in den nächsten Jahren ein weiteres mehr Gewicht erhalten: Nachhaltigkeit. Dank Fridays for Future & Co. ist der Klimawandel endlich in der Gesellschaft und Politik präsent. Langfristig werden nur die Unternehmen erfolgreich sein, die nachhaltig denken, wirtschaften und handeln. Und das betrifft eben nicht nur die Produktwelt, sondern auch die gesamte Infrastruktur – angefangen bei der IT. Denn diese ist mit ihrem enormen Stromverbrauch tatsächlich eine Herausforderung. Umweltverträgliche Rechenzentrums-Konzepte sind ein Schlüssel zu einem kleineren CO2-Abdruck von Unternehmen und haben den Nebeneffekt, dass sie auch die IT-Kosten senken können. Der Einsatz von Ökostrom ist eine Möglichkeit für mehr Nachhaltigkeit.
Aber es gibt noch weitere Stellschrauben, die ein Datacenter umweltverträglicher machen. So sorgt beim Bau eines neuen Rechenzentrums ein modulares Konzept für eine rasche Umsetzung und damit eine geringe Umweltbelastung, denn die Standardmodule lassen sich nachhaltiger herstellen. Auch moderne Klimatisierungskonzepte helfen, Ressourcen zu sparen. So kann über flächendeckende Kaltgang-Einhausungen – eine zentrale Maßnahme zur Optimierung der Kühlung – mit Sensoren die Klimatisierung optimal gesteuert werden. Die dabei entstehende Warmluft wird über Wärmepumpen zum Beheizen des Gebäudes genutzt. Das spart CO2 und hält die Betriebskosten gering.
Der Standort als Politikum
Wenn der Kapazitätsbedarf steigt, werden auch mehr Rechenzentren benötigt. Zu klären bleibt, wo man diese am besten platziert. Und hier sind nicht nur die Betreiber der Zentren gefragt, sondern auch die Kommunen. Die Flächen in Ballungszentren, die auch den größten Kapazitätsbedarf haben, ist begrenzt und teuer. Als wäre das nicht fordernd genug, muss auch die BSI-Richtline beachtet werden. Diese sieht zwischen zwei Rechenzentren eine Distanz von mindestens 200 km vor, damit im Falle von Naturkatastrophen wie beispielsweise Erdbeben nicht alle Standorte der Region gleichermaßen betroffen sind. Diese Vorgabe wirft bei Unternehmen und Rechenzentrumsbetreibern zusätzliche Fragen auf – und generiert wahrscheinlich neuen Bedarf an Rechenzentrumsflächen.
Bei all diesen Themen sind politische Lösungen nötig, das Engagement der Verantwortlichen hält sich derzeit allerdings noch in maßvollen Grenzen. Und das obwohl inzwischen klar sein dürfte, wie wichtig eine zukunftsfähige flächendeckende IT-Infrastruktur für den Wirtschaftsstandort Deutschland ist. Ebenfalls zu klären ist, wie der steigende Strombedarf sinnvoll und ressourcenschonend zu decken ist.
Rechenzentren sollen Stabilität in einem extrem dynamischen Umfeld bieten. Klar ist, dass dies nur mit Anlagen gelingen kann, die so konzipiert sind, dass sie sich an Veränderungen möglichst einfach sowie kosten- und umweltschonend anpassen können. Nicht umsonst geht der Trend inzwischen zu den wendigeren Micro- und Edge-Rechenzentren mit Colocation-Angeboten. Unternehmen finden hier ein Umfeld, das für jede ihrer notwendigen Entscheidungen die passende Infrastruktur bietet – und sie so zukunftsfähig macht.

Über den Autor:
Wolfgang Kaufmann verantwortet die Planung, den Bau und Betrieb von Rechenzentren. In seiner Funktion hat er das erste in komplett modularer Bauweise errichtete Rechenzentrum in Deutschland realisiert und entscheidend mitgestaltet. In über 20 Jahren Branchenerfahrung hat Wolfgang Kaufmann mehr als 20.000 qm Rechenzentrumsfläche gebaut und betrieben. Sein Spezialgebiet ist der stetige Einsatz von innovativen und energieeffizienten Infrastrukturlösungen.
[1] bitkom: Spionage, Sabotage und Datendiebstahl –Wirtschaftsschutz in der vernetzten Welt (Studienbericht 2020)
Aufmacherbild / Quelle / Lizenz
Photo by Ian Battaglia on Unsplash
Klasse statt Masse – smarte Daten für Ihren Online-Shop
/in Allgemein, Freie Inhalte, Future Store/von Martina Bartlett-Mattisvon Thorsten Mühling
Klasse statt Masse. Im E-Commerce kommt es nicht auf Big Data an, sondern auf Smart Data. Denn Unternehmen in dieser Branche brauchen nicht alle denk- und speicherbaren Informationen, um erfolgreich zu sein. Sie brauchen die richtigen. Mit den passenden Informationen klappt es dann auch mit der Personalisierung, was im Online-Handel ja erst besonders tolle Kundenerlebnisse ermöglicht. In beiden Fällen nimmt KI eine Schlüsselrolle ein.
Der E-Commerce wuchs zwischen 2019 und 2020 laut HDE Online Monitor 2021 (S.6) um beeindruckende 23 Prozent. Für 2021 prognostiziert die Untersuchung einen Anstieg um weitere 17 Prozent. Auch viele ältere Menschen haben – ausgelöst durch die Schließungen im stationären Handel – das Online-Shopping für sich entdeckt. Die wachsende Zahl der Web-Käufer bringt den Netz-Händlern nicht nur neue Kunden, sondern auch viele frische wichtige Daten über die Nutzer – sogenannte Big Data. Das zeichnet sich zum einen durch ihr Volumen, aber auch durch die Methoden und Technologien aus, die Händler verwenden, um einen Nutzen aus den Informationen zu ziehen. Besonders interessant ist dabei ein genauerer Blick auf die Frage, welche Daten der E-Commerce besonders gut gebrauchen kann.
Von Big Data zu Smart Data
Wichtige Informationen aus dem großen Big-Data-Pool sind beispielsweise solche, mit denen ein Unternehmen sein zukünftiges Agieren besser planen kann. Darunter fallen unter anderem Informationen aus dem Shopsystem, dem Warenwirtschaftssystem und dem Klick- und Kaufverhalten. Doch das Sammeln dieser Angaben allein reicht nicht aus. Um die Informationen nachhaltig nutzen zu können, sollte eine effektive und zielgerichtete Analyse erfolgen, an deren Ende zum Beispiel Muster und Korrelationen stehen. Aus dem vormaligen großen Volumen der Big Data erfolgt so also eine Extraktion von Smart Data. Letztere sind nützliche Informationen für bestimmte Anwendungsfälle im E-Commerce.

Unser Gastautor
Thorsten Mühling ist CEO und Co Founder der epoq internet services GmbH. Der studierte Betriebswirt gründete bereits 2003, gemeinsam mit seinem Partner Michael Bernhard, ein Tech-Unternehmen. Dieses entwickelte selbstlernende Systeme, die in verschiedenen Branchen zum Einsatz kamen. 2013 hat er zusammen mit Michael die epoq internet services GmbH gegründet und sich ganz der KI-gestützten 1:1-Personalisierung des digitalen Handels gewidmet. Er leitet seit der Gründung das operative Geschäft von epoq und ist für die strategische Weiterentwicklung des Unternehmens verantwortlich.
Der E-Commerce-Experte gestaltet und verfolgt den Aufstieg des Online-Handels seit fast zwei Jahrzehnten. Dabei versteht er es, erfolgreiche Prozesse des stationären Handels, mit beständigen Innovationen, in die digitale Welt zu transportieren. In seiner Freizeit ist Thorsten als Fußballtrainer sportlich aktiv und schwingt daneben gerne den Schläger als begeisterter Golfer.
Um Personalisierungsmaßnahmen durchzuführen sind z. B. Verhaltensdaten entscheidend, welche DSGVO-konform eingesetzt werden können. IP-Adressen oder andere personenbezogene Daten werden für die erfolgreiche Personalisierung eines Online-Shops nicht benötigt. Die Verhaltensdaten sind aber umso wertvoller, je „stabiler“ die Aggregation ist: Hat der Kunde ein Konto, können die Daten an eine stabile Customer-ID angehängt und in der Datenbank aggregiert werden. Aber auch ohne Kundenkonto kann personalisiert werden. Denn fortschrittliche Personalisierung nutzt keine Third-Party-Cookies mehr, sie stützt sich auf First-Party-Identifier im Rahmen des Online-Shops und gehört somit zu dem IT-Umfeld des Shop-Betreibers.
Use Case
Agiert ein Konsument also mit der Webseite eines Online-Shops, erhält der Betreiber erstmal Big Data. Durch die Datenanalyse wir daraus Smart Data. Sie beantworten Fragen wie: Auf welche Links hat der Kunde geklickt? Welche Artikel hat er in den Warenkorb gelegt? Und wie lange hielt sich der User wo auf? Anhand eines KI-unterstützen Modells erfolgt anschließend eine Berechnung darüber, welche der extrahierten Informationen zur Verbesserung des Shopping-Erlebnisses für den aktuellen Kunden und für ein mögliches aktuelles Problem – wie zum Beispiel der fehlenden Conversion – führen kann. Der Data Scientist legt somit fest, welche Daten im Shop entscheidend sind, um beispielsweise für Empfehlungen eine Vorhersage zu treffen, die dann mit hoher Wahrscheinlichkeit zum Kauf führt. Das sind dann Smart Data. Diese Daten werden schließlich von den Algorithmen weiterverwendet. Dieser Personalisierungsprozess hat eine bessere und erfolgreichere User Experience des Nutzers zur Folge.
Mit Personalisierung durch KI zur erfolgreichen Customer Journey
Im stationären Handel gibt es den Fachverkäufer, der potentielle Käufer im Idealfall so gut betreuen kann, dass sie genau das finden, was sie suchen. Außerdem kennt er seine Kundschaft so genau, dass er ihnen auch gezielt weitere Produkte vorschlagen kann. Viele Konsumenten schätzen dieses persönliche Erlebnis, das dem stationären Handel bisher immer einen Vorteil verschafft hat. Allerdings gibt es diese Art der Personalisierung jetzt auch für Online-Shops.
Mit Hilfe von KI sind wir mittlerweile in der Lage, sehr gute Prognosen abzugeben, für welche weiteren Artikel sich ein Online-Shopper ziemlich sicher interessiert. Wir können heute zum Teil sogar ein besseres Einkaufserlebnis bieten als der stationäre Fachhandel. Und dabei geht es um die gesamte Customer Journey. Das Ziel ist es, zu verhindern, dass der Kunde seine Meinung irgendwo zwischen Kauf-Idee und Abschluss noch ändert. Mit der passenden KI-gestützten Software schaffen es Online-Händler auch, nicht nur die Conversion-Raten, den Traffic, die Wiederkaufrate oder den Warenwert im Einkaufkorb zu erhöhen, sondern auch die Zahl der Retouren zu minimieren. Denn erhalten Kunden schon vor dem Kauf genau die Empfehlung zu den Produkten, die sie auch wirklich suchen, gibt es keinen Grund mehr, sie zurück zu schicken.
Algorithmen helfen dabei, dass Online-Händler dem Kunden genau auf seine Bedürfnisse und Interessen abgestimmte Inhalte anzeigen können. So erfährt auch die emotionale Komponente eines Einkaufserlebnisses durch die Personalisierung eine Steigerung gegenüber dem stationären Handel. Bei der Wahl der richtigen Tools, um eine durchdachte, authentische und 1:1 personalisierte Strategie im Online-Shop umzusetzen, dürfen die Richtlinien der DSGVO nicht außen vor bleiben. Denn es sind ausschließlich pseudonymisierte Daten für die Personalisierung nötig.
Use Case
Ein gutes Beispiel ist Outletcity in Metzingen. Bereits seit einiger Zeit setzte der Online-Shop auf eine Recommendation Engine für die Personalisierung von Produkt-Empfehlungen. Dr. Stefan Hoffmann, Managing Director bei Outletcity Metzingen, erklärt dazu: „Unsere Premium- und Luxus-Kunden erwarten, insbesondere von uns als geschlossenem Online-Shop, personalisierte Angebote und Empfehlungen, basierend auf Markenpräferenz, der eigenen Kleidergröße oder dem Geschmack.“ Nach der Verbesserung der Personalisierungsstrategie durch die Integration eines neuen Personalisierungs-Tools, stieg der Umsatz des Shops pro Session um 5,04 Prozent.
Die Conversion-Rate erhöhte sich um 2,1 Prozent. Im Detail erhielt zum Beispiel die Produktdetailseite zwei Widgets (Produktkarten) mit Alternativ- und Cross-Selling Empfehlungen. Außerdem zeigen jetzt die Bestellbestätigungsseiten und die Log-Out Seiten jeweils ein Widget mit Empfehlungen zu Produktkategorien, die von Kunden noch nicht angesehen wurden. Die Ausspielung der Produkte in den Widgets erfolgt für jeden Kunden individuell und führen dadurch zu einem gesteigerten Shoppingerlebnis.
Der E-Commerce wächst stetig weiter. Neben Konsumenten, die sowohl im stationären wie auch im Online-Handel shoppen, gibt es immer mehr Kunden, die nur noch rein digital unterwegs sind. Und sie erwarten auch hier ein tolles Shopping-Erlebnis. Die vorgestellten Beispiele zeigen anschaulich, dass Web-Händler gute Möglichkeiten haben, um aktiv nachzusteuern und ihr Wachstum mit der nachhaltigen Nutzung von Smart Data und guten Personalisierungs-Tools voranzutreiben.
Aufmacherbild / Quelle / Lizenz
Bild von yatsusimnetcojp auf Pixabay
Deutscher Demografie Preis 2021 für LidA
/in Gender Shift, Neue Gesellschaft, Pressemitteilungen/von Bernhard HaselbauerDas Projekt „LidA – Lernen in der digitalisierten Arbeitswelt“ ist Preisträger des Deutschen Demografie Preises 2021, verliehen vom Demographie Netzwerk e.V. (ddn). Ausgezeichnet wurde LidA in der Kategorie „Chancen der Digitalisierung“. Die Inhalte und Ziele des Projekts präsentierte Korhan Zeyrek, kaufmännischer Geschäftsleiter der Mauser + Co. GmbH, die als Partner im Projektverbund auch die Bewerbung für den Preis initiierte. Die vorgestellten Ergebnisse überzeugten die Jury durch einen klaren Fokus auf digitale Lernplattformen, die Einbeziehung verschiedener Zielgruppen, den Abbau von Ängsten vor der Digitalisierung und ein insgesamt bedarfsgerechtes Didaktik-Konzept.
Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt wird umgesetzt von einem Konsortium aus Wissenschaft und Unternehmen. Beteiligt sind das International Performance Research Insitute (IPRI), das FIR an der RWTH Aachen, die Databay AG, die leifos GmbH, die Volkswagen AG, die Mauser + Co. GmbH, die TRUMPF GmbH + Co. KG sowie die Universität Ulm.
Ziel von LidA ist es, Beschäftigte für die Herausforderungen des digitalen Wandels zu qualifizieren und sie mit den Kompetenzen auszustatten, die sie in einer digitalisierten Arbeitswelt benötigen. Dazu setzt LidA auf die Identifikation individueller Kompetenzbedarfe und die Entwicklung zugeschnittener Lernpfade. Die einzelnen Lehr- und Lermodule werden in ein bedarfsgerechtes, methodisches Konzept eingebettet und auf einer Lehr- und Lernplattform bereitgestellt.
„Das digitale Kompetenzmanagement im Unternehmen gewinnt immer mehr an Bedeutung. Die individuellen Lernpfade und -lösungen, die wir in LidA gemeinsam mit den Partnern entwickeln können, helfen, bereits heute die zukünftig benötigten Kompetenzen zu entwickeln. Daher freuen wir uns über die Anerkennung unserer Arbeit und ganz besonders über die vom ddn bescheinigte Vorbildfunktion für kleine und mittlere Unternehmen.“, sagt Roman Senderek, Leiter der Fachgruppe New Industrial Work am FIR, zur besonderen Anerkennung der im LidA-Projekt erzielten Ergebnisse.
Das Demographie Netzwerk e. V. (ddn) ist ein gemeinnütziges Netzwerk von Unternehmen und Institutionen, die den demographischen Wandel als Chance begreifen und aktiv gestalten wollen. Seit 2020 verleiht das ddn den Deutschen Demografie Preis an Unternehmen, Netzwerke und Vereine für innovative Ideen, zukunftsweisende Lösungen und nachahmenswerte Projekte.
Weitere Informationen:
Forschungsprojekt LidA
Deutscher Demografie Preis
Freie Inhalte
