HR-Verantwortliche sind Transformationstreiber

Trend 2022: HR-Verantwortliche sind Transformationstreiber

Bereits in diesem Jahr war eine verstärkte Neubesetzung von HR-Verantwortlichen mit Fokus auf strategischen Personalthemen bei mittelständischen Unternehmen feststellbar.
Dieser Trend wird sich nach Einschätzung der Experten der Personal- und Managementberatung Liebich & Partner im kommenden Jahr fortsetzen.

Grund dafür ist die zunehmend notwendige und erweiterte Führungsrolle der HR-Verantwortlichen als Transformationstreiber in den Unternehmen. Während große Unternehmen längst diese wichtige Rollenänderung erkannt haben und HR-Verantwortliche tatsächlich als Transformationstreiber einsetzen, sieht sich in der aktuellen Wirtschaftssituation nun auch der klassische Mittelstand gezwungen, die Aufgaben der HR-Verantwortlichen weiterzuentwickeln.

„Mittelständische Unternehmen haben in diesem Jahr besonders HR Verantwortliche mit Erfahrungen in Veränderungsprozessen, Digitalisierung und Internationalität nachgefragt.“

Günter Walter, Vorstand von Liebich & Partner

„Mittelständische Unternehmen haben in diesem Jahr besonders HR Verantwortliche mit Erfahrungen in Veränderungsprozessen, Digitalisierung und Internationalität nachgefragt“, sagt Günter Walter, Vorstand von Liebich & Partner. „Und dieser Trend wird im kommenden Jahr noch zunehmen.“

Zukünftige Rolle der HR-Verantwortlichen

„Moderne Personalleiter haben heute die Aufgabe, Change-Prozesse in den Unternehmen aktiv zu steuern“, so Steffen Hilser, Vorstand bei Liebich & Partner. „Idealerweise sind sie dafür in der Geschäftsleitungsebene mit angesiedelt. In unseren Projekten der Managementberatung erleben wir häufig, dass in vielen Unternehmen unklar ist, wer der Treiber von Change-Projekten sein soll — ein in der Organisation dezentral angesiedelter Verantwortungsträger kann nicht erfolgreich sein.“

„Moderne Personalleiter haben heute die Aufgabe, Change-Prozesse in den Unternehmen aktiv zu steuern“,

 

Steffen Hilser, Vorstand bei Liebich & Partner

Veränderte Job-Profile

Auch im kommenden Jahr wandeln sich Job-Profile: Veränderungswilligkeit sowie schnelle Weiterentwicklung wird von HR-Verantwortlichen und Mitarbeitern gefordert, um die Transformationen in den Unternehmen ganzheitlich zum Erfolg führen zu können. Personal-Experten stehen beispielsweise vor den Herausforderungen neue Konzepte hinsichtlich People Strategy zu entwickeln, Work-Life-Balance sowie hybride Arbeits- und Weiterbildungsmodelle zu bieten.

Neue Strategien zur Mitarbeiterbindung

Entscheidend für Unternehmen wird es in den kommenden Jahren sein, die Bindung der Menschen an die eigene Organisation zu vertiefen, um Know-Howund Leistungsträger gezielt zu entwickeln und zu halten. Parallel dazu gilt es, die Innovationskräfte zu stärken. Hier sind ebenfalls neue Strategien gefragt, um vor dem Hintergrund des Nachfolge- und Nachwuchskräftemangels schnell agieren zu können und weiterhin wettbewerbsfähig zu bleiben.

Liebich & Partner Management- und Personalberatung AG

http://www.liebich-partner.de


Aufmacherbild / Quelle / Lizenz
Foto von Nataliya Vaitkevich von Pexels


Ein Dank an alle Partner

Von Dominic Schmitt*

Erneut neigt sich ein an Herausforderungen nicht armes Jahr dem Ende entgegen, das die meisten Kunden von Red Hat nicht nur gut überstanden haben, sondern auch nutzten, um ihre Digitalisierung entscheidend voranzutreiben. Schwerpunkte setzten sie dabei beim Aufbau moderner Hybrid-Cloud- und Multi-Cloud-Umgebungen, bei der Containerisierung ihrer Anwendungslandschaften sowie bei der smarten Automatisierung vieler IT-Prozesse. So gelang es ihnen, sich für die neue Arbeitswelt aufzustellen, die Basis für digitale Geschäftsmodelle zu schaffen und ganz allgemein effizienter und produktiver zu werden. Doch ohne unsere Partner wäre das alles nicht möglich gewesen – sie sind es, die mit unseren Produkten innovative Kundenlösungen entwickeln und zuverlässig implementieren, integrieren und betreiben; ein großes Dankeschön dafür!

Immer häufiger tun sie das zudem in sehr enger Kooperation. Es macht mich wirklich stolz zu sehen, wie sich klassische Systemhäuser und Berater mit Anwendungsspezialisten und Cloud-Service-Providern zusammen tun, um Kunden von Anfang bis Ende zu betreuen und auch große Projekte mit hohen und sich ändernden Anforderungen zu stemmen. Genau das brauchen Partnernetzwerke heute, um erfolgreich zu sein: gegenseitige Unterstützung statt Konkurrenzdenken, um gemeinsam schlagkräftige Ökosysteme aufzubauen, die mehr bieten können als ein Partner allein. Dieses Miteinander erleichtert es unglaublich, individuelle Lösungen für Kunden zu schaffen und diese schrittweise auszubauen. So bleiben Partner beim Kunden aktiv und generieren kontinuierlich zusätzliches Geschäft – etwas, das wir seit diesem Jahr mit der ”Incumbent Partner”-Initiative auch stärker fördern und belohnen.

Digitalisierungsschub für die öffentliche Verwaltung

Viel zu tun geben wird es für Partner in den nächsten Monaten im Bereich der Behördendigitalisierung. Hier hat Deutschland im europäischen Vergleich großen Nachholbedarf und landet in Rankings regelmäßig auf den hinteren Plätzen. Nun biegt allerdings das Onlinezugangsgesetz auf die Zielgerade ein, das von Bund, Ländern und Kommunen verlangt, 575 Verwaltungsleistungen bis Ende 2022 online anzubieten – von denen derzeit gerade mal 16 flächendeckend verfügbar sind. Zudem bringt die neue Bundesregierung frischen Wind und will die Digitalisierung von Staat und Verwaltung schnell voranbringen, erfreulicherweise mit offenen Schnittstellen und Open Source. Für Deutschland kann das nur gut sein, während es für Red Hat und unsere Partner eine enorme Chance darstellt.

Allerdings sind Behördenprojekte anspruchsvoll und setzen umfangreiche Kompetenzen sowie viele hohe Zertifizierungen voraus. Ich kann Partner daher nur ermutigen, sich mit der in diesem Jahr von Red Hat eingeführten Public-Sector-Zertifizierung auseinanderzusetzen, die Partner in die Lage versetzt, die attraktiven und für die Zukunft Deutschlands wichtigen Projekte erfolgreich umzusetzen.

Virtuelle Meetings, so praktisch und hilfreich sie auch sind, können die Begegnungen im Büroalltag nicht vollständig ersetzen, da das physische fehlt. Die Frage ist also, wie lässt sich die Mitarbeiterbindung verbessern?

Dominik Schmitt

Mitarbeiter durch Weiterbildung binden

Die große Nachfrage nach offenen hybriden Cloud-Lösungen lässt unsere Partner schnell und gesund wachsen, bringt jedoch auch Herausforderungen mit sich. Wollen sie Wachstumsschmerzen vermeiden, müssen sie skalieren können und ihre Mitarbeiter unbedingt halten, denn IT-Fachkräfte sind heiß begehrt und nur schwer zu gewinnen. Doch in der neuen Arbeitswelt sind die Bande innerhalb der Belegschaft eher lockerer geworden: Man sieht sich seltener, hat weniger Gelegenheiten, sich spontan auszutauschen – es fehlen die Begegnungen im Büroalltag, kollektive Pausen oder die gemeinsame Fahrt zum Kunden. Virtuelle Meetings, so praktisch und hilfreich sie auch sind, können das oft nicht ersetzen, weil sie in der Regel zu einem festen Zeitpunkt enden und genau durchgeplant sind. Wie also die Mitarbeiterbindung verbessern?

Natürlich trägt bereits die Möglichkeit, remote arbeiten zu können, zur Mitarbeiterbindung bei. Dennoch sollten Vorgesetzte die neuen Kommunikationstools nicht nur für aufgaben- und projektbezogene Besprechungen nutzen, sondern Raum für Small Talk einplanen und beispielsweise besondere Anlässe und Erfolge, etwa Arbeitsjubiläen oder den Gewinn eines spannenden Projekts, unbedingt mit der Belegschaft teilen. Mindestens ebenso wichtig ist es, den Mitarbeitern persönliche und fachliche Weiterentwicklungsmöglichkeiten aufzuzeigen, denn kaum etwas motiviert und bindet sie so sehr wie gemeinsam an spannenden Aufgaben zu lernen und wachsen.

Auf ein baldiges Wiedersehen

Auch wir bei Red Hat vermissen die persönlichen Treffen und hoffen, dass im kommenden Jahr wieder mehr Begegnungen von Angesicht zu Angesicht mit unseren Partnern möglich sind. Denn das Miteinander und der Spirit, der dabei entsteht, sind das, was uns ausmacht. Daher planen wir unseren Red Hat Summit 2022, der im Mai stattfinden wird, als hybride Veranstaltungen und freuen uns, Sie dort – oder später im Jahr auf einem regionalen Event – begrüßen zu dürfen.

Bis dahin: Genießen Sie die Feiertage, kommen Sie gut ins neue Jahr und bleiben Sie vor allem gesund!

* Dominic Schmitt ist Director Partner & Alliances bei Red Hat

Am Rand lauert die Gefahr

Lucy Kerner, Director Security Global Strategy and Evangelism bei Red Hat: Open Source hilft Unternehmen, das Beste aus Edge Computing herauszuholen (Quelle: Red Hat)

Die explosionsartige Zunahme an vernetzten Geräten wird den Bedarf an Edge-Computing-Lösungen noch weiter erhöhen. Bei der Abwägung der Vorteile und Risiken der dezentralen Datenverarbeitung sind viele Unternehmen allerdings verunsichert. Dabei lassen sich beide Punkte problemlos unter einen Hut bringen, wie die Checkliste von Lucy Kerner, Director Security Global Strategy and Evangelism bei Red Hat, zeigt.

Beim Edge Computing findet die Verarbeitung der Daten in der Nähe der Datenquelle statt, sodass Übertragungs- und Antwortzeiten minimiert werden und eine Kommunikation nahezu in Echtzeit möglich ist. Gleichzeitig verringert sich die Netzbelastung, da nur bestimmte Daten an das zentrale Rechenzentrum übertragen werden. Edge Computing ist aber auch mit einigen Herausforderungen verbunden: Durch die hohe Anzahl an Geräten unterschiedlicher Hersteller und die verteilte Struktur erhöht sich die Komplexität der Architektur, wodurch Wartung, Administration und Betrieb der lokalen Umgebung deutlich aufwendiger werden können. Zudem müssen mehr Geräte und Standorte hinsichtlich IT-Sicherheit und Datenschutz überwacht werden. 

Wie können Unternehmen diese Risiken des Edge Computing mit den unbestreitbaren Vorteilen in Einklang bringen?

  • Sicherheit muss Teil einer ganzheitlichen Edge-Strategie sein: Dezentrale Architekturen bieten Angreifern mehr und auch neue Chancen, die IT-Security zu unterwandern. Daher gewinnen Themen wie Netzsicherheit, Zugriff auf die Geräte und deren Produktsicherheit an Bedeutung. Gerade beim Edge Computing können häufige Fehler wie die Inbetriebnahme von Systemen mit einem Standardpasswort, eine fehlende Multi-Faktor-Authentifizierung oder nicht gepatchte Devices schlimme Folgen haben. Unternehmen sollten deshalb Sicherheit von Anfang an als Teil einer ganzheitlichen Edge-Computing-Strategie betrachten. Die Geräte und Verbindungen am Netzwerkrand müssen genauso gut geschützt werden wie das zentrale Rechenzentrum und denselben strengen Richtlinien und Maßnahmen unterliegen. 
  • Konsistenz ist der Schlüssel: Eine fehlende Standardisierung bremst den Edge-Computing-Ansatz aus. Ein klassisches Beispiel sind traditionelle SCADA (Supervisory Control and Data Acquisition)-Systeme, wie sie an unzähligen Industrie-Anlagen im Einsatz sind. Jede Maschine kann einen anderen Software-Stand haben, zudem kommunizieren die Systeme – vor allem aus Sicherheitsgründen – nicht mit anderen Komponenten einer Netzwerktopologie. In der Regel werden Edge-Geräte für eine ganz bestimmte Aufgabe entwickelt und stammen daher oft von den unterschiedlichsten Anbietern. Das erschwert nicht nur die Verwaltung, sondern auch den Schutz gegen Cyberangriffe. Lösungen mit standardisierten Schnittstellen, Protokollen und Prozessen machen alles einfacher. 
  • Hybrid Cloud wird zur Basis: Edge Computing setzt eine gemeinsame Plattform voraus, über die der Stack als Erweiterung der Kerninfrastruktur aufgesetzt und verwaltet werden kann. Das schließt unter anderem auch Security-Aspekte wie Betriebssystemsicherheit, Identity- und Access-Management, Schwachstellenmanagement und Datenverschlüsselung ein. Eine offene Hybrid Cloud bietet eine solche einheitliche Anwendungs- und Betriebserfahrung – und zwar durch eine gemeinsame, durchgängige, horizontale Plattform über die gesamte Architektur hinweg, unabhängig davon, wo Workloads verarbeitet und gespeichert werden. Gleichzeitig werden alle Anforderungen im Hinblick auf Vorschriften, Resilienz und Kosten erfüllt. 
  • SASE erlaubt Kontrolle: Traditionelle Netzwerkarchitekturen stoßen im Zeitalter von Edge Computing an ihre Grenzen. Die Antwort darauf sind ausgereifte SASE (Secure Access Service Edge)-Lösungen, wie sie MSSPs (Managed Security Service Provider) im Angebot haben. Das SASE-Modell vereint umfassende SD-WAN (Software-Defined Wide Area Netzwerk)- und Netzwerksicherheitsfunktionen in einer Cloud-basierten Lösung, mit der Networking und Cybersicherheit zentral verwaltet werden. Im Kern geht es darum, dass die Sicherheitsfunktionen bereits am Netzwerkrand greifen und in großem Umfang umgesetzt werden.

Innovationen entwickeln sich durch den Austausch von Ideen. Gerade Edge Computing erfordert eine branchenweite Zusammenarbeit, um eine breite Vielfalt an Use Cases unterstützen zu können. Unternehmen brauchen interoperable, konsistente Lösungen, die den Aspekt Sicherheit von Grund auf berücksichtigen. Dann müssen sie auch keine Angst vor Fragmentierung, Vendor Lock-in oder Sicherheitsrisiken haben. Und genau hier wird Open Source interessant: Open Source und sein Partnernetzwerk helfen Unternehmen, das Beste aus Edge Computing herauszuholen.

​Weitere Informationen unter:
www.redhat.com

Cybersecurity im Automobilbau – eine Bestandsaufnahme

Théo Tamisier und Robin Liebe, beide Senior Consultant bei Q_PERIOR, liefern für uns eine fundierte Analyse, wie Cybersecurity entlang des gesamten Wertschöpfungs- und Lebenszyklus durch die OEMs im Autobau gehandhabt wird.

Die Verordnung UN R155 wurde umgesetzt und Cyber Security Management Systeme (CSMS) eingeführt. Nun müssen die daraus resultierenden Security-Prozesse in den Entwicklungs- und Produktionsumgebungen etabliert werden.

Die OEMs haben in den letzten Jahren intensiv an der Umsetzung der UNECE Verordnung R155 gearbeitet, da diese zukünftig essenziell für die Zulassung neuer und bestehender Fahrzeuge ist. Die Verordnung befasst sich mit der Cyber Security für Fahrzeuge und der Implementierung eines Cyber Security Management Systems (CSMS). Sie regelt die Absicherung des Fahrzeugs über den gesamten Lebenszyklus und ist eng mit der ISO-Norm 21434 verbunden. Ziel ist es, dass die Fahrzeuge von der Entwicklung – inklusive der beteiligten Governance-Prozesse – bis hin zum fertigen Produkt auf potenzielle Cyber-Security-Risken untersucht und bewertet werden. Diese Risiken gilt es adäquat zu adressieren.

Marktbetrachtungen zeigen, dass der Großteil der OEMs und Zulieferer bereits die für die UN R155 Regulierung notwendigen Prozesse und Strukturen eingeführt haben – oder kurz vor der Einführung stehen. Ihr CSMS ist an dieser Stelle konform zur Regulierung oder sogar bereits zertifiziert. Lässt sich daraus schließen, dass sie bereits für alle Aspekte der Regulierung gewappnet und ihre Produkte abgesichert sind? Leider nicht ganz. Neben dem Roll-Out des CSMS, müssen die Organisationen sicherstellen, dass alle Prozesse für die Entwicklung und Produktion die jeweiligen Security-Aktivitäten auch vollständig in die Praxis umsetzen. Genau dort steht noch einiges an Arbeit bevor. Gerade im Bereich des Incident Management für Fahrzeuge im Feld – also auf der Straße. Die neuen Herausforderungen im Bereich der CSMS-Anforderungen können hier aber mit bereits bekannten Zielen aus dem Bereich Information Security Management System (ISMS) verbunden und dort integriert werden, um Cyber-Risiken End-to-End zu bekämpfen. Die Aufgaben des ISMS zur Verwaltung und Überwachung der Security von Assets innerhalb des Firmennetzwerks decken sich eng mit den Aufgaben des CSMS für die Produkte.

Der Zusammenhang zwischen ISMS und CSMS

Einige wichtige Aspekte des CSMS lassen sich bereits durch bestehende Erfahrungen und Tools aus den ISMS lösen. Ein ISMS sorgt für den Schutz des Firmennetzwerks von außen und innen und greift dabei auf Governance Policies, Monitoring Tools und etablierte Sicherheitsmaßahmen zurück. All diese bestehenden Prozesse lassen sich mit wenig Aufwand erweitern, sodass auch die zusätzlichen Anforderungen eines CSMS abgedeckt werden können. Dabei sichert das ISMS zum Beispiel die vom Fahrzeug notwendigen Zugriffe auf die internen Firmenservices ab und das CSMS verarbeitet diese Daten dann konform zur ISO 21434. Die OEMs vermeiden damit die Anbindung und Absicherung eines weiteren Systems an die und vor der Außenwelt. Die für die ISMS notwendige Expertise und Erfahrung ist bereits in der Organisation vorhanden und OEMs können bei der Einführung von CSMS darauf zurückgreifen. Der folglich nächste notwendige Schritt zur weiteren Absicherung der Fahrzeugflotte wird jedoch deutlich komplexer.

UN R156 – Adoption und Implementierung von Software Update Management Systemen (SUMS) bleibt eine Herausforderung

Abb. 1: UNECE WP.29 – UN R156: Worum geht es?

Zuverlässigkeit und Geschwindigkeit bei der Bereitstellung von Updates ist von entscheidender Bedeutung

Fahrzeuge werden immer digitaler und vernetzter. Entsprechend müssen OEMs und ihre Zulieferer dafür sorgen, dass Updates für Systeme wie Advanced Driver-Assistance Systems (ADAS) und On-Demand-Funktionen zur Verfügung gestellt werden können. Diese Systeme bieten die Chance, den Nutzern zusätzlichen Komfort und Funktionen anzubieten. Allerdings implizieren Updates dabei auch neue Risiken in Bezug auf Cybersicherheit und Kompatibilität. Diese können Einfluss auf die Sicherheit des Fahrzeugs haben können. Die Geschwindigkeit der Bereitstellung dieser Updates ist für den Kunden dadurch von entscheidender Bedeutung.

Théo Tamisier: „Es ist von entscheidender Bedeutung, zu wissen – und zu dokumentieren – wie die tausende von Softwareteilen im Fahrzeug miteinander interagieren.“

Um dieser Herausforderung gerecht zu werden, wurde die Verordnung UN R156 für Softwareupdates und ein Software Update Management System (SUMS) veröffentlicht. Ein SUMS basiert auf dem gleichen Modell wie ein CSMS und fungiert als zentrale Kontrolleinheit für Softwareupdates. Es zielt darauf ab, alle Arten von Aktivitäten und Prozessen, die für die Updates unerlässlich sind, zu entwickeln, zu kontrollieren und im Laufe der Zeit kontinuierlich zu verbessern. Es bildet somit eine Brücke zwischen dem strategischen Update-Plan und dem täglichen Betrieb. Dabei stellt das SUMS die OEMs aber vor eine noch deutlich größere Aufgabe, da es das Management und die Verteilung von Over-The-Air (OTA)-Updates verantworten muss. Die Strukturen und Verantwortlichkeiten innerhalb von Organisationen sind bei diesem Thema oft nicht klar geregelt. Die meisten Ressourcen konzentrieren sich heute auf die Softwareentwicklung, während der Einsatz und die Überwachung der Software im Fahrzeuginneren eine mindestens ebenso wichtige Rolle in der Wertschöpfungskette spielen sollte. Daher ist es notwendig, diese Aktivitäten aufzubauen. Die Verordnung UN R156 weist genau in diese Richtung. Der Schlüssel zur Einhaltung der UN R156 liegt darin, die Herausforderungen hinter den Softwareupdates zu verstehen. Das heißt, OEMs benötigen einerseits Wissen über die Software und andererseits Wissen über die laufenden Systeme beziehungsweise die Flotte.

Das Wissen über die Software ist der erste Schlüssel zum Erfolg

Moderne Fahrzeuge sind komplex und beinhalten eine Vielzahl von Steuergeräten. Diese wiederum bestehen aus tausenden von Softwareteilen auf Basis verschiedener Hardwarekomponenten. Es ist von entscheidender Bedeutung zu wissen – und zu dokumentieren – wie diese miteinander interagieren. Dabei kommt es vor, dass unterschiedliche Softwarestände auf gleichen Komponenten laufen, beispielsweise durch ein Update während der bereits laufenden Produktion. Hier muss der OEM also ein Variantenmanagement einführen und dokumentieren, auf welcher Komponente welche Software mit welchen Randbedingungen für den Betrieb und die Wartung läuft. Das gilt vor allem auch für zugelieferte Komponenten. Zur erfolgreichen Umsetzung der UN R156 bedarf es, wie bereits erwähnt, jedoch noch eines weiteren Elements: OEMs benötigen Wissen über die laufenden Systeme respektive die Flotte im Feld.

Wissen über den Softwarestand der laufenden Systeme

Die laufende Softwareversion innerhalb eines Fahrzeugs muss zu jedem Zeitpunkt bekannt sein. Denn laut UN R156 muss vor einem Update sichergestellt werden, dass dieses kompatibel zu dem Zielsystem ist, auf das es ausgeliefert werden soll. Die hohe Anzahl der theoretisch möglichen Kombinationen von Software und Hardware führt zu einer komplexen Anzahl an validen Konfigurationen auf einem zu aktualisierenden Steuergerät. Es ist daher essenziell, die tatsächliche Konfiguration der eigenen Flotte zu jeder Zeit zu kennen und zu wissen, welcher Stand einer Software auf welchem Steuergerät in welchem Fahrzeug läuft. Angesichts der Probleme mit der Konnektivität und gegebenenfalls offline vorgenommenen Modifikationen (z.B. in einer Werkstatt) stellt diese Anforderung die nächste große Herausforderung dar.

SUMS erfolgreich implementieren: Was können Automobilhersteller tun?

Was sind nun die notwendigen Schritte, die OEMs aktuell und in den nächsten Monaten angehen müssen, um die UNECE R156 zu erfüllen und die Sicherheit ihrer Fahrzeuge weiter zu verbessern?

Robin Liebe: „Ist das Fahrzeug softwareseitig dokumentiert und nach UN R 156 zertifiziert, bieten sich ganz neue Lösungen, z.B. für das Flottenmanagement, an.“

Für das Variantenmanagement gibt es zwei mögliche Ansätze: entweder durch eine Integration des CSMS mit dem SUMS oder durch den Aufbau zweier separater Systeme mit gegebenenfalls doppelter Datenhaltung. Die Integration von CSMS und SUMS kann Synergien heben, denn das CSMS hat bereits Zugriff auf einige, für das SUMS wichtige Daten wie zum Beispiel aktuelle Informationen zum Fahrzeug im Feld. Allerdings entsteht so auch ein sehr komplexes System, welches dennoch robust genug sein muss, um Software zuverlässig und sicher auf die korrekten Systeme zu verteilen. Die beiden Systeme separat zu betreiben, scheint aus reiner Systemsicht zunächst weniger komplex. Allerdings muss in diesem Fall das SUMS Aufgaben übernehmen, die das CSMS bereits ausführt. Hierfür müssen Redundanzen aufgelöst oder koordiniert werden – beispielsweise das Schwach­stellen­management für im Feld befindliche Fahrzeuge.

Das Thema Flottenmanagement könnte über sogenannte Digital Twins gelöst werden. Die Idee hinter diesem Konzept besteht darin, eine digitale Version des verbundenen Objekts (hier ein Fahrzeug) zu erstellen, auf die jedes Update beziehungsweise jeder Befehl angewendet werden kann. Anschließend erfolgt die Synchronisierung mit dem Fahrzeug, um die neue Software bereitzustellen. So wird die Überwachung und Verwaltung des eigentlichen Fahrzeugs einfacher, da man nur einen Blick auf den Digital Twin werfen muss, um den Systemzustand zu kennen und Änderungen vorzunehmen. Es ist auch möglich, den Digital Twin des Fahrzeugs direkt mit anderen Systemen – zum Beispiel mit denen, die für die Überprüfung der Kompatibilität verantwortlich sind – zu verbinden. Somit wird die Bereitstellung von Updates durchgängig sichergestellt, auch wenn das eigentliche Fahrzeug zeitweise offline ist. Mögliche Konflikte, die zum Beispiel durch Offline-Modifikationen am Fahrzeug auftauchen, könnten durch den Digital Twin aufgelöst und getestet werden, bevor kritische Updates auf das eigentliche Fahrzeug übertragen werden.

Abb. 2: Wie können die Anforderungen der UN R156 umgesetzt werden?

Die beschriebenen Lösungsansätze werden bei ersten OEMs bereits verprobt. Die nächsten Monate werden zeigen, ob sich diese Ausrichtung am Markt etabliert oder ob doch noch anderen Konzepte gefunden werden müssen. Klar ist, dass das Thema CSMS und SUMS die gesamte Automobilbranche noch eine Weile beschäftigen wird. Sobald die ersten Systeme im Feld verwendet werden, müssen sich die Konzepte in der Praxis bewähren, indem sie aktiven Angriffen standhalten sowie Updates zuverlässig und möglichst reibungslos verteilen.

Weitere Informationen unter:
https://www.q-perior.com/


Bildquelle / Lizenz: Photo by Chris Liverani on Unsplash 

NFTs – Die Zukunft des digitalen Eigentums

Wie NFTs funktionieren und was dahinter steckt 

Gegenwärtig sind NFTs medial sehr präsent. Regelmäßig gibt es neue Berichte über Menschen, die durch den Handel mit NFTs sehr schnell zu viel Geld gekommen sind. Doch was steckt eigentlich hinter der doch eher kryptischen Abkürzung? Warum ist das Thema zukunftsweisend und was sind die Möglichkeiten eines NFTs? Eric Bartoletti, Head of Business Development bei Bookwire, einem global führenden Digital-Publishing Unternehmen und Entwickler der NFT-Plattform Creatokia, erklärt im folgenden Gastbeitrag die für das Verständnis notwendigen Grundlagen. Darüber hinaus verdeutlicht er, warum das Thema NFT zurecht so viel Aufmerksamkeit erhält und welche Rolle Creatokia für die Zukunft des Digital Publishing spielt.

Wofür steht NFT?

Das Grundlegende zuerst: NFT steht für „Non-Fungible Token”. „Non-Fungible” bedeutet, dass der Token einzigartig und somit nicht austauschbar ist. Um es mit der bekanntesten Kryptowährung Bitcoin zu erklären: Ein Bitcoin ist „fungible” – also austauschbar: Ein Bitcoin kann jederzeit gegen einen anderen Bitcoin getauscht werden, ohne dass sich der Wert ändert. Für den/die Besitzer macht es also keinen Unterschied, ob er diesen oder eben einen anderen Bitcoin besitzt, wie bei regulären Währungen auch. Ein NFT hingegen ist stets ein Unikat und damit einzigartig. Dies wird insbesondere dann offensichtlich, wenn ein NFT mit einem digitalen Inhalt, zum Beispiel einer speziellen Sammelkarte oder einer digitalen Erstausgabe eines Buches verknüpft wird. Wird der entsprechende NFT gegen einen anderen getauscht, besitzt man zwar immer noch einen einzigartigen NFT, der jedoch mit einem anderen Inhalt verknüpft ist, womit sich auch der Wert des einzelnen NFTs vom vorherigen unterscheiden kann. 

Wie funktionieren NFTs?

Als Basis für NFTs dient die Blockchain. Diese Technologie ermöglicht es, die Inhaber einer Datei eindeutig, fälschungssicher und frei zugänglich zu identifizieren. Die meisten NFTs basieren auf der Ethereum-Blockchain, so wie auch unsere NFT-Plattform Creatokia.

Die Ethereum (ETH) Blockchain zeichnet sich dadurch aus, dass sich nicht nur Token auf ihr speichern lassen, sondern mit diesen weiteren Funktionalitäten verknüpft werden können. Dies geschieht über sogenannte Smart Contracts, welche eine Voraussetzung für den Handel mit NFTs sind (deshalb gibt es bspw. keine NFTs auf Bitcoin). Der Smart Contract definiert, was ein NFT kann und welche Informationen mit ihm verknüpft sind. Dadurch, dass NFTs jeweils einzigartig sind, lassen sich mit jedem NFT auch individuelle Informationen und Dateien verknüpfen. Durch diese Verknüpfung entsteht eine neue Form von digitalem Produkt: ein Digitales Original. So entsteht die Möglichkeit, durch NFTs Kunst, GIFs, Musik, Sammlerstücke, Bilder und vieles mehr digital zu sammeln, tauschen und zu verkaufen. Die erste Plattform speziell für die Publishing-Industrie wird Creatokia sein: NFT Bücher, Hörbücher und weitere literarische Werke werden dort als digitale Originale gekauft, gehandelt und gesammelt werden. Für Autoren und Autorinnen wird es die Möglichkeit geben, ihre Werke bei uns zu veröffentlichen und direkt am Verkaufserlös beteiligt zu werden. Publisher können Bücher neben der Veröffentlichung auf den üblichen E-Book-Plattformen bei Creatokia als limitierte Sonderauflagen veröffentlichen. 

Übrigens: Auch wenn NFT erst jetzt so richtig in aller Munde sind, gibt es die Non-Fungible Token schon seit 2014.

Aber warum sollte man NFTS anbieten oder kaufen?

Eine berechtigte Frage, die sich relativ einfach beantworten lässt: Die große Stärke der NFTs liegt in der Blockchain. Der digitale Besitz ist in der Blockchain festgehalten und unveränderlich. Sowohl die Urheberin / der Urheber als auch die Besitzerin / der Besitzer eines Digitalen Originals kann digital nachgewiesen werden. Wird der Token weitergegeben (z. B. durch einen Verkauf), wird auch dies in der Blockchain festgehalten. Darüber hinaus ist außerdem eindeutig für jeden nachvollziehbar, wie viele NFTs es zu einem bestimmten Produkt oder Inhalt gibt. Hierdurch wird eine limitierte digitale Auflage erst sinnvoll umsetzbar. 

Über die Smart Contracts lassen sich die NFTs handeln, wodurch ein digitaler Sekundärmarkt entsteht. Hieran können erstmals auch die Urheberinnen und Urheber partizipieren. Dank der Smart Contracts kann von jeder Transaktion ein bestimmter Prozentsatz an den Erstverkäufer abgeführt werden, wodurch sich im Idealfall langfristige Einnahmen generieren lassen. 

Ein praktisches Beispiel

Um das Thema etwas greifbarer zu machen, möchte ich den Nutzen und die Vorteile von NFTs gerne am Beispiel unserer neuen Plattform Creatokia verdeutlichen. Auf Creatokia erhalten Publisher, Sammlerinnen und Sammler, Buchliebhaberinnen und -liebhaber, Kreative und natürlich alle anderen Interessierten Zugang zu Sammlerstücken und Unikaten aus der digitalen Buchwelt. Digitale Originale wie etwa Erstausgaben, (Hör-)Bücher und weitere literarische Werke können auf Creatokia gehandelt werden. Autorinnen und Autoren erhalten die Möglichkeit, ihre Werke direkt über die Plattform zu verkaufen. Publisher können Bücher zusätzlich zu ihrem Angebot auf klassischen E-Book-Shops auch als limitierte NFT-Sonderauflagen anbieten. Und natürlich können Leserinnen und Leser sowie Buchfreunde diese Werke kaufen, sammeln, weiterverkaufen und gleichzeitig von besonderen Vorteilen profitieren (z. B. Zugang zu exklusiven Inhalten durch den Besitz eines bestimmten NFTs). 

Wie NFTs kaufen?

Wer NFTs kaufen möchte, benötigt in der Regel ein sogenanntes Krypto-Wallet, also quasi einen digitalen Geldbeutel, in dem Kryptowährungen und NFTs gespeichert werden. Die Kryptowährung kann mit konventionellen Währungen erworben und anschließend in der digitalen Geldbörse gespeichert werden. Weiterverkäufe finden dann über die Ethereum-Blockchain und das eigene Krypto-Wallet statt.

Fazit

NFTs sind die Zukunft des digitalen Publishings und die neue Wertanlage in Zeiten von Web 3.0.  Sammler /Sammlerinnen sowie Liebhaberinnen und Liebhaber von Unikaten haben so die Chance, seltene Exemplare und Einzelstücke zu erwerben und nachweislich alleinig zu besitzen. Die Welt der NFTs wird für viele immer greifbarer und stößt auf ein immer breiteres Interesse. Auch wenn das Thema zugegebenermaßen noch recht komplex ist, wird der Einstieg immer einfacher. Mit Creatokia bieten wir auch für weniger technikaffine Interessenten die optimale Lösung: Egal ob Bücher, Kunstwerke oder Musik– in der digitalen Welt ist mit NFTs so ziemlich alles denkbar und somit letztendlich auch für jeden Geschmack etwas dabei. 


Über den Autor

Eric Bartoletti hat BWL in Passau studiert und sich schnell als Berater im Bereich für Geschäftsentwicklung selbständig gemacht. Damals schon in Frankfurt am Main zog es ihn in die Publishing Branche. Seit 2018 ist Eric Bartoletti Head of Business Development bei Bookwire und engagiert sich derzeit für die NFT-Plattform Creatokia. Diese Plattform ermöglicht den Kauf, den Handel und das Sammeln von NFT-Büchern, Hörbüchern und anderen literarischen Werken als Digitale Originale. 


Weitere Informationen unter:
www.bookwire.de

Digitale Bedürfnisse in der Corona-Krise

EY-Studie: Deutsche wünschen sich Transparenz, Verlässlichkeit und Sicherheit im Internet.

Für die Verbraucher in Deutschland stellt die Covid-19-Pandemie einen tiefen Einschnitt dar – schneller und früher haben sie sich an neue digitale Lösungen gewöhnen müssen und diese mittlerweile in ihren Alltag integriert. Doch die Integration ging einher mit einem klaren Anspruch: auf Verlässlichkeit, Transparenz und Sicherheit. 

Die neue digitale Normalität während der Pandemie zeigt sich in der verstärkten Nutzung von mobilen Endgeräten. So haben Videokonferenzen im privaten und beruflichen Bereich stark zugenommen, auch die Bildschirmzeit der Menschen in Deutschland stieg an.

Die vermehrte Nutzung der Bildschirme führt zu Bedenken: 25 Prozent der Verbraucher achten stärker darauf, wie das Internet ihr Wohlbefinden beeinflusst, während 20 Prozent Videogespräche im Lockdown ermüdend fanden. 23 Prozent sorgen sich stärker um Datenschutz und die Sicherheit ihrer Daten. 

Sorgen machen sich Deutsche auch um Fake News – im internationalen Vergleich sind aber die Bürger der Nachbarländer Frankreich und Italien, und auch Nutzer im Vereinigten Königreich sowie in Kanada und den USA besorgter. In Deutschland finden 51 Prozent, dass die Behörden mehr gegen Fake News unternehmen könnten, 61 Prozent nehmen die Plattformen, wie bspw. die der sozialen Medien, in die Pflicht.

„Die Bekämpfung von Fake News liegt in der gemeinsamen Verantwortung von Behörden und Plattformen. Wir müssen zusammenarbeiten, nicht konkurrieren“, sagt Olaf Riedel, Leiter des Bereichs Technologie, Medien und Telekommunikation bei EY. 

Bei ihrer Internetverbindung sind die Deutschen sensibel. Während sie keine vollumfängliche Betreuung wünschen, haben sie einen einfachen Anspruch: „Neben hoher Geschwindigkeit und individuell passenden Features erwarten sie ein verlässliches, transparentes und faires Leistungsangebot. Es soll einfach funktionieren“, erklärt Riedel.

Mit 49 Prozent ist weiterhin fast die Hälfte der befragten Menschen unter 24 Jahren bereit, mehr Geld für eine unbegrenzte mobile Datennutzung zu zahlen. An diesen Zahlen erkennt man den steigenden Bedarf an allgemeiner mobiler Konnektivität. Aus diesem grundsätzlich höheren Bedarf leiten sich auch die Potenziale von 5G und insgesamt schnelleren Verbindungen ab.

Die Ergebnisse zeigen: Die Corona-Pandemie hat viele Menschen in Deutschland dazu bewogen, sich mit ihren digitalen Bedürfnissen auseinanderzusetzen. Die drei zentralen Punkte – Transparenz, Verlässlichkeit und Sicherheit – zeigen, dass die Verbraucher ein funktionierendes Internet voraussetzen: Es soll einfach funktionieren.

Weitere Ergebnisse der Studie zusammengefasst:

  • Die Zahlungsbereitschaft für Zusatzleistungen bei Breitband, Handy oder Streaming ist in Deutschland gering.
  • Nur 13 Prozent der Haushalte planen zusätzliche Ausgaben, etwa für Breitbandgeschwindigkeit.
  • Bei der Bewertung der Internetgeschwindigkeit zählen für die Deutschen keine hochtrabenden Versprechen.
  • Jeweils 53 Prozent erwarten eine konstante Geschwindigkeit sowie konsistentes WLAN im ganzen Gebäude. Für Anbieter bedeuten die Ergebnisse, dass sie sich mit der Verschiebung der Bedürfnisse ihrer (potenziellen) Kunden auseinandersetzen sollten.

Über die Studie:

Um ein faktenbasiertes Bild der weltweiten Digitalisierungslage im Kontext der Corona-Krise zu erhalten, hat EY im Rahmen der Digital Household Study Menschen in Deutschland, Frankreich, Italien, Großbritannien, Kanada und den Vereinigten Staaten zu Digitalisierung und Medienkonsum befragt.

In Deutschland nahmen insgesamt 2.504 Personen im Alter von über 18 Jahren teil. 50,2 Prozent der befragten Personen identifizierten sich als männlich, 49,5 Prozent als weiblich, 0,3 Prozent als divers.

Die beiden größten vertretenen Altersgruppen waren jene der 45- bis 54-Jährigen sowie jene der 55- bis 64-Jährigen. 

Zusätzliche Informationen entnehmen Sie bitte der Internetseite www.de.ey.com.

Ansprechpartner für die Medien:

Dag-Stefan Rittmeister,
Leiter Presse- und Öffentlichkeitsarbeit            
Ernst & Young GmbH Wirtschaftsprüfungsgesellschaft  
Flughafenstraße 61, 70629 Stuttgart                                                    
E-Mail: dag-stefan.rittmeister@de.ey.com

Marius Bienias,
Senior Account Executive
Edelman GmbH
E-Mail: EY@edelman.com

Female Leadership in der Paymentbranche


Von Enny van de Velden, CCV Group

Führen Frauen wirklich anders?

„Female Leadership“ ist per se ein seltsamer Ausdruck. Es gibt männliche und weibliche Chefs und gute und schlechte Führung. Daraus einen Gegensatz zu konstruieren „Frau – schöne Soft Skills – gute Führung“ und „Mann – hart im Auftritt und im Nehmen – schlechte Führung“ ist ein wenig naiv. Das zumindest ist meine Erfahrung. Als ich bei CCV anfing, waren die Branche und auch das Unternehmen noch ziemlich männlich geprägt und ich wusste, wenn ich hier Chefin werden will, muss ich diese Führungsfähigkeit auch ausstrahlen. Also habe ich von Anfang signalisiert: Hier bin ich der Boss! Ist das männliches Verhalten? Nun, auch Frauen müssen sich manchmal so geben, wenn sie einen bestimmten Job wollen.

Mit meinem persönlichen Führungsstil hat das allerdings wenig zu tun. Als Person bevorzuge ich die Rolle als Coach. Ich genieße es, Mitarbeitern zu helfen ihren Platz zu finden, sich weiterzuentwickeln. Ich gebe meinen Leuten jede Menge Freiheit, ich vertraue ihnen und glaube fest daran, dass sie ihr Bestes geben. Und wenn es klemmt, können sie jederzeit zu mir kommen und Unterstützung erbitten. Ich suche immer nach einer Win-Win-Lösung für alle Beteiligen, auch im Umgang mit Partnern oder Zulieferern. Weibliches Verhalten? Nein, denn jeder gute Chef verhält sich so.

„Ich habe von beiden viel gelernt und glaube, dass ein Führungsstil, der weibliche und männliche Züge verbindet – wie von meinen Eltern praktiziert – für jede Organisation wichtig ist.“

Enny van de Velden

Gleichzeitig bin ich jemand, der viel Zeit mit strategischen Überlegungen verbringt. Meine Stärke ist es, die Dinge immer wieder aus einem neuen Blickwinkel zu betrachten, neue Ideen zu entwickeln und Lösungen zu finden. Männlich? Nö, denn jeder gute Unternehmer braucht eine strategische Ader.

Ich bin die Tochter von zwei starken Führungskräften, die 1958 auf dem Dachboden begonnen haben, das aufzubauen, was heute als Marktführer in der Bezahlbranche bekannt ist: die CCV Gruppe. Diese über 60 Jahre lange Erfolgsgeschichte hat mich sehr geprägt.

Meine Mutter war im Unternehmen für den Teamgeist verantwortlich und mein Vater agierte als der Stratege. Ich habe von beiden viel gelernt und glaube, dass ein Führungsstil, der weibliche und männliche Züge verbindet – wie von meinen Eltern praktiziert – für jede Organisation wichtig ist.

Gerade jetzt zu dieser Zeit einer Pandemie, mit dezentralem Arbeiten, New Work und physischer Distanz, in der wir eine Balance brauchen zwischen Effizienz, Rationalisierung und Leistungsorientierung einerseits und einer mehr emotionalen Ebene andererseits, die für ein Gefühl der Verbundenheit unter den Menschen sorgt – und für Identifikation.

Dringend gesucht: Weibliche Rollenvorbilder!

Dennoch musste ich als junge Frau erst lernen, mir selbst zu vertrauen. Es hat mich ein paar Jahre gekostet, bis ich das nötige Selbstvertrauen entwickelt hatte, um die Rolle als Chefin auch wirklich auszufüllen. Geholfen hat mir, dass ich mich nicht gefürchtet habe, um Hilfe zu bitten oder mir einen Coach zu suchen. Gleich bei meinem ersten Job hatte ich eine Mentorin und über die Jahre habe ich es geschafft, immer jemanden zu finden, der mich in meiner Entwicklung unterstützte.

Deswegen ist das Thema Chefinnen in der Technologiebranche – und spezifisch auch im von High-Tech geprägtem Payment-Sektor – so wichtig. Studien zufolge gibt es weniger als elf Prozent weibliche Führungskräfte im Silicon Valley und auch in deutschen Technologieunternehmen sind nur etwa 17 Prozent aller Positionen mit Frauen besetzt. Viele Frauen fürchten sich in dieser von Männern dominierten Welt, ihre Chancen auf eine Position auf der Führungsebene auch wirklich zu ergreifen. Wir brauchen also dringend mehr Rollenvorbilder im High-Tech-Sektor, denn hier kann die Inspiration durch andere Frauen einen großen Unterschied machen. Auch um zu zeigen, dass es darum geht, einen eigenen, authentischen Führungsstil zu entwickeln und nicht nur darum, männliche Verhaltensweisen zu imitieren.

Auch deswegen habe ich den Bep van de Velden Award gegründet, zu Ehren meiner Mutter. Sie war ein Rollenvorbild für mich – genauso wie für viele andere Geschäftsfrauen und das wollte ich auch nach ihrem Tod im Jahr 2018 mit dieser Initiative in die Zukunft tragen. Unsere Mission ist es, weibliche Unternehmer zu fördern. Wir zeichnen junge Frauen mit guten Ideen und unternehmerischen Ambitionen aus, nicht nur in der Technologiebranche. Die erfolgreichen Bewerberinnen kommen aus allen Ecken und Enden der Wirtschaft und Gesellschaft.

Diversity macht erfolgreich

Ich glaube nämlich fest daran, dass ein entscheidendes Charakteristika der Führungskräfte der Zukunft ihre Fähigkeit sein wird, Zusammenarbeit zu steuern. Die Kooperation zwischen Teams, Generationen, Geschlechtern und Kulturen. Das geht nur mit einem integrativen Ansatz – und Unternehmen, die einen solchen erfolgreich etablieren, sind nachweislich erfolgreicher als heterogene Traditionsbetriebe.

Integration bedeutet vor allem auch, die Leute wirklich ernst zu nehmen. Die einzelnen Abteilungs- oder Bereichsleiter kennen sich im Detail viel besser aus als der Boss. Die Topführungskraft kann nur dann die richtigen Entscheidungen treffen, wenn sie von ihren Teams gut beraten wird. Es ist gut, ein Vorstandsmitglied zu sein, aber wir haben nicht die Erfahrung in jedem Teilbereich, wir brauchen Input. Deswegen haben wir im Unternehmen – wo inzwischen zwei von drei Vorständen weiblich sind – ein Executive Committee eingeführt. Dort sind alle Führungskräfte und auch einzelne Fachleute vertreten und wir treffen die Entscheidungen nun gemeinsam. Formell muss der Vorstand diese Entscheidungen absegnen, aber der eigentliche Job passiert im Executive Committee.

Gleichzeitig gilt, dass die Führungskräfte dort ihrerseits stärker von ihren Teams beraten und unterstützt werden als das noch vor zehn Jahren der Fall gewesen ist. Einen kooperativen Führungsstil kann man nicht über Nacht einfach installieren, das muss wachsen und sich entwickeln. Ich bin jedoch überzeugt, dass dies der richtige Weg ist, drei oder vier Leute ganz oben in einer Hierarchie können nicht alle Details in einer Organisation kennen und schon gar nicht alle Ideen und alle Pläne alleine entwickeln.

Ist das männlich geführt oder weiblich gedacht? Ganz egal, es ist erfolgreich. Und darauf kommt es letztlich an!

https://www.ccv.eu/de/

Aufmacherbild / Quelle / Lizenz
Photo by Brett Jordan on Unsplash

Neues Projekt soll Lkw-Güterverkehr revolutionieren

Am 08.12.2021 fällt der Startschuss für STAFFEL. Das Forschungsprojekt soll im Lkw-Güterverkehr Transportzeiten halbieren und Lenkzeitverschwendung reduzieren. Die Projektpartner FIR an der RWTH Aachen, MANSIO GmbH, PEM Motion GmbH sowie das Deutsche Institut für Normung e. V. (DIN) entwickeln dazu gemeinsam eine KI-gestützte Internetplattform für den speditionsübergreifenden Staffelverkehr. Sie soll wesentlich zur effizienten Gestaltung von Lkw-Transport-, Lenk- und Ruhezeiten beitragen. Das Projekt STAFFEL wird im Rahmen der Innovationsinitiative mFUND mit insgesamt 1,5 Millionen Euro durch das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) gefördert und soll bis Mai 2024 abgeschlossen sein.

Mithilfe von KI-Algorithmen sollen Langstrecken in Teilstrecken zerlegt und anschließend über einen Lenkzeiten-Marktplatz zwischen Speditionen und Frachtführern anhand von Echtzeitdaten (z. B. Verkehr, Infrastruktur) vermittelt und damit optimiert werden. Smarte Technologien zur Diebstahlsicherung gewährleisten die sichere Übergabe der Trailer.

Die Einhaltung der Lenk- und Ruhezeiten führen im Straßenverkehr zu Transportunterbrechungen. Gerade auf Langstrecken kommt es dadurch zu einer erheblichen Verlängerung der Transportzeit und einem erhöhten Parkplatzbedarf. Die neue Plattform hilft KI-gestützt, solche Unterbrechungen zu vermeiden und Trailer am Ende der Lenkzeit an ausgeruhte Fahrer zu übergeben. Gleichzeitig wird Lkw-Fahrern ermöglicht, vermehrt Teilstrecken zu fahren und häufiger am Heimatort zu bleiben. Lenkzeitüberschreitungen, Parksuchverkehr und Anwohnerärger durch wildes Parken werden erheblich reduziert.

Ebenso hat die KI-gestützte Synchronisierung der Fahrstrecken positive Effekte auf die CO2-Emissionen. Auf deutschen Autobahnen fehlen laut Bundesverkehrsminister Andreas Scheuer ca. 30.000 Lkw-Parkplätze. Wildparkende Lkw verursachen Unfälle, belästigen Anwohner und begünstigen Ladungsüberfälle mit jährlichen Schäden in Höhe von 300 Millionen Euro, so der GDV (Gesamtverband der Deutschen Versicherungswirtschaft).

„Die Logistikbranche unterliegt einem stetigen Wandel und steht vor komplexen Herausforderungen. Wir freuen uns, im Rahmen des Projekts STAFFEL einen Beitrag zur effektiveren Gestaltung des Straßengüterverkehrs leisten zu können,“ kommentiert Tobias Schröer, Projektleiter seitens des FIR und Bereichsleiter Produktionsmanagement am FIR an der RWTH Aachen.

Nach dem Kick-off am 08.12.2021 starten die Projektpartner mit einer detaillierten Anforderungsanalyse. Anschließend werden die Plattform und das Diebstahlsicherungssystem prototypisch entwickelt und in zwei Feldversuchen validiert: Im ersten Feldversuch werden regionale Transportunternehmen über einen Lenkzeitenmarktplatz miteinander vernetzt, im zweiten Wechselstationen entlang einer Hauptverkehrsroute etabliert und der Staffelverkehr praktisch erprobt. Ziel ist es, Effekte, Potenziale und Herausforderungen für den Lkw-Güterverkehr zu identifizieren und eine europaweite Umsetzung, auch unter Berücksichtigung der Standardisierung, vorzubereiten.

Weitere Informationen unter:
staffel.fir.de

„Unternehmen müssen besser zuhören“

Wir sprachen mit Martin Meyer-Gossner Qualtrics über Datenerhebung und -qualität und wo auf dem Weg zum datengetriebenen Unternehmen Potenziale verschenkt werden.

Unternehmen – insbesondere im E-Commerce – arbeiten seit Jahren daran, ihre Kunden besser kennen zu lernen. Welche Wettbewerbsvorteile bieten Sie Ihren Kunden?
Die meisten Unternehmen stehen vor denselben Herausforderungen: Webseitenoptimierung, Warenkorbabbrüche und Wiederkaufsraten. Die daraus resultierenden Fragen nach Erwartungen, Erfahrungen und Erlebnissen von Kunden sind offensichtlich. Was muss an den Inhalten und der Struktur der Website oder dem Angebot optimiert werden, damit die Awareness steigt? Warum finden die Kunden die Produkte auf der Website, aber bestellen nicht? Welche Zahlungsoptionen sollten geboten sein, damit die Verbraucher im Bestellprozess nicht abspringen? Wie lassen sich die Prozesse im E-Commerce-verbessern, um die Zufriedenheit und Loyalität der Kunden zu steigern?
Mit der Qualtrics-Lösung „Experience ID“ können die unstrukturierten (Meinungen aus den Social-Media-Kanälen) und strukturierte (Abfragen gestütztes Feedback) Experience-Daten gesammelt, analysiert und in schnelle Workflows ableitet werden. Wenn ein Kunde beispielsweise einen gefüllten Warenkorb hat und für eine gewisse Zeit untätig ist, kann er anhand eines Website-Intercepts gefragt werden, ob er noch etwas für den Kauf benötigt oder anderweitig Hilfe braucht. Zudem lässt sich die Motivation des Besuchers hinterfragen, um die Customer Journey besser zu verstehen und entsprechende Ableitungen zur Website-Optimierung zu treffen. Unternehmen reichern so nicht nur ihre CRM- und Marketingdaten an, es lassen sich auch Segmentierungen und Panels bilden, mit denen sie aktiv an neuen Kampagnen arbeiten können. Auch Bewertungen und Meinungen aus sozialen Medien können identifiziert und mit Umfragen verglichen werden, um so über alle Kanäle Erfahrungslücken zu erkennen.

Nun ist der Handel als Branche sicher ein Vorreiter. Haben denn mittlerweile die meisten Unternehmen begriffen, welche Chancen darin liegen, datengetrieben zu sein auch im Hinblick auf die Kundenbeziehungen? Oder anders gefragt: Wie viel Potenzial wird noch zu häufig verschenkt? 
Die B2C-Industrie hat den Mehrwert von Customer Experience, Voice-Of-Customer-Programmen oder Net Promoter Score (NPS)-Messung schon lange auf dem Schirm. Interessanterweise beschäftigen sich immer mehr B2B-Unternehmen mit dem Thema. Viele stellen sich die Frage: wie kann ich die Effizienz meiner Vertriebsmannschaft erhöhen oder wie kann ich den Kundendienst besser aufstellen? Besonders dann, wenn weitere Partner wie Händler oder Technikanbieter involviert sind – oft dringt da das Kundenfeedback gar nicht bis zum Hersteller durch. Problematisch wird es dann, wenn am Ende der Dienstleister schlecht bewertet wird, obwohl das Problem mit dem Prozess oder dem Produkt eigentlich beim Hersteller liegt. 
Es zeigen sich – neben den offensichtlichen Anwendungsfällen wie einer Zufriedenheitsabfrage per E-Mail nach dem Einkauf oder einem Gespräch mit dem Kundendienst– auch andere Fälle: So nutzen etwa Unternehmen aus der Chemiebranche oder dem Gesundheitswesen unsere Lösung, um automatisiert schnell nachzuhaken, ob beispielsweise bei einer Teststellung die Lieferung in Ordnung war, wie der Test lief oder ob weitere Lieferungen geplant sind. So lassen sich sowohl für die Produktionsplanung als auch für die Vertriebsmannschaft wertvolle Einblicke in die verschiedenen Industrien und deren Bedarf ermitteln, was bei diversen Unternehmen die Lead-Generierung und die Kunden im Sales-Funnel weiterführt. 

Wo sehen Sie Ihre Lösung im Kontext des Wettbewerbs positioniert? 
Qualtrics hat in den letzten Jahren stark in den Ausbau und die Entwicklung seiner Experience-Management-Plattform investiert. Zudem wurde mit gezielten Zukäufen in den Bereichen Conversational Analytics (Clarabridge) und Customer-Journey-Orchestrierung (Usermind) die Gesamtlösung erweitert. Generell legen wir großen Wert auf Agilität und Flexibilität der Plattform, denn am Ende sind die Schnittstellen zu den führenden Technologie-Plattformen im Bereich Customer-Relationship-Management (CRM), Marketing Automation oder Ticketing, die Experience- und operative Daten zusammenbringen.
Natürlich hat uns auch die Beziehung zu SAP als Software-Multivendor zahlreiche technologische Schnittstellen und Partnerschaften ermöglicht: So können die Mitarbeiter der Kunden in den Systemen arbeiten, die sie gewohnt sind. Beispielsweise haben wir erst kürzlich eine Lösung für das Business Process Management mit Signavio gelauncht, die Business Process Mapping und Experience Management für Kunden, Mitarbeiter und Zulieferer vereint. 
Ein Kunde hat neulich gefragt, ob die Analysten nicht ihre Quadranten erweitern müssten, weil Qualtrics mit der Breite seiner Lösung gar nicht mehr reinpassen würde. Auch wenn wir immer noch besser werden wollen und alles dafür tun, freut es einen natürlich ein solchen Kommentar zu hören. 

Welche Trends sehen Sie für die kommenden 12 Monate? 
In unserem kürzlich erschienenen Global Consumer Trends Report 2022 sagen 63 Prozent der 24.000 weltweit befragten Konsumenten, dass die Unternehmen beim Zuhören besser werden müssen, wenn sie Feedback von ihnen bekommen. Zugleich sind zwei Drittel der Verbraucher willig, mehr Geld bei Unternehmen auszugeben, die ein gutes Experience Management bieten. Im Report finden sich zudem konkrete Vorschläge der erwarteten Verbesserung: Preise und Gebühren, Kundendienst, Produktfunktionen aber auch Simplifizierung werden als Handlungsfelder definiert. 
Entscheidend wird aber zukünftig sein, wie schnell und personalisiert ein Unternehmen auf Kunden-Feedback reagiert. Oft werden die Rückmeldungen zwar gehört und analysiert, aber keine klaren Handlungsabläufe abgeleitet. Dabei haben die Kunden Zeit investiert, für die sie wertgeschätzt und nicht als Nummer wahrgenommen und behandelt werden wollen. Unternehmen, die ihr Mindset für 2022 auf Empathie stellen, werden definitiv als Gewinner aus dem Jahr herausgehen.  

Über den Interviewpartner

Martin Meyer-Gossner ist Customer Experience (CX) Solution Strategy Lead für die DACH Region bei Qualtrics. In seiner Funktion unterstützt er die Kunden des Experience-Management-Spezialisten bei der strategischen Konzeption und Ausarbeitung ihrer Experience-Strategie über sämtliche Touchpoints der Kunden hinweg. Er profitiert dabei von seiner langjährigen Erfahrung als strategischer Unternehmensberater, gefragter Sprecher und Moderator führender Digitalevents.


Weitere Informationen unter:
https://www.qualtrics.com/de/

Künstliche Intelligenz (KI): Erwartungen vs. Realität

Bildquelle Aufmacher: Getty Images/iStockphoto

In futuristischen Filmen und den Nachrichten sehen wir sie mal als Risiko für unsere persönliche Privatsphäre, mal als Rettung der Menschheit: Künstliche Intelligenz (KI) hat bereits Einzug in den Alltag genommen, beispielsweise durch Produkte und Dienstleistungen wie Spracherkennung, intelligente Assistenten oder Suchempfehlungen. Gastautor Dr. I.P. Park, President & Chief Technology Officer bei LG Electronics, beschreibt die Potenziale und vor allem den richtigen Einsatz in der Praxis.

Nachrichten und die Popkultur beeinflussen die öffentliche Wahrnehmung von Künstlicher Intelligenz enorm. Oft zeigen sie jedoch ein viel höheres Niveau der Technologie als es derzeit möglich ist. So erhöhen sie die Erwartungen der Gesellschaft an KI und beeinflussen gleichzeitig die Wertvorstellungen der Menschen: Die Technologie kann dabei – je nach Ethik und Werten ihrer Entwickler und Anwender – entweder einen Vorteil bringen, indem sie bei der Lösung unterschiedlichster Probleme hilft oder ein Risiko darstellen, welches beispielsweise Arbeitsplätze gefährdet. Durch Science-Fiction-Filme wie Iron Man und Ex Machina sind die Ansprüche an Künstliche Intelligenz extrem hoch. Sie zeigen sie auf oder über menschlichem Niveau. Das kann manchmal in der Realität zu Verwunderung über den tatsächlichen Stand von KI führen. Nichtsdestotrotz wird Künstliche Intelligenz aktuell bereits erfolgreich in Produkten und Dienstleistungen angewendet.

Welche KI-Anwendungsszenarien werden aktuell in der Praxis eingesetzt?

Ob zur Verarbeitung von Kundenfeedback, zur Prüfung und Zuordnung von Rechnungen und anderen Dokumenten oder durch „lernfähige“ Staubsaugerroboter, die dank KI in der Lage sind, ihr Reinigungsergebnis zu verbessern: In vielen Produkten ist Künstliche Intelligenz bereits heute im Einsatz, ohne, dass es Nutzern bewusst ist. Waschmaschinen erkennen beispielsweise die Menge der Wäsche und stimmen Wasser, Waschmittel und Energie selbstständig darauf ab, um Ressourcen zu schonen. Die optimalen Einstellungen für das Fotografieren mit dem Smartphone wählt ebenfalls die Künstliche Intelligenz aus. Sie ermittelt aus tausenden Referenzbildern automatisch die passenden Einstellungen.

Vernetzte Geräte informieren über den aktuellen Programmstatus und versenden Benachrichtigungen und Informationen für ihre Wartung und den anfallenden Service. KI ermöglichen bereits Geräte, die bis zu einem gewissen Grad mitdenken und ihren Nutzern praktische Tipps und Vorschläge geben, um den Alltag weiter zu erleichtern, effizienter und sicherer zu gestalten.

Die Vernetzung von Elektrogeräten nimmt dabei als einer der wichtigsten Trends besonders schnell zu. KI ermöglicht immer vielseitigere und leistungsfähigere Produkte mit erhöhter Funktionalität und Effizienz und steigert Komfort und Benutzerfreundlichkeit. Vernetzte Geräte beispielsweise tauschen Informationen untereinander aus, erfassen persönliche Gewohnheiten und machen darauf basierend Optimierungsvorschläge. Ihre Nutzer sparen Zeit und Ressourcen und erhalten durch passende Apps Tipps zum Energiesparen, für die Wäsche oder die Ernährung.

Auch im Heimkino findet KI bereits Anwendung. Sie sorgt beispielsweise im Hintergrund für optimierte Sound-Einstellungen für Musik und verschiedene Film-Genres. Mit Hilfe einer stetig wachsenden Datenbank optimiert die KI permanent das Klangbild und passt es an die aktuelle Szene an. Dazu analysiert die Künstliche Intelligenz das Programm während der Wiedergabe und ändert den Klangfokus von Dialogen über Umgebungsgeräusche bis zur Hintergrundmusik. So kann sie sogar räumlichen Surround Sound erzeugen, wo keiner ist.

Können KI-Systeme intelligente, nachvollziehbare Entscheidungen treffen?

Aktuell ist der Begriff „intelligent“ allerdings noch etwas irreführend. Die derzeitige Methode entspricht eher der „Automatisierung“. Wissenschaftler, Maschinen und Geräte sammeln Daten für die Technologieentwicklung im Labor, übersetzen sie in feste Regeln und wenden sie auf Produkte und Dienstleistungen an. Daten, die im Alltag gesammelt werden, können sich jedoch stark von den im Labor erhobenen Daten unterscheiden. Das überfordert regelbasierte Maschinen, die auf bereits vorhandenen Daten aufbauen. Zunächst sind die Maschinen „adaptiv“, sie sammeln verschiedene Daten von realen Nutzern. Auf dieser Grundlage lernen sie neu oder kontinuierlich, die Leistung zu erhalten oder zu verbessern. Derzeit verbirgt sich also noch „Deep Learning“ hinter der adaptiven Technologie – also eine spezielle Methode der Informationsverarbeitung, die neuronale Netze nutzt, um größere Datensätze zu analysieren. In Zukunft soll es sich zum sogenannten „Deep Understanding“ weiterentwickeln: die Maschinen verstehen anhand der Daten, in welcher Situation sich ein Nutzer befindet. Durch kontinuierliches Lernen können sie dann vorhersagen, welche Absichten der Nutzer verfolgt und entsprechend reagieren. Diese Entwicklung wird allerdings noch Zeit benötigen.

Ohne Daten keine Künstliche Intelligenz

Eine Künstliche Intelligenz kann in dem Gebiet, für das sie entwickelt wurde, unter Umständen effizienter arbeiten als der Mensch – aber auch nur in diesem Gebiet. Denn eine KI ist keine Allround-Lösung, sondern in der Regel eine intelligente Anwendung für jeweils ein konkretes Problem. Mit einer Künstlichen Intelligenz können also lediglich einzelne Fähigkeiten simuliert werden, jedoch nicht vollständige menschliche Intelligenz. Gewisse Vorgänge und Eigenschaften sind darüber hinaus bis jetzt auch gar nicht automatisierbar.

Hinzu kommt, dass eine Künstliche Intelligenz nur durch entsprechend große Datensätze „intelligent“ sein kann. Um den Algorithmus einer KI auf einen bestimmten Anwendungsfall zu trainieren, sind riesige Mengen an Trainingsdaten erforderlich. Nur so kann er auf jede potenzielle Situation eine passende Reaktion erlernen. Die Daten müssen hierzu nicht nur quantitativ, sondern auch qualitativ entsprechend hochwertig sein. Sonst kann es zu Rückschlüssen kommen, die zwar formal richtig sein mögen, aber praktisch unpassend sind. Ein Mensch hingegen kann in allen Situationen individuell abwägen, welche Reaktion die passende ist. Maschinen müssen also durch Trainingsdaten auf jede mögliche Situation entsprechend vorbereitet werden. Es stehen jedoch nicht zu jeder Problemstellung die benötigten Daten zur Verfügung.

Kann Künstliche Intelligenz den Menschen in bestimmten Bereichen ersetzen?

Künstliche Intelligenz wird den Alltag definitiv nachhaltig verändern. Das sehen wir bereits am Beispiel der digitalen Transformation, die sich rasant weiterentwickelt und unseren Alltag bereits jetzt nachhaltig verändert hat. KI können im Arbeitsalltag durchaus sich wiederholende, langweilige oder einfache Aufgaben übernehmen, um Menschen zu entlasten. So werden sicher neue Arbeitsweisen und neue Berufsbilder entstehen. Aber die eigentliche Rolle der KI besteht eher in der Zusammenarbeit mit dem Menschen als in dessen Ersatz. KI kann beispielsweise Arbeitern dabei helfen, im Voraus zu planen, um möglichst effizient vorzugehen. Sie kann Fehler erkennen, die ein Mensch aufgrund von Müdigkeit übersehen hätte und effizientere Lösungen für neue Situationen finden. Mit künstlicher Intelligenz könnten in naher Zukunft sogar Menschenleben gerettet werden. Ein Beispiel dafür sind KI-basierte Autotechnologien, die mithilfe einer Innenraumkamera im Fahrzeug für die Sicherheit von Fahrern und Passagieren sorgen. Hochleistungskameras und KI können dabei Fahrfehler – die häufigste Ursache für Verkehrsunfälle und den Verlust von Menschenleben – verhindern oder durch Fahreridentifizierung und Spoof-Detection unbefugten Fahrern den Zugang zum Fahrzeug verwehren. Einen Menschen komplett zu ersetzen, wird wohl nicht möglich sein. KI wird unser Leben aber sicher noch verändern und in vielen Situationen erleichtern.

Über den Autor

Dr. I.P. Park ist eine erfahrene Führungskraft mit einem tiefen und breiten Verständnis moderner Technologien, welches er in Positionen bei weltweit führenden Unternehmen wie HARMAN, Samsung und Panasonic erworben hat.

Seit seinem Wechsel zu LG Electronics im Jahr 2017 gilt Dr. Park im ExecRank als einer der weltweit besten Chief Technology Officers. Besonders für seine Leistungen bei der Leitung von F&E-Teams zur Förderung von Innovationen in den Bereichen Künstliche Intelligenz (KI), Cloud Computing, IoT und Benutzererfahrung in Bezug auf vernetzte Autos, mobile Geräte, Smart-TVs und Audiosysteme wird er geschätzt.

Dr. Parks oberste Priorität bei LG ist es, KI als Hauptwachstumsmotor des Unternehmens voranzutreiben. Dabei konzentriert er sich auf sich selbst weiterentwickelnde Produkte, eine nahtlose Benutzeroberfläche, offene Plattformen und arbeitet mit namhaften globalen Partnern zusammen, um Kunden immer wieder aufs Neue mit bahnbrechenden Technologien zu begeistern.

Dr. Park erwarb einen B.S. in Informatik an der Seoul National University und seinen M.S. und Ph.D. in Informatik an der Columbia University.


Mehr Informationen unter:
www.lg.de

Der Kundenservice braucht ein Upgrade

Studie: Konsument*innen in Deutschland beklagen schlechte Erfahrungen mit Kundenservice

Wenn Kund*innen Fragen zu Dienstleistungen, Produkten oder deren Retouren haben, kontaktieren sie in vielen Fällen die Serviceabteilungen. Häufig werden Unternehmen aber den Ansprüchen der Kund*innen an den Service nicht gerecht: Über die Hälfte der befragten Konsument*innen in Deutschland (54 Prozent) haben im vergangenen Jahr schlechte Erfahrungen mit der Leistung von Kundendiensten gemacht. Das zeigt die aktuelle repräsentative Studie zum Thema „Kundendienst“ von Yext, dem KI-Unternehmen für die digitale Suche. Bei dieser wurden 1.002 Teilnehmende aus Deutschland befragt. Deutlich über die Hälfte (59 Prozent) der Umfrageteilnehmenden vertreten zudem die Meinung, dass Unternehmen nicht genug machen, um ausgezeichneten Kundenservice zu bieten.

Als die Hauptursachen für ein negatives Erlebnis mit dem Kundenservice nannten die Befragten unter anderem lange Wartezeiten sowie dass sie nicht wussten, wie lange diese andauern würden (47 Prozent). Zusätzlich gaben 45 Prozent an, dass ihr Anliegen nicht zu ihrer vollen Zufriedenheit gelöst wurde. An dritter Stelle gaben 39 Prozent an, dass sie zu lange warten mussten, bis ihr Problem gelöst werden konnte. Jüngere Befragte zwischen 18 und 29 Jahren bemängelten zudem, dass einige Kundendienste nur bis 18 Uhr erreichbar seien, und wünschten sich eine längere Erreichbarkeit.

Konsument*innen bevorzugen Self-Service

Konsument*innen wollen ihre Probleme am liebsten selbstständig lösen. 93 Prozent der Teilnehmenden gaben an, dass es ihnen wichtig sei, schnell Informationen zu finden und Probleme selbst zu lösen, anstatt sich an den Kundenservice wenden zu müssen. Darüber hinaus hält es die Mehrheit (89 Prozent) der Befragten aus Deutschland für wichtig, im Hilfebereich eines Unternehmens direkte Antworten auf ihre Fragen zu erhalten. Dabei scheinen diese vor allem von Frauen geschätzt zu werden – 9 von 10 (91 Prozent) gaben an, dass direkte Antworten zu ihrer Zufriedenheit als Kundinnen beitragen. 48 Prozent gaben sogar an, dass sie „sehr wichtig“ seien.


Key Facts der Studie

  • Hälfte der Befragten mit Kundenservice in letzten 12 Monaten unzufrieden
  • Über 90 Prozent der Teilnehmenden wollen Informationen schnell und eigenständig finden
  • Hilfe-Seite liefern keine direkten Antworten auf Fragen von Kund*innen

Befragte enttäuscht über Hilfe-Websites

Bei diesen Ergebnissen verwundert es daher nicht, dass fast alle Umfrageteilnehmenden in den vergangenen 12 Monaten Hilfe-Seiten genutzt haben. Rund jede*r Fünfte dieser Befragten war jedoch unzufrieden mit dem Ergebnis. Über ein Drittel (35 Prozent) aller Befragten berichtete von Problemen bei der Nutzung von Hilfe-Websites in den vergangenen 12 Monaten. Als häufigster Grund wurde dabei genannt, dass Fragen entweder nicht oder falsch beantwortet wurden (51 Prozent) oder es zu Problemen bei der Funktionalität der Seite kam (36 Prozent), beispielsweise weil die Seiten nicht gut strukturiert waren oder die Suchfunktion nicht richtig funktionierte. Weitere 22 Prozent der Befragten berichteten von Problemen mit den FAQ.

Wenn Konsument*innen nicht die Informationen finden, die sie suchen, kontaktieren sie stattdessen häufig den Kundendienst telefonisch (64 Prozent) oder schreiben eine E-Mail (62 Prozent). Dies verursacht wieder mehr Aufwand und bindet Ressourcen beim Kundenservice im Unternehmen. Mehr als ein Drittel (36 Prozent) sucht bei Google nach einer Antwort – und ist damit leichter für den Wettbewerb durch Anzeigen abgreifbar. Mit weitreichenden Folgen: Wenn sie auf der Unternehmens-Website nicht die Informationen finden können, nach denen sie suchen, kaufen 23 Prozent der Befragten bei einem anderen Unternehmen als sie ursprünglich beabsichtigt hatten.1

Die mangelhaften Erfahrungen auf der Website mögen mit ein Grund dafür sein, weshalb nur 16 Prozent der Befragten die Unternehmenswebsite bei der Beantwortung von Fragen oder zur generellen Problemlösung nutzen.



Ursachen für schlechte Erfahrungen mit dem Kundenservice
Vertrauen steigt mit direkten Antworten
Branchen mit bestem und schlechtem Kundenservice

Mit direkten Antworten für Abhilfe sorgen

Um mehr Kund*innen für die Support-Seite eines Unternehmens zu begeistern, müssten Unternehmen tatsächliche und direkte Antworten auf die Suchanfragen bereitstellen. Fast die Hälfte der Befragten (48 Prozent) würden dann öfter den Gang über die Hilfe-Seite wagen. Gut gepflegte FAQ wären bei fast einem Drittel (32 Prozent) der Befragten Anlass dazu. Vier von zehn der Befragten (44 Prozent) wünschen sich eine Chatfunktion, in der sie ihr Problem Unternehmensmitarbeiter*innen schildern können. Diese Art des Supports steht vor allem bei den Umfrageteilnehmerinnen hoch im Kurs. 48 Prozent der weiblichen Befragten würde das dazu veranlassen öfter die Hilfe-Seite zu nutzen.  Bei den männlichen Befragten lag dieser Wert bei 41 Prozent.

Vertrauen und Kaufbereitschaft mit Kundenservice steigern

Eine Hilfe-Seite, die tatsächliche Antworten liefert – ohne dass der Kundendienst kontaktiert werden muss – beeinflusst zudem das Vertrauen der Nutzenden: 60 Prozent der Befragten gaben an, dass sie einem Unternehmen mehr vertrauen würden, wenn dieses ihre Fragen auf der Website direkt beantwortet – im Vergleich zu Unternehmen, die dies nicht tun. Nur 10 Prozent sagten, dass die direkte Beantwortung von Fragen ihr Vertrauen nicht beeinflussen würde. Gleichzeitig zeigt die Studie, dass es wahrscheinlicher wird, dass Kund*innen Produkte und Dienstleistungen kaufen, wenn Kundensupport-Seiten direkte Antworten liefern. Mehr als zwei Drittel der Befragten (70 Prozent) erklärten, dass dies der Fall ist, wenn das Unternehmen auf der Hilfe-Seite Fragen direkt und ohne Kontakt mit dem Servicecenter beantwortet, im Vergleich zu Unternehmen, die dies nicht tun. Das zeigt, wie wichtig es für Unternehmen ist, Fragen und Anliegen von Kund*innen bereits online zu begegnen – und zwar, bevor sie sich persönlich mit Mitarbeiter*innen auseinandersetzen müssen. Wenn Kund*innen hingegen keine Antwort erhalten oder einem schlechten Kundenservice begegnen, sind sie auch eher gewillt, dem Unternehmen den Rücken zu kehren. Über drei Viertel der Befragten (77 Prozent) würden das Unternehmen oder den Anbieter in diesem Fall wechseln.

Bester Kundenservice im E-Commerce

Yext wollte zudem von den Teilnehmenden der Umfrage wissen, welche Branche den besten und welche den schlechtesten Kundenservice bietet. Die besten Werte erzielte der E-Commerce mit 66 Prozent, gefolgt von Lebensmitteldienstleistungen, wie Restaurants, Systemgastronomie oder Lieferservices (54 Prozent). Mit rund der Hälfte an Stimmen (51 Prozent) liegt der Einzelhandel an dritter Stelle. Optimierungsbedarf in Sachen Kundenservice besteht hingegen in den Branchen Regierung und öffentlicher Sektor, Transport und Logistik sowie Telekommunikation. Hier nahmen die Teilnehmenden den schlechtesten Kundenservice wahr. Rund ein Drittel (34 Prozent) nannte den Kundenservice bei Regierung und öffentlicher Sektor eher schlecht oder sehr schlecht, 28 Prozent sahen das bei Transport- und Logistikunternehmen wie DHL oder Hermes ebenso und 25 Prozent erklärten, dass in der Telekommunikationsbranche Luft nach oben sei.

Hintergrund zur Studie

Quellen

1 Unternehmen enttäuschen Suchende in Deutschland (2021)

Methodik
Die Daten für diesen Bericht wurden von Innofact, einem unabhängigen Marktforschungsunternehmen, im Auftrag von Yext erhoben. Insgesamt 3.009 Menschen zwischen 18 und 69 Jahren aus Deutschland, Frankreich und dem Vereinigten Königreich (davon 1.002 in Deutschland), die in den letzten 12 Monaten Kontakt mit einem Kundenservice hatten und/oder eine Hilfe-Seite eines Unternehmens genutzt haben, haben im Oktober 2021 einen Online-Fragebogen beantwortet. Die Quotierung der Studie ist in jedem Land bevölkerungsrepräsentativ nach Geschlecht, Alter und Region. Die einzelnen Prozentwerte wurden auf das nächste ganze Prozent gerundet.

Weitere Informationen finden Sie auf
https://www.yext.de/

Pressekontakt
Presseteam Yext
yext@siccmamedia.de

Aufmacherbild/ Quelle / Lizenz
Photo by Microsoft Edge on Unsplash

Computer Aided Cloud Transformation unterstützt auf dem Weg in die Cloud

Autor: Dietmar Rager*                                

In der IT-Welt haben sich im Laufe der Zeit eine Reihe von Abkürzungen, die computergestützte Tätigkeiten und Systeme beschreiben, etabliert. Die wohl bekannteste ist Computer Aided Design (CAD), aber auch Computer Aided Software Engineering (CASE) oder Computer Aided Detection (CADe, in Medicine), um nur ein paar zu nennen. Nun ist es an der Zeit, einen neuen Begriff zu prägen – Computer Aided Cloud Transformation (CACT).

Der Autor Dietmar Rager ist seit 2004 bei der ARS und ist heute leitender Architekt und Abteilungsleiter. Seit 2010 ist er auch mit DevOps- und Cloud-Themen unterwegs.

Die Cloud ist eine der dynamischsten Technologien unserer Zeit. Für viele Unternehmen ist die Cloud-Migration nicht mehr eine Frage des Ob, sondern des Wie und Wann. Eine erfolgreiche Migration in die Cloud erfordert von einem Unternehmen viel Aufmerksamkeit. Sind Unternehmen nicht darauf vorbereitet, die Herausforderungen der Cloud-Migration zu bewältigen, kann dies kostspielig und gefährlich werden. Container, Microservices und Cloud-Technologien sind wichtige Mittel, um die Digitalisierung und Innovation in der IT-Landschaft voranzutreiben.

Wollen Unternehmen Kosten sparen und agiler werden, ist die Modernisierung ihres Anwendungsportfolios und die Umstellung auf Cloud-native ein Muss. Dies führt automatisch zu einigen Schlüsselfragen: Welche Cloud-Anbieter sind am besten geeignet? Sollten wir einen Lift-and-Shift-Ansatz wählen oder wäre ein Replatforming-Ansatz besser?

Ein weiterer wichtiger Aspekt des IT-Managements und der IT-Governance ist das Management der Unternehmensarchitektur (Enterprise Architecture Management, EAM). Hierbei handelt es sich um eine Managementpraxis, die einen kohärenten Satz von Richtlinien, Architekturprinzipien und Governance-Regelungen, die zur Organisation der Architektur eines Unternehmens notwendig sind, einführt, aufrechterhält und verwendet. Oberste Priorität ist bei einem solchen Management immer die Ausrichtung auf die übergreifende Strategie und Vision des Unternehmens.

Viele dieser Aspekte werden durch Systeme für die Asset- und Ressourcenverwaltung abgedeckt. Für die Unternehmens-IT-Architektur gibt es eine Reihe weiterer Systeme, die einen computergestützten Ansatz bieten.

Zur Gesamtabdeckung dieser Aspekte hat sich eine neue Klasse von Software-Systemen etabliert. Sie decken all diese Themen valide ab. Dies führt zu Synergieeffekten, da alle relevanten Informationen an einer Stelle verfügbar sind und gemanagt werden können.

Aber worin unterscheiden sich nun Ressource und Asset (Vermögenswert)? Der Unterschied besteht darin, dass eine Ressource wie Rohstoffe oder das Personal genutzt wird, um ein Ziel zu erreichen, während ein Vermögenswert etwas oder jemand von beliebigem Wert ist, also zum Beispiel jeder Teil des eigenen Eigentums.

Die Software zur Asset-Verwaltung ist ein zentralisiertes System, mit dem das Unternehmen wichtige Details zu jeder Anlage in Echtzeit verfolgen kann. Dies senkt die Verwaltungskosten, verbessert den Service und verschafft dem Unternehmen einen besseren Überblick über die Nutzung, die Kosten und die Wartung der Anlagen.

Ressourcenmanagementsysteme unterstützen einen Prozess, der die Planung, Zuweisung, Überwachung und Optimierung von Ressourcen umfasst, um die betriebliche Effizienz zu maximieren. Sowohl Asset- als auch Ressourcenmanagementsysteme erfordern ein gründliches Verständnis und Transparenz in Bezug auf Ziele und Kapazitäten des Unternehmens. Durch die Einführung eines guten Prozesses für die Ressourcenmanagementplanung kann ein Unternehmen die Effizienz maximieren und die Nutzung dieser Ressourcen und Assets überwachen.

Unabhängig davon, ob sich die Ressourcen beziehungsweise Assets vor Ort, in einer privaten oder in einer öffentlichen Cloud befinden – das Unternehmen muss die Nutzung der Ressourcen und die Allokation der Assets planen und optimieren. In vielen großen Unternehmen gibt es im Zusammenhang mit IT-Architekturen eine riesige Anzahl von Abhängigkeiten. Die damit verbundenen Risiken und die organisatorischen Veränderungen einer großen Transformation machen es extrem schwierig, schnelle Entscheidungen zu treffen und den Überblick über den Transformationsfortschritt und mögliche Engpässe zu behalten.

Die herkömmlichen Asset-, Ressourcenmanagement- und Enterprise-Architecture-Systeme sowie traditionelle Prozesse der Entscheidungsfindung sind nicht für die Geschwindigkeit und Dynamik ausgelegt, die bei Cloud-Transformationsprojekten erforderlich sind.

Letztendlich führt ein traditioneller Ansatz von Change-Management in der Regel zu langwierigen Prozessen oder Diskussionen über den Wert der Cloud-Umstellung, was Entscheidungen verzögert, die Umstellung insgesamt verlangsamt und Kosten erhöht.

Für die oben genannten Herausforderungen ist die neue Klasse der Systeme ein großer Schritt vorwärts, da alle Aktivitäten im Zusammenhang mit Assessment, Verwaltung, Transformationsmanagement und Migration in die Cloud in einem Softwaresystem unterstützt werden. Noch gibt es ihn nicht, aber wir sind uns sicher, dass diese Art von Software sich zukünftig ebenfalls mit einem eigenen Begriff etablieren wird: Computer Aided Cloud Transformation.

Weitere Informationen unter:
https://www.ars.de/

IT muss neu gedacht werden

Mehr Schlüsselposition, weniger Kostenstelle, so sieht Prof. Dr. Volker Gruhn von adesso die IT. Dieser Paradigmenwechsel muss allerdings vielfach noch mit Leben gefüllt werden.

Volker Gruhn sieht IT mit am Entscheidertisch.

Wenig veränderte Gesellschaft und Wirtschaft bisher so nachhaltig wie der atemberaubende Aufstieg digitaler Technologien. Ob individuelle Aufgabenbereiche, die Kooperation zwischen Unternehmen oder die Möglichkeit zur Ansprache von Kunden: Der Arbeitsalltag 2021 hat nur noch wenig mit 2011 zu tun. Und fast nichts mehr mit 2001. In den letzten Monaten legte das Tempo dann noch einmal deutlich zu. Die weltweite Pandemie stellte tradierte Formen der Zusammenarbeit auf den Kopf und beförderte den Einsatz digitaler Prozesse. IT ist allgegenwärtig im Alltag – heute mehr denn je. Ihr wirtschaftliches Potenzial zeigt sich in dem steilen Aufstieg digitaler Schwergewichte, von Shopify bis Zoom. Die Verantwortlichen dieser und vergleichbarer Unternehmen schufen Milliarden-Werte mit nichts als digitalen Technologien – und guten Ideen natürlich. Diese Beispiele zeigen: IT entwickelt sich immer mehr zu dem Themengebiet, auf dem sich der Erfolg eines Unternehmens entscheidet.

Aber IT-Abteilungen spüren von diesem Bedeutungswandel bisher wenig. Ihnen haftet immer noch der Ruf der EDV an: eine Kostenstelle, die notwendig ist. Es bedarf der Fachleute, die sich ums Gebäude kümmern. Und des Teams, das den Fuhrpark verwaltet. Und jemand muss halt auch Hardware und Software bereitstellen. Damit hört der Beitrag der IT dann aber auf. Um das Gestalten der Zukunft, das Entwickeln der Märkte und Geschäftsmodelle von morgen kümmern sich andere.

Es bedarf einer New School of IT

Aber dem oben beschriebenen Sog des Digitalen kann sich kein Aufgabenbereich und keine Branche entziehen. Es gilt die einfache Gleichung: Unternehmenserfolg = IT-Erfolg. Deshalb gehört IT mit an den Tisch der Entscheiderinnen und Entscheider. Denn ohne IT ist es unmöglich, Technologien zu bewerten, Folgen abzuschätzen oder Lösungen zu entwickeln. Der Schlüssel liegt in der Kombination aus technologischer Expertise und dem Verständnis für Geschäftsprozesse.

IT muss sich wandeln, sie muss ihre neue Rolle finden. Auf sie wartet eine neue Verantwortung, der sie sich stellen muss. Der Wandel reicht weit hinein in das gesamte Unternehmen: von der Organisation der Zusammenarbeit bis zur Art und Weise, wie Verantwortliche Daten verstehen und Lösungen entwickeln. Aktuell sind viele IT-Abteilungen von diesem Anspruch weit entfernt. Eine der Ursachen für diese Diskrepanz zwischen Soll- und Ist-Zustand liegt im Fehlen einer übergeordneten Gestaltungsidee. Denn für diesen Wandel gibt es bisher keinen Rahmen, keine Struktur. Das zu ändern, ist der Ansatz der New School of IT. Sie gibt dem neuen Verständnis der IT Gestalt.

Aus der Vielzahl von Technologien und Trends kristallisieren sich drei Themen heraus, die von besonderer Bedeutung für die Schlagkraft von IT-Organisationen und Unternehmen sind. Dazu gehören zwei IT-originäre Aspekte: Cloud Native Thinking (CNT) und Data Mindedness (DM). Ziel von CNT ist es, die Vorteile des Cloud-Einsatzes voll ausschöpfen, ohne die Nachteile in Kauf nehmen zu müssen. DM bedeutet, dass Unternehmen Daten ins Zentrum von Organisation, Prozessen oder Verantwortlichkeiten stellen.

Der dritte Punkt ist ein organisatorisches Thema. Er betrifft die zentrale Aufgabe von IT-Verantwortlichen, sowohl einen stabilen IT-Betrieb als auch das Entwickeln visionärer, datengetriebener Geschäftsideen miteinander zu vereinen. Für diese Aufgabe bietet sich der Ansatz der Ambidextrie an. Was hinter dem sperrigen Begriff steckt, ist Gegenstand der folgenden Betrachtungen.

Die Auf- und Einstellung für morgen: Ambidextrous Attitude

IT ist untrennbar mit dem Unternehmen verwoben. Auch die High-End-KI-Anwendung zur Logistikoptimierung muss mit dem Warenwirtschaftssystem reden. Eine packende Marketingkampagne auf Basis von Echtzeitkundendaten funktioniert ohne Verknüpfung mit dem CRM nicht. Organisationsformen, die dies nicht berücksichtigen – Stichwort „IT der zwei Geschwindigkeiten“ – stehen unter keinem guten Vorzeichen. IT gehört unter ein Dach. Der Ansatz der sogenannten Ambidextrie liefert dafür eine überzeugende Blaupause. Die Übersetzung des sperrigen Begriffs macht die Idee klar: In Ambidextrie stecken die lateinischen Begriffe für „beide“ (ambo) und „rechte Hand“ (dextera). Diese Metapher der zwei rechten Hände nutzen Fachleute als Leitbild für den Aufbau von Organisationen.

Bezogen auf die IT bedeutet das: einerseits Teams, die für robuste und kosteneffiziente Anwendungen sorgen, welche häufig mit dem Begriff „exploit“ belegt werden. Andererseits die Fachleute, die kreative und innovative Lösungen auf- und umsetzen – und den „explore“-Teil abdecken. Aber im Gegensatz zu bimodalen Ansätzen sind diese Einheiten nicht voneinander getrennt. Ambidextrie betont das Gemeinsame der IT und nicht das Trennende. Darin liegt die Stärke dieser Idee. Ambidextrie sorgt für eine robuste, resiliente und innovative IT.

Für das Entwickeln einer ambidextrischen Organisation sind zwei Rollen von zentraler Bedeutung: Der Chief Information Officer (CIO) und der Chief Digital Officer (CDO). Der CIO gehört für die meisten Unternehmen zur Grundausstattung dazu. Der CDO ist neu auf dem Spielfeld.

Die zentralen Figuren

Bei Themen wie Künstlicher Intelligenz und Digitaler Transformation steht zunächst der CIO im Rampenlicht. Denn er sitzt mit seinem Team an den Datenquellen. Für das Sammeln, Aufbereiten, Verdichten und Erschließen weiterer Quellen und das Nutzen der Daten für neue Anwendungsfälle bedarf es eines kompetenten Exploit-Teams. Diese Daten spielen für den Geschäftserfolg eine überragende Rolle. Entsprechend ist die die Arbeit des CIO von strategischer Bedeutung.

Datengetriebene Geschäftsmodelle, die auf dieser Basis aufbauen, stehen oben auf der Agenda des CDO. Er sucht mit seinem Explore-Team nach den Chancen, die Technologien eröffnen. Am Anfang heißt es für den CDO, diese Rolle mit Leben zu füllen. Er muss eigene Verantwortungsbereiche definieren, eigene Teams aufbauen, eigene Budgets einsetzen. In einer ambidextrischen Organisation ermöglichen CIO und CDO gemeinsam datengetriebene Geschäftsmodelle, die auf effizienter und flexibler IT aufbauen.

Natürlich müssen beide unter einen Hut. Oder besser: Auf einer Infrastruktur arbeiten. Exploit- und Explore-Teams nutzen gemeinsam die IT-Ressourcen, idealerweise im harmonischen Zusammenspiel. Auch wenn sich so mancher Konflikt um Ressourcen nicht vermeiden lassen wird.

Ambidextrie jenseits der IT

Dieser Blick auf die IT-Abteilung ist nur der Anfang. Denn IT-Exzellenz ist nur ein Teil der Gleichung. Oder, um in der Bildwelt der Ambidextrie zu bleiben, nur eine Hand. Es mangelt den IT-Fachleuten häufig am Verständnis der Sachlichkeit. Es genügt nicht, die Wahrscheinlichkeit von Maschinenausfällen zu prognostizieren. Die Servicetechniker benötigen auch die richtigen Informationen über mögliche Probleme, um die richtigen Werkzeuge einzupacken. Fehlt diese Perspektive der Fachlichkeit in Projekten oder ist sie unterrepräsentiert, werden aus technischen Innovationen keine Wettbewerbsvorteile.

Auf der anderen Seite benötigen die Expertinnen und Experten in den Fachbereichen den Gegenpart der IT-Fachleute. So finden sie in der Vielfalt der Möglichkeiten die Technologien für das Bewältigen ihrer Herausforderungen. Es ist nicht ausreichend, Inhalte für die Kommunikation zu erstellen. Irgendjemand muss die individuelle Ansprache an jedem Kontaktpunkt der Kundenreise automatisieren und mit dem CRM-System verknüpfen. Werkeln Fachabteilungen ohne den Schulterschluss mit der IT vor sich hin, besteht die Gefahr, Insellösungen zu schaffen oder auf falsche Technologien zu setzen.

Wirklich exzellente Lösungen entwickeln beide Seiten nur gemeinsam.

Für das Verknüpfen der Kompetenzen bieten sich unterschiedliche Organisationsformen an. Denkbar ist, dass Teile der IT und Vertreter von Fachabteilungen eine feste Einheit bilden, die dauerhaft zusammenarbeitet. Ob so eine Einheit eher im IT- oder eher im Fachbereich aufgehängt ist, ist eine Frage der organisatorischen Rahmenbedingungen. Wichtig ist, dass die Verantwortlichen keine isolierten Satelliten schaffen. Die Mitglieder des Teams müssen in geschäftskritische Prozesse eingebunden bleiben. Oder Unternehmen setzen auf temporäre Teams: Vertreter aus IT- und Fachabteilung kommen für einzelne Projekte zusammen. Egal, welchen Weg die Entscheider wählen: Einheitliche Berichtswege und KPIs sind wichtig, um beide Seiten auf eine gemeinsame Zielsetzung einzuschwören.

So aufgestellt – ambidextrisch im Inneren der IT-Abteilung und an den Schnittstellen nach außen – sorgen Unternehmen dafür, dass aus technologischen Möglichkeiten echte Vorteile werden.

Weitere Informationen unter:
www.adesso.de

Open-Source-API für Cloud-Dienste

Kopano und ownCloud haben mit der LibreGraph-Initiative ein Open-Source-Projekt zur Entwicklung einer offenen API für Cloud-Dienste gestartet. Die LibreGraph API wird Unternehmen eine souveräne Möglichkeit bieten, in digitalen Arbeitsumgebungen unterschiedliche Cloud-native Dienste miteinander zu verbinden.

Für den effizienten Datenaustausch zwischen verschiedenen Diensten und Geräten an digitalen Arbeitsplätzen kommt bis dato meist die Microsoft Graph API zum Einsatz. Sie ermöglicht den Nutzern auf Basis ihrer Identität einen dienstübergreifenden Zugriff auf Daten. Das gilt sowohl für die Cloud-Services von Microsoft selbst als auch für kompatible Dienste von Drittanbietern.

Als einzigen API-Endpunkt bietet die Microsoft Graph API dabei aber graph.microsoft.com – und damit einen Endpunkt, den Unternehmen nicht kontrollieren können. Dadurch lassen sich Datenschutzbestimmungen wie die DSGVO nicht einhalten und es ist auch kein zuverlässiger Schutz sensibler Unternehmensinformationen gegeben. Da es sich bei der Microsoft Graph API außerdem um eine proprietäre Lösung handelt, sind Organisationen bei der Zusammenstellung ihrer digitalen Arbeitsplätze stark eingeschränkt.

Mit der LibreGraph API können sie ihre digitale Souveränität zurückgewinnen. Die souveräne RESTful-API bietet ihnen einen eigenen API-Endpunkt, mit dem sie die volle Kontrolle über ihre Daten behalten. Zudem ist sie vollständig mit der Microsoft Graph API kompatibel. Das gibt Organisationen die Möglichkeit, proprietäre Lösungen von Anbietern wie Microsoft beliebig mit Open-Source-Alternativen zu kombinieren und die Komponenten ihres Digital Workspace flexibel auszutauschen. So ist beispielsweise der Wechsel von einer proprietären Groupware wie Outlook zur Kopano Groupware – oder umgekehrt – problemlos möglich.

Kopano und ownCloud laden auch andere Open-Source-Anbieter und -Projekte dazu ein, der Entwicklungsgemeinschaft beizutreten.

Weitere Informationen zur LibreGraph-Initiative stehen im Unternehmens-Blog von ownCloud: https://owncloud.com/news/libregraph-initiative-kopano/.

Online-Handel mit Sicherheit

Cybersicherheit im Online-Handel – Warum Bad Bots zu den größten Gefahren für die eCommerce-Branche zählen

Mit der bevorstehenden Weihnachtszeit – und der damit einhergehenden Shopping-Hochsaison in den Startlöchern – bereitet sich auch die eCommerce-Branche auf einen großen Ansturm an Kunden vor. Denn nicht erst seit, aber befeuert durch die Corona-Pandemie hat sich unser Kauf- und Konsumverhalten in den vergangenen Monaten nochmals merklich ins Internet verlagert. Das macht den eCommerce-Bereich jedoch auch für ausgeklügelte Cyberangriffe immer interessanter und lukrativer – nicht zuletzt in Form sogenannter Bad Bots-Attacken.

Der Online-Handel ist im Aufschwung: Bereits im vergangenen Jahr stieg der eCommerce-Umsatz um 25,7 Prozent auf unglaubliche 4.213 Billionen US-Dollar – und auch in diesem Jahr ist erneut ein deutliches Wachstum zu erwarten. Die Kehrseite der Medaille? Auch Cyberkriminelle legen ihren Fokus immer mehr auf den Online-Retail-Bereich. Insbesondere an beliebten Shopping-Tagen wie dem Singles Day im asiatischen Raum (11. November) oder den mittlerweile hierzulande fest etablierten Black Friday und Cyber Monday erreicht die Zahl der Cyberangriffe ungeahnte Höchststände. Auch für den diesjährigen Start der Weihnachtsshopping-Saison ist daher Vorsicht geboten. Händler sollten dabei insbesondere die Bedrohung durch Bad-Bot-Traffic im Auge behalten: Im Vergleich zu 2020 ist in diesem Jahr die Zahl der monatlichen Bot-Attacken um 13 Prozent gestiegen und macht bereits jetzt mehr als die Hälfte aller Cyberangriffe im Online-Retail aus.


„Im Hinblick auf die bevorstehende Shopping-Hochsaison sollten Retailer bereits im Voraus ihre IT-Infrastruktur einem umfassenden Stresstest unterziehen.“


Gastautor:
Kai Zobel, Area Vice President EMEA Central, Imperva

Vielfältige Einfallstore für Bad Bots

Die Ansatzpunkte von Bad Bots-Attacken sind dabei zahlreich und unterschiedlich. So gibt es unter anderem das sogenannte Price- und Content-Scraping. Dabei werden durch Bots entweder die Preisinformationen oder gar der gesamte Inhalt einer Seite ausgelesen, kopiert und/oder zum eigenen Vorteil – beispielsweise durch das Setzen niedrigerer Preise als die Konkurrenz – eingesetzt.

Ein anderer Weg ist häufig auch die Übernahme fremder Nutzerkonten einer eCommerce-Webseite. Durch diese Form des Identitätsdiebstahls erlangen Cyberkriminelle Zugriff auf sensible Daten und Kreditkarteninformationen, mit denen sie unautorisierte Einkäufe tätigen können. Da in den vergangenen Monaten die Zahl der Menschen, die online einkaufen, enorm gestiegen ist, hat sich die Zahl an Konten mit Zahlungsinformationen und anderen persönlichen Daten signifikant erhöht, wodurch dieser Bereich auch für Cyberkriminelle immer lukrativer wird. Mittlerweile handelt es sich schon bei fast einem Drittel aller Anmeldeversuche auf eCommerce-Websites um einen unerlaubten Kontoübernahmeversuch.

Eine weitere Taktik, die in der Corona-Pandemie verstärkt zum Einsatz kam, ist das sogenannte Scalping. Hier werden mittels Bots (im Weihnachtsgeschäft häufig auch als „Grinchbots“ bezeichnet) Gegenstände, die nur limitiert verfügbar sind oder sich großer Beliebtheit erfreuen, in hoher Stückzahl erworben. Zu Beginn der Pandemie rückte diese Art des Angriffs insbesondere im Hinblick auf die Knappheit bei Masken oder Desinfektionsmittel in den Fokus der Öffentlichkeit. In jüngster Zeit hat sich dieses „Phänomen“ aufgrund der Lieferkettenkrise und des damit verbundenen Chipmangels auch auf Bereiche wie Spielekonsolen, Grafikkarten oder andere elektronische Geräte ausgeweitet.

Komplexität und Gefahr nimmt immer weiter zu

Die Schwierigkeit für Online-Händer bei Bad-Bot-Attacken liegt insbesondere darin, dass die Bots immer komplexer und ausgeklügelter werden: Fast zwei Drittel des Bad-Bot-Traffics auf Retail-Webseiten können bereits jetzt als moderate bis anspruchsvolle Bots klassifiziert werden. Diese sind schwerer zu erkennen und zu stoppen, da sie häufig willkürliche IP-Adressen nutzen oder über anonyme Proxys und Peer-to-Peer-Netzwerke zugreifen – und teils sogar das menschliche Kundenverhalten nahezu perfekt imitieren können.

Das kann dazu führen, dass diese Bad Bots zum Beispiel Waren in ihren virtuellen Einkaufskörben blockieren oder Webseiten verlangsamen beziehungsweise überlasten können, wodurch echte Kunden vom Kauf abgehalten werden. Die Folge: Frustrierte Kunden, die eher zur Konkurrenz gehen, und schwere finanzielle Einbußen sowie langfristige Image-Schäden für den Verkäufer.

Umfassende Cybersecurity-Strategie von Nöten

Umso wichtiger ist es, sich als Händler bestmöglich auf diese Gefahren vorzubereiten. Im Hinblick auf die bevorstehende Shopping-Hochsaison sollten Retailer daher bereits im Voraus ihre IT-Infrastruktur einem umfassenden Stresstest unterziehen – denn Marketingkampagnen rund um neue Produkte oder zeitkritische Angebote lenken auch die Aufmerksamkeit der Cyberkriminellen verstärkt auf die eigene Webseite. Kann mein Shop einem plötzlichen (Kunden-) Ansturm Stand halten? Können weiterhin alle Daten und Eingaben sicher und schnell verarbeitet werden? Der erste Schritt dorthin kann bereits durch einige schnell umsetzbare Maßnahmen geschafft werden.

So müssen nicht zuletzt alle Log-In-Seiten und -Möglichkeiten sowie der Bezahlvorgang besonders geschützt werden. Ein vergleichsweise einfacher Weg kann hier unter anderem das Erhöhen der Anforderungen an die Passwörter der Kunden (Zeichenzahl, Sonderzeichen, …) oder eine Zwei-Faktor-Authentifizierung sein. Auch das Blockieren alter, anfälligerer Browser-Versionen und das Implementieren sogenannter CAPTCHA-Tests kann hier den Zugriff durch Cyberkriminelle und Bad Bots erschweren.

Des Weiteren sollten Traffic-Peaks, falsche Login-Versuche oder die Eingabe inkorrekter Geschenkguthaben-Codes detailliert überwacht und dokumentiert werden, um im Bedarfsfall Konten rechtzeitig sperren zu können. Nicht zu vergessen sind auch Datenlecks anderer Unternehmen oder sozialen Netzwerken: Wenn eine Überschneidung der Zielgruppe wahrscheinlich oder ersichtlich ist, empfiehlt es sich, proaktiv auf die eigenen Kunden zuzugehen, Passwortänderungen einzufordern oder gar neue Authentifizierungsmodelle in den eigenen Anmelde- und Bezahlprozess zu integrieren.

Fazit

Mit der stetig steigenden Beliebtheit des Online-Shoppings – und dadurch auch zunehmenden Kundenanzahl – wird in Zukunft die Zahl an, aber vor allem die Komplexität der Cyberangriffe im eCommerce-Bereich nochmals spürbar zunehmen. Bereits jetzt stehen Online-Händler insbesondere um Shopping-Tage wie Black Friday oder Cyber Monday verstärkt im Fokus von Cyberattacken – nicht zuletzt durch Bad Bots. Um potenzielle Umsatzeinbußen oder Imageschäden zu vermeiden, ist es daher aktuell wichtiger denn je, sich mit einer umfassenden Cyberstrategie zu befassen.

Zentraler Grundbaustein ist dabei, dass in der Führungsebene, bei den Mitarbeitenden aber auch bei den Kunden ein Bewusstsein für die reelle Gefahr durch Cyberangriffe geschaffen wird. Viel zu häufig haben Angreifer aufgrund mangelnder Sicherheitsvorkehrungen zurzeit noch (zu) leichtes Spiel. Darüber hinaus sollten Händler gemeinsam mit externen Experten an einer individuellen und bedürfnisorientierten Cybersecurity-Strategie arbeiten, um die Sicherheit der Unternehmensdaten, der IT-Infrastruktur und damit auch der Kunden jetzt und in Zukunft gewährleisten zu können. Denn Cybersecurity ist heutzutage mehr denn je ein ausschlaggebendes Argument für den unternehmerischen und finanziellen Erfolg im eCommerce-Bereich.

https://www.imperva.com/de/

Aufmacherbild / Quelle / Lizenz
Photo by Pickawood on Unsplash

Ohne Investor gründen

Ein eigenes Unternehmen zu gründen, stellt für viele Menschen die größte und zugleich schönste beruflich Herausforderung dar. Vor allem, wenn es um die Finanzierung geht und die Investorensuche erfolglos verläuft, sind viele dennoch kurz davor, ihren Wunsch von der Selbstständigkeit aufzugeben. Das muss jedoch nicht sein, denn eine erfolgreiche Unternehmensgründung kann auch ohne Fremdkapital gelingen, wenn man nur die richtigen Wege einschlägt. Welche dies sind, hat uns der staatlich anerkannte Fördermittelexperte Maximilian Schreiber in einem exklusiven Gastbeitrag verraten.

1. Zum eigenen Unternehmen dank Fördermitteldarlehen

In jedem Bundesland gibt es verschiedene Möglichkeiten, Förderungen für eine Existenzgründung zu erhalten. Ein besonders gutes Angebot stellt die Kreditanstalt für Wiederaufbau bereit, um Gründungsvorhaben zu unterstützen. Hier wird dir nicht nur eine tilgungsfreie Startphase gewährt, auch die Zinsen sind erstaunlich gering.

Des Weiteren gibt es sowohl vom Bund, den Kommunen sowie der Europäische Union Fördermöglichkeiten für das zukünftige Unternehmen, auf die man keinesfalls verzichten sollte. Informieren Sie sich also zunächst umfassend, welche Varianten hier zur Verfügung stehen, und lassen Sie sich beraten.

2. Die Finanzierung eines Startups – mithilfe eines Kredits

War es lange Zeit absolut verpönt, einen Kredit aufzunehmen, damit der Traum vom eigenen Unternehmen wahr werden kann, hat sich dies mittlerweile stark geändert. Das liegt vor allem daran, dass die Kreditzinsen auf einem so niedrigen Niveau sind, dass es sich durchaus auszahlt, ein gewisses Risiko einzugehen. Damit diese Möglichkeit der Gründungsfinanzierung aber auch wirklich gelingen kann, ist es von entscheidender Bedeutung, der jeweiligen Bank einen durchdachten Businessplan vorzulegen und etwaige Sicherheiten vorweisen zu können.  Ist das der Fall, steht einer Finanzierung eines Startups mithilfe eines Kredits wahrscheinlich nichts im Wege.

3. Starthilfe dank Gründerzuschuss

Zwar ist es durch die Reform des Gründungszuschusses um einiges schwieriger geworden, einen solchen zu erhalten, aber es ist dennoch absolut einen Versuch wert. Das ist vor allem dann der Fall, wenn es bereits den einen oder anderen Erfolg mit dem Vorhaben erzielen konntest. Allerdings ist man nur antragsberechtigt, wenn man Arbeitslosengeld I bezieht und der Anspruch noch für mindestens 150 Tage gilt. Ist das der Fall, gibt es die Chance, bis zu 18.000 Euro steuerfrei zu bekommen.

4. Mit Mezzaninekapital zum Erfolg

Sollte trotz verschiedener Wege das Eigenkapital zur Gründung des Unternehmens doch nicht ausreichen, könnte eine sogenannte Mezzanine-Finanzierung die perfekte Lösung darstellen. Dabei handelt es sich um eine Mischvariante aus Eigen- und Fremdkapital. Das bedeutet, dass man zwar eine gewisse Geldsumme von einem Investor oder einem anderen privaten Unternehmen erhält, diese jedoch im Gegenzug kein Stimm- oder Einflussrecht erhalten. In der Bilanzierung scheint das Mezzaninekapital trotz der eigentlichen Vorgehensweise als Eigenkapital auf, wodurch es in vielen Fällen leichter wird, weitere Förderungen zu erhalten und außerdem einen besseren Überblick bei der Steuererklärung zu behalten.

Sowohl die Laufzeit, die Rückzahlungsbedingungen als auch eine mögliche Gewinnbeteiligung können dabei stets individuell verhandelt werden, eine schriftliche Fixierung dieser Bedingungen ist jedoch dringend empfehlenswert.


Maximilian Schreiber ist Unternehmer, Gründerberater und Fördermittelexperte. Sein Studium als Wirtschaftsjurist bildet die Grundlage für das Verständnis der staatlichen Fördermittelthematik. In seiner über 10 Jahre langen Tätigkeit als Unternehmer sammelte Herr Schreiber die notwendige praktische Erfahrung durch eigene Beantragung von Fördermitteln in verschiedenen Branchen, die er heute nutzt, um anderen Unternehmen und Gründern mehr Liquidität durch staatliche Fördermittel zu verschaffen. Herr Schreiber betreut Kunden im gesamten DACH-Raum.

https://zielfuehrendeberatung.de/


5. Gründerwettbewerbe und Crowdfunding Plattformen nutzen

Zukünftiger Unternehmer:innen sollten außerdem keinesfalls darauf verzichten, Menschen ihre Geschäftsidee vorzustellen und so die Chance auf weiteres Kapital zu erhalten. Natürlich kann man nie sicher sein, ob bei einem Gründerwettbewerb genau diese Idee überzeugen kann, schließlich kennt man die anderen Projekte nicht, doch einen Versuch ist es auf alle Fälle wert. Tatsächlich stehen Jungunternehmern mittlerweile zahlreiche solcher Competitions zur Verfügung, die sowohl lokal, national und auch international ausgetragen werden. Viele Wettbewerbe lassen sich mittlerweile auch online abhalten. Crowdfunding-Plattformen können ebenfalls dabei helfen, Eigenkapital aufzustocken. Hier ist ein Anreiz, dass Menschen in das neue Unternehmen investieren, dass sie im Gegenzug das Produkt z.B. kostenlos das Produkt erhalten. Besonders, wenn sich das Startup durch eine innovative Idee auszeichnet, die es so vorher noch nie gegeben hat, könnte es sich hierbei um die perfekte Möglichkeit handeln, mehr Eigenkapital zu erhalten.

6. Eigenkapital vom Staat

Tatsächlich gibt es noch einen weiteren Weg, um das nötige Geld für dein Gründerprojekt zu erhalten, und zwar über öffentliche Beteiligungsgesellschaften beziehungsweise Investitionsbanken der verschiedenen Bundesländer. Diese haben sich darauf spezialisiert, Startups sowie mittelständische Unternehmen mit dem notwendigen Kapital zu versorgen und sie somit konkurrenzfähig zu machen. Es handelt sich hierbei um sogenanntes Venture Capital, oder auch Risiko-beziehungsweise Wagniskapital. Die staatlichen Geldgeber agieren meistens als Co-Investor bei der Existenzgründung. Als Beispiele für eine solche Beteiligungsgesellschaft von Förderbanken können folgende genannt werden: die IBB Beteiligungsgesellschaft mbH oder die Kapitalbeteiligungsgesellschaft NRW.

Gründen ohne Investoren – es ist leichter, als man denkt

Eine Idee, für die man brennt und doch weit und breit kein Investor in Sicht? Das heißt noch lange nicht, dass der Traum vom eigenen Unternehmen ausgeträumt ist. Wichtig ist, die richtigen Wege zu kennen, um beruflich der eigene Herr zu bleiben und das eigene Unternehmen voll durchstarten zu lassen – ohne Anteile verkaufen zu müssen.

Die nächste IT-Katastrophe kommt bestimmt

Andreas Schmiedler, Software Account Manager, Data Protection, bei Quest Software, beschreibt den „ultimativen Disaster Recovery Plan“.

Lange galt Deutschland als Gebiet, das von Wetteranomalien größtenteils verschont bleibt, doch das diesjährige Hochwasser hat wieder gezeigt, wie unvorbereitet die Bundesrepublik gegenüber Naturkatastrophen ist. Besonders dann, wenn plötzlich kritische Infrastrukturen ausfallen wie Strom oder das Internet. Und die Situation wird sich nicht verbessern. Laut einer aktuellen Studie der europäischen Zentralbank gehören Überschwemmungen in den nächsten zwei Jahrzehnten zu den größten klimabedingten Risiken für Unternehmen. Auch Waldbrände, Hitzestress und Wasserknappheit können für bestimmte Regionen zum Problem werden. Daher ist es für Unternehmen zunehmend wichtig, ein Sicherheitsprogramm für den Ernstfall einzuführen, das auch klima- und wetterbedingte Extremereignisse berücksichtigt. Eine langfristige Planung muss also her, um auch auf diese Eventualitäten vorbereitet zu sein.

Standort ist entscheidend

Der Standort der Datensicherung sollte gut gewählt sein. Idealerweise sichert ein Unternehmen seine Daten an wenigstens zwei voneinander entfernten Standorten. So steht dem Unternehmen auch bei größeren Schäden eine redundante Struktur zur Verfügung. Haben Experten sich früher für einen Mindestabstand von 40 Kilometern ausgesprochen, empfiehlt das Bundesamt für Sicherheit in der Informationstechnik (BSI) mittlerweile eine Distanz von 200 Kilometern. Dabei sollte natürlich darauf geachtet werden, dass sich beide Standorte nicht in einem Risikogebiet befinden.

Der IT-Notfallplan gibt dem Unternehmen Strategien vor, wie es auf ungeplante Vorfälle wie Naturkatastrophen, Stromausfälle, Cyberangriffe und weiteres reagieren soll. Ein schlechter oder fehlender Plan führt zu längerer Ausfallzeit, Umsatzeinbußen, Markenschäden und unzufriedenen Kunden. Ein vorhandenes DR-Protokoll hingegen ermöglicht eine schnelle Wiederherstellung der relevanten Systeme, unabhängig von der Störungsquelle, und hält die Ausfallzeit auf ein Minimum. Für eine schnellere Reaktionslaufzeit empfiehlt es sich, den Recovery-Plan so simpel wie möglich zu halten, etwa indem bei vergleichbaren Anwendungen und Daten ein einheitliches Vorgehen eingehalten wird. So wird sichergestellt, dass im Ernstfall alle Verantwortlichen im Unternehmen an einem Strang ziehen.

Eine gute Vorbereitung spart Zeit und Mühe

Andreas Schmiedler, Software Account Manager, Data Protection bei Quest Software, rät dazu, besser jetzt zu investieren.

Der optimale Disaster-Recovery-Plan (DRP) beschäftigt sich zu Beginn mit der Erfassung der zurzeit genutzten Systeme. Dabei sollten Verantwortliche darauf achten, diese nach Wichtigkeit zu kategorisieren, sodass im Notfall eine Reihenfolge vorhanden ist, welche Systeme Priorität haben. In diesem Schritt ist es auch wichtig zu klären, wie viel Budget für die benötigten Schutzmaßnahmen zur Verfügung steht. Hier muss die Devise „je mehr, desto besser“ nicht gelten. Ein maximaler Schutz, der für den sicheren Betrieb des Unternehmens gar nicht notwendig ist, kann das Budget übermäßig belasten, während ein zu niedriges Budget wichtige Funktionen gefährden kann. Daher sollten beide Faktoren – Schutzanforderungen und Budgetvorgaben – sorgfältig aufeinander abgestimmt werden.

Ein guter Plan sollte zudem noch zwei Fragen klären:

Recovery Time Objective (RTO)

Wie lange dauert die vollständige Wiederherstellung der Geschäftsprozesse nach dem ersten Auftreten eines Schadens? Dieser Kennwert gibt Auskunft, wie lange ein System oder Service ausfallen darf, ohne das Unternehmen langfristig zu schädigen.

Recovery Point Objective (RPO)

Der RPO befasst sich mit der Frage, wie viel Datenverlust ein Unternehmen verkraften kann. Als Antwort ergibt sich der Zeitraum, der zwischen zwei Datenspeicherungen liegen darf. Liegt der RPO etwa bei vier Stunden, dann ist eine Sicherung kritischer Daten alle vier Stunden notwendig.

Alle Mann an Bord

Damit ein Disaster-Recovery-Plan auch unternehmensweit funktionieren kann, ist es wichtig, alle Abteilungen mit einzubeziehen. Zusätzlich sollten alle Verantwortlichen für das Thema sensibilisiert werden. Eine gute Maßnahme besteht beispielsweise darin, dass die Geschäftsführung eine verantwortliche Person benennt, die die Umsetzung und Planung fachlich leitet. So wird sichergestellt, dass jeder im Unternehmen seine Aufgaben kennt und der ausgearbeitete Plan im Ernstfall umgesetzt werden kann.

Selbst bei einer guten Planung und Vorbereitung ist die Arbeit noch nicht getan: Ein Disaster-Recovery-Plan wird im Ernstfall nur erfolgreich sein, wenn er regelmäßig auf den neuesten Stand gebracht wird. Denn Systeme in Unternehmen verändern sich ständig und dementsprechend müssen auch die Pläne aktualisiert werden. Vorbereitung auf ein IT-Desaster ist kein abgeschlossenes Projekt, sondern ein permanenter Prozess.

Weitere Informationen unter:
https://www.quest.com/de-de/

Messen: Neue Pfade jenseits des Kerngeschäfts

Emke Hillrichs, Director Retail & Media Ecosystems bei der Strategieberatung diffferent, zeigt der Veranstaltungsbranche auf, wie diese die Digitalisierung nutzen können.

Wer im Event- und Messesegment alternative Möglichkeitsfelder in seinem Business- und Ertragsmodell durchdenkt, Ideen ausprobiert und konsequent nachjustiert, wird die richtigen Korridore für neues Wachstum finden.

Denken Sie mal an die NBA Playoffs 2020 zurück. Diese wurden digital abgehalten, ZuschauerInnen waren im Stadion wegen Corona nicht erlaubt. Dennoch konnten die Fans direkt ans Spielfeld geholt werden – durch den ‚Together Mode‘ von Microsofts Kommunikationsplattform. Dieser nutzt AI-gestützte Segmentierungstechnologie, um Menschen vor einem virtuellen Hintergrund zusammenzubringen. So wurden rund 300 Fans auf fünf Meter hohe LED-Displays am Spielrand auf drei Seiten des NBA-Basketball-Cours projiziert. Die Fans konnten sich gegenseitig beobachten und gleichzeitig das Spiel live mitverfolgen. Ein Paradebeispiel für eine gelungene Event-Hybridisierung.

Geschäftsmodelle weiterdenken, ausdifferenzieren und transformieren

Corona hat unsere Tagesabläufe in Rekordzeit hybridisiert. Die Akzeptanz für digitale Veranstaltungen ist inzwischen groß. Hinter der Digitalisierung steht allerdings eine weitaus höhere Mission: Es geht um das psychologische Loslösen vom physischen Ort und damit um eine potenzielle Erweiterung der Zielgruppe. MessebesucherInnen der Zukunft haben heute zwei Wege, um an der Veranstaltung teilzunehmen – durch das physische oder das digitale Messetor.

Um herauszufinden, welche Funktionen sich für eine Hybridisierung eignen, gilt es, einen strategischen Blick auf das eigene Angebot zu werfen und zu evaluieren, welche Bestandteile digital funktionieren und welche eher nicht. Oft lohnt es sich, zunächst einmal Wissensangebote sowie Inspirations- und Informationsangebote ins Auge zu fassen. Daraus lassen sich relativ einfach Learning- und Konferenzmodule konzipieren, die für die TeilnehmerInnen Mehrwert bieten.

Die Hybridisierung einzelner, geeigneter Angebote von Event- und Messe-Marken als ersten Schritt der Transformation ist auch deshalb essenziell, da sie erlaubt, das Kern-Business teilweise in zusätzlichem digitalem Gewand weiterzuführen. Denn die Investitionen in neue Business-Modelle will schließlich auch finanziert werden.

Loslösen von der zeitlichen Dimension

Es zeichnet sich ab, dass Messen und Events in Zukunft weder an räumliche noch an zeitliche Grenzen gebunden sein werden. Das Loslösen von der zeitlichen Dimension bietet viele Vorteile: Wenn einzelne Angebote digital angeboten werden, gibt es weniger Gründe, ein Event auf ein Wochenende oder eine Woche im Jahr zu beschränken. So gesehen kann eine Messe – oder zumindest die digitalen Bestandteile davon – mehrmals im Jahr stattfinden. Weiterhin können Zielgruppen genauer adressiert werden, indem Branchen-Veranstaltungen an saisonale Business-Schwerpunkt gekoppelt werden.

Vom Einzel-Event zur Serie

Für eine Serialisierung von Veranstaltungen und Messen, sollten Verantwortliche den User Benefit genau fokussieren. Denn es macht einen großen Unterschied, ob ein Networking oder ein passives Erlebnis in Serie geht. Wenn in der Konzeption sortenrein zunächst ein Benefit transformiert wird, schärft sich der Blick für das Erlösmodell und die Go-To-Market-Strategie.

Das Festival Tomorrowland im Jahr 2020 ist ein gutes Beispiel für Serialisierung. Denn es zeigt, dass Ertrags- und Businessmodelle vor allem dann vielversprechende Chancen auf neues Wachstum in sich bergen, wenn die digitalen Möglichkeiten erkannt und parallel zu den analogen Angeboten ausgebaut werden. Nach dem digitalen Tomorrowland wurden alle Performances der DJs im Internet verfügbar gemacht. Eine On-Demand Plattform, die das Festival noch einmal erlebbar machte – oder anders gesagt: ein Netflix für FreundInnen der elektronischen Musik. Das Interessante an dieser Art der Serialisierung ist, dass die zeitliche Dimension komplett ausgehebelt ist – NutzerInnen können Tag und Nacht auf die DJ-Sets zugreifen – und die Festivalveranstalter haben sich zudem einen zweiten Revenuestream geschaffen.

Den Blick in die Zukunft richten

Nachdem sich die Messe- und Eventveranstalter schon Gedanken dazu gemacht haben, welche Angebotsteile sich für die Transformation besonders eignen, sollten sie die eigenen Kompetenzen dahinter herausfiltern und neu zusammenzusetzen. Also die echten Markenassets zerlegen und neu interpretieren – mit neuen Funktionen für neue oder alte Zielgruppen.

Es gilt festzuhalten, was man mit den Kompetenzen von Organisation oder Marke noch tun könnte: Welche Geschäftsfelder und Angebote kann die Marke als echte Blue Ocean-Strategie noch anbieten? Könnte die eigene Organisation neben physischen zukünftig auch digitale Konferenzen organisieren, also Wissen vermitteln? Dann sollte man sich den Markt der Fachmedien oder der Erwachsenen-Bildung einmal genauer anschauen. Und hier passiert gerade viel: von der TED über das ‚House of Beautiful Business‘ bis zur ‚School of Life‘ – um nur einige Beispiele zu nennen.

Ein echter Zauberer in Hinblick auf neue Businessmodelle und Revenue-Streams ist Amazon. Angefangen mit E-Commerce bietet das Unternehmen heute mit Amazon Web Sevices auch Cloud-Lösungen an. Davon können sich andere Unternehmen einiges abschauen. Etwa wie es gelingt, das eigene Potenzial genau auszuloten und den Mut zu haben, den eigenen Skills entsprechend neue Wege auch außerhalb des Kerngeschäfts zu gehen. Dabei helfen folgende Frage: Was kann unsere Organisation gut? Was wäre, wenn unser Unternehmen von einem Tag auf den anderen das bisherige Angebot einstellen müsste? Was kann man aus den Stärken der Marke heraus Neues machen?

Durch Dekonstruktion zu neuem Wachstum

Um sich auf den Weg in Sachen Transformation zu machen, müssen EntscheiderInnen bereit sein, sich im strategischen Denken vom operativen Tun zu entfernen. Veranstalter müssen ihre Geschäftsmodelle weiterdenken, ausdifferenzieren und transformieren. Sie brauchen Mut zur Selbst-Dekonstruktion und die Vorstellungskraft für eine Rekombination der bisherigen Kompetenzen und Angebote.

Das gilt im Messe- und Veranstaltungssegment genauso wie in anderen Branchen. Die breite und zukunftsorientierte Aufstellung bietet besonders in komplexen Branchen die Möglichkeit des mehrdimensionalen Wachstums im neuen Angebots-Ökosystem. Das bedeutet jedoch nicht Beliebigkeit, sondern vielmehr ein System von sich gegenseitig ergänzenden Geschäftsmodellen – für eine zukunftsfähige Geschäftsausrichtung.

Emke Hillrichs (Quelle: Daniel Meyer)

Über den Autor

Emke Hillrichs ist Director Retail & Media Ecosystems bei der diffferent, der Strategieberatung für Neues Wachstum. Er berät seine KundInnen schwerpunktmäßig in den Bereichen Marken- und Innovationstrategie. Dabei entwickelt und pilotiert er mit seinem Team neue Geschäftsmodelle & Produkte auf dem Weg zu funktionierenden Ökosystemen. Zu seinen KundInnen zählen die Frankfurter Buchmesse, die Messe Frankfurt, Audible, Mediengruppe RTL oder Die Bahn.  


Weitere Informationen unter:
https://www.diffferent.de/branchen/retail-media-systems/

Everyday AI

Ohne die Demokratisierung von Daten arbeiten Teams in ihrem eigenen Silo!

Bildverarbeitung leicht gemacht

Kameras und Künstliche Intelligenz, eine Kombination, mit der sich IDS neu erfindet und die Zukunft mitgestaltet.