Drei Strategien für mehr Kunden im Handel

Die Corona-Pandemie hat den Strukturwandel im Handel kräftig vorangetrieben. Um etwa sieben bis acht Jahre, so eine Analyse des Instituts für Handelsforschung (IFH), die das Phänomen „Coronaturbo“ nennt. Für Händler bedeutet dies, dass sie noch schneller auf das geänderte Konsumverhalten und auf Kundenbedürfnisse reagieren müssen. Benjamin Thym, CEO des Shopper Marketing Networks Offerista Group, beleuchtet drei Strategien, die Händler für sich prüfen sollten.

Omnichannel und digitales Handelsmarketing werden wichtiger denn je.

Während des Lockdowns haben die Konsumenten gemerkt, welche Vorteile der stationäre Handel bietet. Und genau deshalb sind die Unkenrufe, die die Innenstädte für tot erklären, nicht gerechtfertigt. Auch in Zukunft wird der stationäre Handel nicht verschwinden. Vier von fünf deutschen Konsumenten (81 Prozent) haben es laut einer Studie von Offerista während des Lockdowns vermisst, vor Ort im Laden einzukaufen – in erster Linie, weil ihnen das Anschauen und Anprobieren von Produkten fehlt. Das ist die große Chance der Ladengeschäfte. Ein haptisches Erlebnis kann Online nicht bieten. Allerdings müssen Ladengeschäfte innovativer, serviceorientierter und digitaler werden, um Kunden anzuziehen und zu halten.


„Durch die Corona-Krise wird der Wunsch nach besonderen Einkaufserlebnissen, die Experience Economy,
langfristig an Bedeutung gewinnen. Jeder Ausflug zum Shopping wird zu einer bewussten Entscheidung der Konsumenten.“


Eine Verzahnung von Online- und Offline-Angeboten wird künftig noch wichtiger. Der Handel testet bereits unterschiedlichste Konzepte aus Click & Meet, Home Delivery, online bezahlen mit NFC oder Payback Pay sowie Self-Check-out-Kassen wie bei Amazon GO. In der Corona-Krise hat sich der Handel zeitweise mit Click & Collect über Wasser gehalten. Dieser Service ist bei Kunden beliebt geworden. Mittlerweile ist Click & Collect mit 88 Prozent der am häufigsten kommunizierte Omnichannel-Service von Händlern, gefolgt von Verfügbarkeitsanzeigen für Warenbestände in Ladengeschäften (53 Prozent). Einen Instore-Return, also die Rückgabe online gekaufter Waren in Ladengeschäften, ermöglichen knapp 44 Prozent der Händler. Das zeigt die Studie „Connected Retail 2021“ des Handelsinstituts EHI, das die 1.000 umsatzstärksten Online-Shops in Deutschland analysierte.

Benjamin Thym
(Credit: Offerista Group)

Der Online-Anteil am Handel wird früher ansteigen als gedacht, so das IFH Köln. Die Experten sprachen in ihren Vor-Corona-Prognosen von bis zu 22 Prozent bis 2030. Nun wird diese Einschätzung insgesamt bis zu acht Jahre früher eintreten. Das bedeutet nicht unbedingt, dass alle Händler künftig Online-Shops brauchen, allerdings sollten sie im Netz mit ihrer Marke und ihren Angeboten präsent sein – mit einer Website, über Social Media, Bewertungen oder mithilfe digitaler Werbung. Durchschnittlich brauchen Konsumierende nämlich sechs Kontaktpunkte bis zum Kauf (Studie „5 Jahre Wavemaker Momentum“, 2019).

Auch die Angebotskommunikation, die im Handel traditionell über gedruckte Werbeprospekte stattfand, wird digitaler. Nur noch gut 30 Prozent des Bruttowerbeaufkommens fließen in die klassischen Handelsmedien, wie Prospekte, Handzettel, Flyer oder Anzeigen, wie der „EHI Marketingmonitor 2021-2024“ zeigt.  Gut 34 Prozent der Investitionen gehen stattdessen in die digitale Handelskommunikation, zum Beispiel in SEO, Social Media oder digitale Prospekt- oder Gutscheinportale. Bis 2024 sollen digitale Medien um weitere 4 Prozentpunkte in ihrer Bedeutung zulegen, während klassische Handelsmedien 7 Prozentpunkte verlieren werden.

Gerade in Corona-Zeiten sind die Vorteile des digitalen Angebotskommunikation noch einmal klar geworden. Sie ist nicht nur weniger aufwändig und günstiger, sondern auch in Echtzeit möglich. Spontane Änderungen zur Öffnung von Filialen oder zum Sortiment (wir erinnern uns an das kurzfristige Verkaufsverbot von Feuerwerk 2020) sind über digitale Wege kein Problem. Ein weiterer Pluspunkt ist die Erfolgsmessung, die Händlern die Kontrolle über ihr Marketingbudget gibt, indem das Kosten-Nutzen-Verhältnis klar aufgezeigt wird. Bei Printmaßnahmen ist dies deutlich schwerer. Durch die digitale Kommunikation von Angeboten hat der Händler auch eine bessere Möglichkeit, die Kunden entweder in die Filiale (Drive-to-Store-Kampagnen) oder in den Online-Shop zu schicken.

Mehr Chancen durch Kooperationen und Marktplätze

Beispiel für digitales Handelsmarketing: Einbindung von Angebotskommunikation und digitalen Prospekten auf dem Portal Gutscheine.de
(Bildnachweis: Offerista Group GmbH)

Händler sollten dort sichtbar sein und ihre Produkte anbieten, wo sich ihre Kunden aufhalten. Denn sind sie es nicht, profitieren andere. Eine mögliche Strategie ist also, nicht nur auf eigene Verkaufsplattformen zu setzen, sondern parallel auch auf Marktplätzen, wie Amazon, Waren anzubieten und Retail-Media-Angebote zu nutzen.

2021 hat beispielsweise das Modeunternehmen C&A Aufsehen damit erregt, nun auch über Zalando zu verkaufen, um von der Reichweite des bekannten Online-Modehändlers zu profitieren. Die Auswahl eines Kooperationspartners sollte natürlich immer gut bedacht sein, damit sie nicht zu einer Schwächung oder Schädigung der eigenen Marke führt.

Unabhängig davon, ob Händler selbst Filialen haben oder nur im Online-Handel unterwegs sind, bieten Kooperationen mit anderen Marken viele Vorteile. Immer mehr Händler werden zukünftig ihre Kundenkontakte monetarisieren. Intersport beispielsweise bietet Werbeflächen in seinen Online-Kanälen und auf den Flächen der Händler vor Ort zur Vermarktung an – auch für branchenfremde Unternehmen. Dies ist ein guter Omnichannel-Ansatz, um mehr Sichtbarkeit, Reichweite und neue Zielgruppen zu erreichen. Auch eine regionale oder internationale Ausweitung des Geschäfts oder das Testen neuer Märkte und Produkte ist darüber auf relativ schnellem Wege möglich, ohne eigene Verkaufsplattformen aufbauen zu müssen.

Experience Economy: Kundenerlebnisse gewinnen an Bedeutung

Der E-Commerce boomt, aber damit ist der stationäre Handel noch lange nicht abgeschrieben. Ganz im Gegenteil. Zwar informiert sich ein Großteil der Deutschen (80 Prozent) über Angebote des Handels auf digitalen Kanälen, wie Webseiten, Apps und Social Media, kauft jedoch mehrheitlich (67 Prozent) im stationären Einzelhandel. Dieses Konsumverhalten wurde durch die Corona-Krise gestört. Die Folge: Viele Menschen solidarisieren sich mit ihrer Nachbarschaft. 60 Prozent der Verbraucher geben an, dass sie lokale Läden in diesen Zeiten ganz bewusst unterstützen, so der IDH Konsumentenreport für das erste Quartal 2021. Darauf sollten sich Händler allerdings nicht ausruhen.

Durch die Corona-Krise wird der Wunsch nach besonderen Einkaufserlebnissen, die Experience Economy, langfristig an Bedeutung gewinnen. Jeder Ausflug zum Shopping wird zu einer bewussten Entscheidung der Konsumenten. Es werden jene Händler gewinnen, die ihrer Kundschaft offline wie online ein herausragendes und konsistentes (Einkaufs-)Erlebnis bieten und auf smarte Omnichannel-Strategien setzen.

Händler können davon profitieren, wenn sie sich nicht nur als Ort des Verkaufens von Waren begreifen, sondern als ein Ort der Begegnung und des Erlebnisses. Also genau jene Dinge, die den Menschen in der Pandemie so gefehlt haben. Ein Beispiel: Ein lokaler Unverpackt-Laden in einer deutschen Großstadt hat ein Café mit Mittagstisch in das Geschäft integriert. Und nach Ladenschluss veranstalten die Betreiber Vorträge und Workshops zu Themen rund um ein nachhaltiges Leben. Und natürlich können aus solchen Event-Formaten dann wiederum Kooperationen mit anderen Marken und Unternehmen entstehen.

Im Handel der Zukunft ist alles miteinander verknüpft. Online wie offline. Wenn Händler dies begreifen und umsetzen und das Kundenerlebnis in den Mittelpunkt rücken, profitieren sie von neuen Kunden, Wettbewerbsvorteilen und verstärkter Kundenbindung.  

Über den Autor:

Benjamin Thym kennt und versteht die Herausforderungen des Handels. Er ist CEO des Shopper +++ Offerista Group, das auf digitale Lösungen für standortbasiertes Angebots- und Filialmarketing in Europa spezialisiert ist. 2021 hat er mit seinen Mitbewerbern die Gattungsinitiative „Initiative Digitale Handelskommunikation“ (IDH) gegründet. Sie wollen das Thema als zukunftsweisenden Industriezweig breiter in die öffentliche Wahrnehmung bringen. 

Weiterführende Informationen zum Unternehmen:

Offerista gehört zu den drei Initiatoren der 2021 ins Leben gerufenen „Initiative Digitale Handelskommunikation“ (kurz IDH).  Ziel der Gattungsinitiative ist es, das Thema digitale Handelskommunikation als zukunftsweisenden Industriezweig breiter in die öffentliche Wahrnehmung zu bringen.

Offerista Group GmbH

Aufmacherbild / Quelle / Lizenz
Photo by Joshua Rawson-Harris on Unsplash

VORAUS:schau Live

Mit „VORAUS:schau live“ startet eine neue Q&A-Reihe mit Expertinnen und Experten des BMBF-Zukunftskreises aus unterschiedlichen wissenschaftlichen Disziplinen und Berufssparten, die Zukunftsvisionen erörtern.


In der sechsteiligen Q&A-Reihe „VORAUS:schau live“ beantworten Expertinnen und Experten des Zukunftskreises und Zukunftsbüros, die dem BMBF beratend zur Seite stehen und damit zu dessen strategischer Vorausschau beitragen, die Fragen der Moderatorin und des Publikums.

Aus einem breiten Spektrum wissenschaftlicher Disziplinen und beruflicher Hintergründe heraus bieten sie sowohl Forschenden als auch interessierten Bürgerinnen und Bürgern eine Orientierung für die Zukunft und klären über den Prozess der Vorausschau (Foresight) auf. Sie stellen schon heute die Fragen von morgen, um frühzeitig Orientierungswissen über zukünftige gesellschaftliche und technologische Entwicklungen zu erlangen.

Ob es nun um die Zukunft der Umwelt, des Wohnens, unserer Gesundheit und Alterungsprozesse oder die Themen Bildung, Gesellschaft und Arbeit geht: In den sechs Folgen „VORAUS:schau live“ betrachten ausgewählte Fachleute aus Wissenschaft und Wirtschaft über die kommenden zwölf Monate hinweg die Welt von morgen aus einem realistischen, produktiven, nachhaltigen und lösungsorientierten Blickwinkel.

Die zentralen Fragen der Veranstaltungsreihe: Welche Zukunftstrends sind schon heute sichtbar und wie werden sich diese in Zukunft entwickeln? Welche Zukunftsszenarien sind denkbar und wie können wir diese bereits jetzt mitgestalten?

Premierenfolge – Thema Wasser

Den Start machen Björn Theis vom Zukunftskreis und Zukunftsbüro-Mitglied Michael Astor. Sie widmen sich dem Thema Wasser:

Steigende Temperaturen, trockene Sommer, schnelle Wetterumschwünge – diese Auswirkungen des Klimawandels sind unmittelbar in unserem Alltag spürbar.

Björn Theis, Zukunftskreis
Michael Astor, Zukunftsbüro-Mitglied

Das Thema Wasserknappheit läuft jedoch noch unter dem Radar. Das bestätigt eine aktuelle repräsentative Meinungsumfrage des Meinungsforschungsinstituts Civey im Auftrag des BMBF: Nur 24 Prozent der deutschen Bürgerinnen und Bürger geben an, dass sie sich persönlich von der zunehmenden Wasserknappheit betroffen fühlen.

Fragt man jedoch nach ihrer Einschätzung für die Zukunft, ist fast die Hälfte der Befragten (48 Prozent) der Meinung, dass die zunehmende Wasserknappheit ihren Alltag in 20 Jahren betreffen wird.

Ist dieses Problem wirklich noch so weit weg? Wie wird die Wasserknappheit unser Leben verändern und vor welche Herausforderungen wird sie uns stellen?

Diese und weitere drängende Fragen zur Zukunft stehen im Zentrum der Premierenfolge.

Dr. Jo Schilling von Technology Review, dem Magazin für Innovation von Heise und Medienpartner dieser Veranstaltungsreihe moderiert die Folge und diskutiert mit den Experten über die Zukunft der Umwelt.

>>> Hier können Sie die Premierefolge ansehen: https://www.youtube.com/watch?v=4msni_oXYz4

Nächste Folge am 30.08.


Zuschauerinnen und Zuschauer sind eingeladen, ihre persönlichen Fragen live an die Experten zu richten und so mit führenden Köpfen aus Wissenschaft und Wirtschaft in den direkten Austausch zu treten. Die Teilnahme ist kostenfrei und virtuell für alle möglich.
Zu den Veranstaltungen geht es unter: bmbf.de/vorausschau-live/interaktion

Innovationstreiber Rechenzentren

Rechenzentren als Innovationstreiber und zuverlässige Basis einer zukunftsfähiger IT-Infrastruktur

Wer kann sich heute noch vorstellen, eine Reise offline zu planen, mit den Kollegen nur per Brief und Festnetzanschluss zu kommunizieren oder eine Rechnung mit einem Print-Überweisungsformular zu bezahlen? Die Digitalisierung hat nach und nach jeden Bereich unseres Lebens durchdrungen. Und die Geschwindigkeit, mit der diese Entwicklung inzwischen fortschreitet, ist atemberaubend – ebenso die Menge an Daten, die dafür gespeichert, gesichert und in Sekundenschnelle um die Welt geschickt werden muss. Und ein Ende dieser Entwicklung ist nicht abzusehen: Bis 2025 soll die Menge der Daten auf 175 Zettabytes anwachsen.

Damit diese Datenmengen auch verarbeitet werden können, muss die IT-Infrastruktur mit der Weiterentwicklung der Technologien Schritt halten. Während der Ausbau der Datenübertragung beispielsweise mit Diskussionen um 5G in aller Munde ist, führt die Frage „Wie können wir auch künftig unsere Datenmengen sinnvoll speichern?“ ein relatives Schattendasein. Und dass, obwohl sie für Wirtschaft und Gesellschaft von eklatanter Bedeutung ist. Datenspeicherung findet vor allem in Rechenzentren statt. Wie also sieht es aus, das Rechenzentrum der Zukunft? Und welche Faktoren werden dieses beeinflussen?

Einfluss durch Nutzer und Marktumfeld

Neben der bereits angesprochenen reinen Menge an Daten beeinflussen noch andere Faktoren die Marktdynamik im digitalen Umfeld. Eine große Rolle spielt beispielsweise die Erwartungshaltung der Nutzer: Niemand will heute mehr zwei Minuten warten, bis sich eine gesuchte Webseite aufbaut, schon gar nicht auf mobilen Endgeräten. Das bedeutet im Umkehrschluss, dass rasche Übertragungsraten und eine hohe Verarbeitungsgeschwindigkeit für jeden ein absolutes Muss sind, der seine Kunden oder User behalten möchte.

Gleichzeitig sind auch die Anforderungen an die Datensicherheit und Skalierbarkeit noch einmal deutlich gestiegen. Dafür gibt es zwei Gründe: Zum einen nutzen und speichern Verbraucher sowie Unternehmen inzwischen viel häufiger sensible Daten virtuell. Zum anderen haben sich gleichzeitig die Hackerangriffe vervielfacht: So sind laut einer bitkom-Studie in den vergangenen zwei Jahren 75 Prozent der befragten Unternehmen Opfer eines Cyberangriffs geworden[1]. So müssen auch die Rechenzentren dafür sorgen, in punkto Sicherheit stets dem „State of the Art“ zu entsprechen.

Nachhaltigkeit nimmt künftig zentrale Position ein

Während die Bereiche Geschwindigkeit und Sicherheit seit den Anfängen der Digitalisierung immer schon Fokusthemen waren, wird in den nächsten Jahren ein weiteres mehr Gewicht erhalten: Nachhaltigkeit. Dank Fridays for Future & Co. ist der Klimawandel endlich in der Gesellschaft und Politik präsent. Langfristig werden nur die Unternehmen erfolgreich sein, die nachhaltig denken, wirtschaften und handeln. Und das betrifft eben nicht nur die Produktwelt, sondern auch die gesamte Infrastruktur – angefangen bei der IT. Denn diese ist mit ihrem enormen Stromverbrauch tatsächlich eine Herausforderung. Umweltverträgliche Rechenzentrums-Konzepte sind ein Schlüssel zu einem kleineren CO2-Abdruck von Unternehmen und haben den Nebeneffekt, dass sie auch die IT-Kosten senken können. Der Einsatz von Ökostrom ist eine Möglichkeit für mehr Nachhaltigkeit.

Aber es gibt noch weitere Stellschrauben, die ein Datacenter umweltverträglicher machen. So sorgt beim Bau eines neuen Rechenzentrums ein modulares Konzept für eine rasche Umsetzung und damit eine geringe Umweltbelastung, denn die Standardmodule lassen sich nachhaltiger herstellen.  Auch moderne Klimatisierungskonzepte helfen, Ressourcen zu sparen. So kann über flächendeckende Kaltgang-Einhausungen – eine zentrale Maßnahme zur Optimierung der Kühlung – mit Sensoren die Klimatisierung optimal gesteuert werden. Die dabei entstehende Warmluft wird über Wärmepumpen zum Beheizen des Gebäudes genutzt. Das spart CO2 und hält die Betriebskosten gering.

Der Standort als Politikum

Wenn der Kapazitätsbedarf steigt, werden auch mehr Rechenzentren benötigt. Zu klären bleibt, wo man diese am besten platziert. Und hier sind nicht nur die Betreiber der Zentren gefragt, sondern auch die Kommunen. Die Flächen in Ballungszentren, die auch den größten Kapazitätsbedarf haben, ist begrenzt und teuer. Als wäre das nicht fordernd genug, muss auch die BSI-Richtline beachtet werden. Diese sieht zwischen zwei Rechenzentren eine Distanz von mindestens 200 km vor, damit im Falle von Naturkatastrophen wie beispielsweise Erdbeben nicht alle Standorte der Region gleichermaßen betroffen sind. Diese Vorgabe wirft bei Unternehmen und Rechenzentrumsbetreibern zusätzliche Fragen auf – und generiert wahrscheinlich neuen Bedarf an Rechenzentrumsflächen.

Bei all diesen Themen sind politische Lösungen nötig, das Engagement der Verantwortlichen hält sich derzeit allerdings noch in maßvollen Grenzen. Und das obwohl inzwischen klar sein dürfte, wie wichtig eine zukunftsfähige flächendeckende IT-Infrastruktur für den Wirtschaftsstandort Deutschland ist. Ebenfalls zu klären ist, wie der steigende Strombedarf sinnvoll und ressourcenschonend zu decken ist.

Rechenzentren sollen Stabilität in einem extrem dynamischen Umfeld bieten. Klar ist, dass dies nur mit Anlagen gelingen kann, die so konzipiert sind, dass sie sich an Veränderungen möglichst einfach sowie kosten- und umweltschonend anpassen können. Nicht umsonst geht der Trend inzwischen zu den wendigeren Micro- und Edge-Rechenzentren mit Colocation-Angeboten. Unternehmen finden hier ein Umfeld, das für jede ihrer notwendigen Entscheidungen die passende Infrastruktur bietet – und sie so zukunftsfähig macht.

Über den Autor:

Wolfgang Kaufmann verantwortet die Planung, den Bau und Betrieb von Rechenzentren. In seiner Funktion hat er das erste in komplett modularer Bauweise errichtete Rechenzentrum in Deutschland realisiert und entscheidend mitgestaltet. In über 20 Jahren Branchenerfahrung hat Wolfgang Kaufmann mehr als 20.000 qm Rechenzentrumsfläche gebaut und betrieben. Sein Spezialgebiet ist der stetige Einsatz von innovativen und energieeffizienten Infrastrukturlösungen.


[1] bitkom: Spionage, Sabotage und Datendiebstahl –Wirtschaftsschutz in der vernetzten Welt (Studienbericht 2020)

Aufmacherbild / Quelle / Lizenz
Photo by Ian Battaglia on Unsplash

Klasse statt Masse – smarte Daten für Ihren Online-Shop

von Thorsten Mühling

Klasse statt Masse. Im E-Commerce kommt es nicht auf Big Data an, sondern auf Smart Data. Denn Unternehmen in dieser Branche brauchen nicht alle denk- und speicherbaren Informationen, um erfolgreich zu sein. Sie brauchen die richtigen. Mit den passenden Informationen klappt es dann auch mit der Personalisierung, was im Online-Handel ja erst besonders tolle Kundenerlebnisse ermöglicht. In beiden Fällen nimmt KI eine Schlüsselrolle ein.

Der E-Commerce wuchs zwischen 2019 und 2020 laut HDE Online Monitor 2021 (S.6) um beeindruckende 23 Prozent. Für 2021 prognostiziert die Untersuchung einen Anstieg um weitere 17 Prozent. Auch viele ältere Menschen haben – ausgelöst durch die Schließungen im stationären Handel – das Online-Shopping für sich entdeckt. Die wachsende Zahl der Web-Käufer bringt den Netz-Händlern nicht nur neue Kunden, sondern auch viele frische wichtige Daten über die Nutzer – sogenannte Big Data. Das zeichnet sich zum einen durch ihr Volumen, aber auch durch die Methoden und Technologien aus, die Händler verwenden, um einen Nutzen aus den Informationen zu ziehen. Besonders interessant ist dabei ein genauerer Blick auf die Frage, welche Daten der E-Commerce besonders gut gebrauchen kann.  

Von Big Data zu Smart Data

Wichtige Informationen aus dem großen Big-Data-Pool sind beispielsweise solche, mit denen ein Unternehmen sein zukünftiges Agieren besser planen kann. Darunter fallen unter anderem Informationen aus dem Shopsystem, dem Warenwirtschaftssystem und dem Klick- und Kaufverhalten. Doch das Sammeln dieser Angaben allein reicht nicht aus. Um die Informationen nachhaltig nutzen zu können, sollte eine effektive und zielgerichtete Analyse erfolgen, an deren Ende zum Beispiel Muster und Korrelationen stehen. Aus dem vormaligen großen Volumen der Big Data erfolgt so also eine Extraktion von Smart Data. Letztere sind nützliche Informationen für bestimmte Anwendungsfälle im E-Commerce.


Unser Gastautor

Thorsten Mühling ist CEO und Co Founder der epoq internet services GmbH. Der studierte Betriebswirt gründete bereits 2003, gemeinsam mit seinem Partner Michael Bernhard, ein Tech-Unternehmen. Dieses entwickelte selbstlernende Systeme, die in verschiedenen Branchen zum Einsatz kamen. 2013 hat er zusammen mit Michael die epoq internet services GmbH gegründet und sich ganz der KI-gestützten 1:1-Personalisierung des digitalen Handels gewidmet. Er leitet seit der Gründung das operative Geschäft von epoq und ist für die strategische Weiterentwicklung des Unternehmens verantwortlich.

Der E-Commerce-Experte gestaltet und verfolgt den Aufstieg des Online-Handels seit fast zwei Jahrzehnten. Dabei versteht er es, erfolgreiche Prozesse des stationären Handels, mit beständigen Innovationen, in die digitale Welt zu transportieren. In seiner Freizeit ist Thorsten als Fußballtrainer sportlich aktiv und schwingt daneben gerne den Schläger als begeisterter Golfer.

https://www.epoq.de/


Um Personalisierungsmaßnahmen durchzuführen sind z. B. Verhaltensdaten entscheidend, welche DSGVO-konform eingesetzt werden können. IP-Adressen oder andere personenbezogene Daten werden für die erfolgreiche Personalisierung eines Online-Shops nicht benötigt. Die Verhaltensdaten sind aber umso wertvoller, je „stabiler“ die Aggregation ist: Hat der Kunde ein Konto, können die Daten an eine stabile Customer-ID angehängt und in der Datenbank aggregiert werden. Aber auch ohne Kundenkonto kann personalisiert werden. Denn fortschrittliche Personalisierung nutzt keine Third-Party-Cookies mehr, sie stützt sich auf First-Party-Identifier im Rahmen des Online-Shops und gehört somit zu dem IT-Umfeld des Shop-Betreibers.

Use Case

Agiert ein Konsument also mit der Webseite eines Online-Shops, erhält der Betreiber erstmal Big Data. Durch die Datenanalyse wir daraus Smart Data. Sie beantworten Fragen wie: Auf welche Links hat der Kunde geklickt? Welche Artikel hat er in den Warenkorb gelegt? Und wie lange hielt sich der User wo auf? Anhand eines KI-unterstützen Modells erfolgt anschließend eine Berechnung darüber, welche der extrahierten Informationen zur Verbesserung des Shopping-Erlebnisses für den aktuellen Kunden und für ein mögliches aktuelles Problem – wie zum Beispiel der fehlenden Conversion – führen kann. Der Data Scientist legt somit fest, welche Daten im Shop entscheidend sind, um beispielsweise für Empfehlungen eine Vorhersage zu treffen, die dann mit hoher Wahrscheinlichkeit zum Kauf führt. Das sind dann Smart Data. Diese Daten werden schließlich von den Algorithmen weiterverwendet. Dieser Personalisierungsprozess hat eine bessere und erfolgreichere User Experience des Nutzers zur Folge.

Mit Personalisierung durch KI zur erfolgreichen Customer Journey

Im stationären Handel gibt es den Fachverkäufer, der potentielle Käufer im Idealfall so gut betreuen kann, dass sie genau das finden, was sie suchen. Außerdem kennt er seine Kundschaft so genau, dass er ihnen auch gezielt weitere Produkte vorschlagen kann. Viele Konsumenten schätzen dieses persönliche Erlebnis, das dem stationären Handel bisher immer einen Vorteil verschafft hat. Allerdings gibt es diese Art der Personalisierung jetzt auch für Online-Shops.
 

Mit Hilfe von KI sind wir mittlerweile in der Lage, sehr gute Prognosen abzugeben, für welche weiteren Artikel sich ein Online-Shopper ziemlich sicher interessiert. Wir können heute zum Teil sogar ein besseres Einkaufserlebnis bieten als der stationäre Fachhandel. Und dabei geht es um die gesamte Customer Journey. Das Ziel ist es, zu verhindern, dass der Kunde seine Meinung irgendwo zwischen Kauf-Idee und Abschluss noch ändert. Mit der passenden KI-gestützten Software schaffen es Online-Händler auch, nicht nur die Conversion-Raten, den Traffic, die Wiederkaufrate oder den Warenwert im Einkaufkorb zu erhöhen, sondern auch die Zahl der Retouren zu minimieren. Denn erhalten Kunden schon vor dem Kauf genau die Empfehlung zu den Produkten, die sie auch wirklich suchen, gibt es keinen Grund mehr, sie zurück zu schicken. 

Algorithmen helfen dabei, dass Online-Händler dem Kunden genau auf seine Bedürfnisse und Interessen abgestimmte Inhalte anzeigen können. So erfährt auch die emotionale Komponente eines Einkaufserlebnisses durch die Personalisierung eine Steigerung gegenüber dem stationären Handel. Bei der Wahl der richtigen Tools, um eine durchdachte, authentische und 1:1 personalisierte Strategie im Online-Shop umzusetzen, dürfen die Richtlinien der DSGVO nicht außen vor bleiben. Denn es sind ausschließlich pseudonymisierte Daten für die Personalisierung nötig.  

Use Case

Ein gutes Beispiel ist Outletcity in Metzingen. Bereits seit einiger Zeit setzte der Online-Shop auf eine Recommendation Engine für die Personalisierung von Produkt-Empfehlungen. Dr. Stefan Hoffmann, Managing Director bei Outletcity Metzingen, erklärt dazu: „Unsere Premium- und Luxus-Kunden erwarten, insbesondere von uns als geschlossenem Online-Shop, personalisierte Angebote und Empfehlungen, basierend auf Markenpräferenz, der eigenen Kleidergröße oder dem Geschmack.“ Nach der Verbesserung der Personalisierungsstrategie durch die Integration eines neuen Personalisierungs-Tools, stieg der Umsatz des Shops pro Session um 5,04 Prozent.

Die Conversion-Rate erhöhte sich um 2,1 Prozent. Im Detail erhielt zum Beispiel die Produktdetailseite zwei Widgets (Produktkarten) mit Alternativ- und Cross-Selling Empfehlungen. Außerdem zeigen jetzt die Bestellbestätigungsseiten und die Log-Out Seiten jeweils ein Widget mit Empfehlungen zu Produktkategorien, die von Kunden noch nicht angesehen wurden. Die Ausspielung der Produkte in den Widgets erfolgt für jeden Kunden individuell und führen dadurch zu einem gesteigerten Shoppingerlebnis.

Der E-Commerce wächst stetig weiter. Neben Konsumenten, die sowohl im stationären wie auch im Online-Handel shoppen, gibt es immer mehr Kunden, die nur noch rein digital unterwegs sind. Und sie erwarten auch hier ein tolles Shopping-Erlebnis. Die vorgestellten Beispiele zeigen anschaulich, dass Web-Händler gute Möglichkeiten haben, um aktiv nachzusteuern und ihr Wachstum mit der nachhaltigen Nutzung von Smart Data und guten Personalisierungs-Tools voranzutreiben.

Aufmacherbild / Quelle / Lizenz
Bild von yatsusimnetcojp auf Pixabay

Deutscher Demografie Preis 2021 für LidA

Das Projekt „LidA – Lernen in der digitalisierten Arbeitswelt“ ist Preisträger des Deutschen Demografie Preises 2021, verliehen vom Demographie Netzwerk e.V. (ddn). Ausgezeichnet wurde LidA in der Kategorie „Chancen der Digitalisierung“. Die Inhalte und Ziele des Projekts präsentierte Korhan Zeyrek, kaufmännischer Geschäftsleiter der Mauser + Co. GmbH, die als Partner im Projektverbund auch die Bewerbung für den Preis initiierte. Die vorgestellten Ergebnisse überzeugten die Jury durch einen klaren Fokus auf digitale Lernplattformen, die Einbeziehung verschiedener Zielgruppen, den Abbau von Ängsten vor der Digitalisierung und ein insgesamt bedarfsgerechtes Didaktik-Konzept.

Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt wird umgesetzt von einem Konsortium aus Wissenschaft und Unternehmen. Beteiligt sind das International Performance Research Insitute (IPRI), das FIR an der RWTH Aachen, die Databay AG, die leifos GmbH, die Volkswagen AG, die Mauser + Co. GmbH, die TRUMPF GmbH + Co. KG sowie die Universität Ulm.

Ziel von LidA ist es, Beschäftigte für die Herausforderungen des digitalen Wandels zu qualifizieren und sie mit den Kompetenzen auszustatten, die sie in einer digitalisierten Arbeitswelt benötigen. Dazu setzt LidA auf die Identifikation individueller Kompetenzbedarfe und die Entwicklung zugeschnittener Lernpfade. Die einzelnen Lehr- und Lermodule werden in ein bedarfsgerechtes, methodisches Konzept eingebettet und auf einer Lehr- und Lernplattform bereitgestellt.

„Das digitale Kompetenzmanagement im Unternehmen gewinnt immer mehr an Bedeutung. Die individuellen Lernpfade und -lösungen, die wir in LidA gemeinsam mit den Partnern entwickeln können, helfen, bereits heute die zukünftig benötigten Kompetenzen zu entwickeln. Daher freuen wir uns über die Anerkennung unserer Arbeit und ganz besonders über die vom ddn bescheinigte Vorbildfunktion für kleine und mittlere Unternehmen.“, sagt Roman Senderek, Leiter der Fachgruppe New Industrial Work am FIR, zur besonderen Anerkennung der im LidA-Projekt erzielten Ergebnisse.

Das Demographie Netzwerk e. V. (ddn) ist ein gemeinnütziges Netzwerk von Unternehmen und Institutionen, die den demographischen Wandel als Chance begreifen und aktiv gestalten wollen. Seit 2020 verleiht das ddn den Deutschen Demografie Preis an Unternehmen, Netzwerke und Vereine für innovative Ideen, zukunftsweisende Lösungen und nachahmenswerte Projekte.

Weitere Informationen:
Forschungsprojekt LidA
Deutscher Demografie Preis

Bildquelle / Lizenz:

Digitalisierung am PoS

Unser Leben hat sich geteilt: Vor der Corona-Pandemie und danach. Ob wir bereits im „danach“ angekommen sind, ist noch nicht absehbar, aber eines ist sicher – viele Dinge und Verhaltensweisen haben sich geändert. Was geht und was bleibt? Was hat uns nachhaltig beeinflusst? Aus Sicht des Handels und der Paymentunternehmen hat sich am Point-of-Sales insbesondere das Bezahlverhalten gewandelt.

Wer hätte das vorhersehen wollen – Hinweisschilder bei den großen Handelsunternehmen appellieren an die Kunden für eine bargeldlosen Zahlung. Hygiene, aber auch Schnelligkeit ohne Schlange stehen haben dem Bargeld ein wenig von seinem alten, übermächtigen Präsenz genommen. Speziell kontaktloses Zahlen hat an
Beliebtheit gewonnen, was auch Zahlen des CCV Netzbetriebs belegen: Exponentielle Wachstumsraten begleiten die Monate der Lockdowns, insbesondere für die Girocard kontaktlos. Auch die Erhöhung des Betrags zur kontaktlosen Zahlung ohne PIN-Eingabe auf 50 € durch die Deutsche Kreditwirtschaft hat ihr übriges für die gestiegene Akzeptanz getan.

Ein Trend, der bleiben wird – denn Hygiene, Schnelligkeit und Komfort werden auch in Post-Coronazeiten geschätzt werden. Frühere Hemmschwellen eingefleischter Bargeldzahler wurden überwunden, um nicht wieder aufgebaut zu werden. Dieses neue Bezahlverhalten gilt es nun auf Seiten von Paymentbranche und auch Handel aufzugreifen und zu pflegen, ist es doch der erste große Schritt für die Akzeptanz und Etablierung neuer, digitaler Lösungen am Point-of-Sales.


Unsere Autorin

Susanne Kohlhofer ist seit 2008 als Corporate Communication Lead beim Paymentdienstleister CCV fest in der Paymentbranche verankert und begleitet die neuesten Entwicklungen, Trend und Innovationen am bargeldlosen Point-of-Sales.


Warum ist Digitalisierung am Point-of-Sales so wichtig?

Wir leben in einer neuen Gesellschaft der Apps, die als kleine, schlanke Programme unser Leben begleiten, bereichern und auch erleichtern. Für Prozesse am Point-of-Sales waren ähnliche Set-ups auf den klassischen Paymentterminals bisher nicht abbildbar, denn Sicherheitsbestimmungen und Zertifizierungen ließen Installationen abseits reiner Bezahlfunktionen nicht zu.

Heute wandelt sich das Bild: Die neue Generation Bezahlterminals arbeitet mit einem Android-Betriebssystem, das bereits in sich Vorteile birgt wie z.B. ein hervorragendes Batteriemanagement – eine hoch effiziente Leistung, die sich aus den stetigen Optimierungen für den Smartphone Betrieb ergibt.


„Die heutige Entwicklung zeigt, dass Kartenzahlungen und im nächsten Schritt Mobile Payment über die digitalen Wallets auf Smartphones und Smart Watches sich als Standardbezahlmittel immer stärker in den Köpfen der Verbraucher als gut und vorteilhaft festsetzen.“


Apps verbinden und schaffen Mehrwerte – gerade am Point-of-Sales, der als Touchpoint in jeder Customer Journey vorkommt und nachhaltige Eindrücke schafft. Die Vorteile der Apps richten sich hier sowohl an Händler als auch an deren Kunden. Der Händler hat erstmalig die Chance, seine Kassenperipherie mit Apps schnell und on-demand zu optimieren und muss nicht zwingend in additive Hardware investieren. Trial-versions von z.B. Kassensystemen auf App-Basis helfen, das richtige Programm zu testen und damit vertraut zu werden. Neue Geschäftsmodelle oder – wie auch während der Corona-Pandemie – neue Anforderungen lassen sich durch Apps schnell aufgreifen, z.B. der Umstieg auf Lieferservice oder die Verknüpfung von stationärem Geschäft mit einem Onlinesortiment.

Die klassische Customer Journey hat sich gewandelt, ebenso wie unser Verständnis von Komfort. Der Supermarkt wird nicht mehr nur für den Wocheneinkauf angesteuert, sondern z.B. auch für die zwischenzeitliche Betankung des e- oder Hybridfahrzeugs. Die bargeldlose Bezahlung an der Ladesäule und an der Kasse im Markt soll in Art und Komfort identisch und optimalerweise miteinander verquickt sein: Eine Stunde Tanken beinhaltet einen Kaffee-to-Go gratis oder umgekehrt eine gratis Stromladung für die Dauer des Einkaufs. Diese moderne Art des Cross Selling muss durch moderne Bezahlsysteme unterstützt werden und im Hintergrund für den Händler bzw. Betreiber zu homogenen und schnell integrierbaren Systemen zusammengefasst werden – über Android-basierte Managementtools eine leichte Übung.

Im Self-Service Bereich erweisen sich Bezahlterminals mit Android-Technologie als besonderer Meilenstein. Der bisher statische Verkauf an Automaten (Vending, Parken, Public Transport oder Ticketing) gewinnt an Dynamik und damit eine höhere Kundenbindung. An hochmodernen Geräten wie dem CCV IM30 können Preise stundenaktuell konfiguriert werden und interaktive Service-Apps via Kamera aktiviert werden, um nur einige der Funktionen zu nennen.

Digitale Terminals sind im Kommen

Apps sind in unserem Leben bereits fest etabliert und deren flexible und on Demand Nutzung nicht nur beliebt, sondern auch bereits Standard. Die heutige Entwicklung zeigt, dass Kartenzahlungen und im nächsten Schritt Mobile Payment über die digitalen Wallets auf Smartphones und Smart Watches sich als Standardbezahlmittel immer stärker in den Köpfen der Verbraucher als gut und vorteilhaft festsetzen.

Wenden sich die mobilen Wallets an den Endverbraucher – also denjenigen, der die Zahlung tätigt – so kristallisiert sich am anderen Ende das Smartphone auch als Business-Gerät für den Händler heraus. Was liegt also näher, als das Smartphone selbst in ein Bezahlterminal zu verwandeln?

Auch dies ist schon heute möglich durch die Installation von sogenannten SoftPOS Apps, die mit allen Sicherheitsvorkehrungen das Smartphone zu vollwertigen Kartenlesern aufrüsten.

Diese digitalen Terminals sind die Basis für eine Zukunft, in der Androidsysteme über Displays Kartenakzeptanzen ermöglichen und über eine PIN-on-Glas Technologie auch die Eingabe von PIN-Nummern abbilden können. Die Deutsche Kreditwirtschaft, als Institution für sämtliche Sicherheitsfragen im Bereich Payment verantwortlich, hat für die „CCV PhonePOS“ als erstem digitalen Terminal die Zertifizierung für die girocard, dem wichtigsten deutschen bargeldlosen Bezahlmittel, anerkannt.

Heute sehen ca. 68 % der CIOs der großen Retailunternehmen (Quelle: EHI Retail Technology Research 2021) mittelfristig weiterhin klassische Terminals an den Kassenplätzen. Der Blick ist jedoch schon nach vorne in die Zukunft gerichtet. So sind Androidsysteme vorherrschend an vielen strategisch wichtigen Touchpoints der Customer Journey, man denke auch an die Infotainmentsysteme in Fahrzeugen, die sich mit den Android-Apps auf den Smartphones der Insassen verbinden.

Komfortables und modernes Bezahlen muss sich diesen Gegebenheiten anpassen, die Nutzung von Apps auf den heutigen Kartenterminals ist ein erster Schritt. Die Technologien von morgen wie das digitale Terminal CCV PhonePOS benötigen noch einen Schub im Sinne von Akzeptanz und Vertrauen. Die großen Finanzinstitute sind bereits am Zug, die Kartenakzeptanz per Smartphone unter eigener Marke in ihr Portfolio aufnehmen und unter ihrem Schirm einem breiten Markt zugänglich machen.

Auf Verbraucherseite verbinden sich nahtloses Bezahlen und Services am Point-of-Sales im Sinne eines umfassend komfortablen Einkaufserlebnisses, das nicht an der Kassenzone Halt macht.

https://www.ccv.eu/de/

Die eigene Stimme als Passwort

Morna Florack erklärt im Gastbeitrag, wie die eigene Stimme zum Passwort wird.

Das Leben spielt sich heute immer stärker im digitalen Raum ab – Einkäufe und Bankgeschäfte werden einfach online erledigt, Kommunikation läuft über Social-Media-Apps ab und selbst Arzttermine finden seit dem Ausbruch von COVID-19 vermehrt per Video-Konsultation statt. Ein ständiger Begleiter dabei: Passwörter, die zur Identifikation genutzt werden. Diese Methode der Authentifizierung ist jedoch nicht mehr zeitgemäß. Wieso die Erkennung biometrischer Merkmale wie der Stimme mithilfe von künstlicher Intelligenz wesentlich sicherer und benutzerfreundlicher ist und wie Privatpersonen und Unternehmen davon profitieren, erklärt Morna Florack, Enterprise Sales Manager DACH bei Nuance im Gastbeitrag.

PIN und Passwort sind für fast ein Drittel (32 Prozent) der deutschen Teilnehmenden einer aktuellen Studie von Nuance[1] die Authentifizierungsmethode, der sie am meisten vertrauen. Dass Nutzerdaten einschließlich der dazugehörigen Passwörter im Darknet verkauft werden, ist allerdings schon lange kein Geheimnis mehr. Wer sich davor schützen will, dass Kriminelle mit einem Schlag Zugang zu allen Konten bekommen, sollte für jeden Dienst ein individuelles Passwort verwenden. Dies beherzigen jedoch nur 28 Prozent der Befragten. 25 Prozent nutzen sogar immer dieselben ein bis drei Passwörter oder Variationen von diesen. Der Grund dafür ist häufig Bequemlichkeit – ähnliche Passwörter lassen sich leichter merken als viele unterschiedliche: Jede zehnte Person (10 Prozent) muss täglich oder wöchentlich Nutzernamen und Passwörter zurücksetzen lassen, weil sie nicht mehr präsent sind.

Aber nicht nur Privatpersonen, sondern auch Unternehmen müssen die Sicherheit ihrer Daten ernster nehmen und mehr dafür leisten. Ein Beispiel hierfür sind Contact Center. Gerade in Krisenzeiten stehen die Mitarbeitenden hier besonders unter Druck und müssen mit gestressten, wütenden oder verzweifelten Kundinnen und Kunden umgehen. Das führt schnell dazu, dass die Überprüfung der Identität weniger streng durchgeführt wird als in normalen Zeiten, zumal die richtigen Zugangsdaten für Betrügerinnen und Betrüger oft nur noch wenige Klicks entfernt sind. Damit können persönlich identifizierbare Informationen (PII) leicht in die falschen Hände geraten.

Einzigartige Merkmale als Sicherheitsfaktor

Wesentlich sicherer ist der Abgleich biometrischer Charakteristika. Schon jetzt bieten beispielsweise viele Smartphones die Möglichkeit, sie per Fingerabdruck oder Gesichtserkennung zu entsperren. Dadurch soll sichergestellt werden, dass Unberechtigte keinen Zugriff auf die Inhalte erhalten. Der größte Vorteil von Biometrie ist die Einzigartigkeit der Merkmale – das gilt sowohl für den Fingerabdruck als auch für Gesicht, Iris oder Stimme. Auch unter den deutschen Verbraucherinnen und Verbrauchern steigt das Vertrauen in diese Möglichkeiten: Fast die Hälfte (45 Prozent) fühlt sich heute wohler dabei, den Zugriff auf Konten mithilfe biometrischer Eigenschaften zu authentifizieren, als noch vor der Pandemie. Ebenfalls 45 Prozent vertrauen biometrischer Identifikation durch Stimme, Gesicht, Fingerabdruck, Verhalten oder einer Kombination aus diesen Merkmalen, sogar am meisten.

Besonders die Identitätserkennung mithilfe von Sprache bietet ein hohes Maß an Sicherheit, während der Aufwand für die Anwendenden geringgehalten wird. So müssen Kundinnen und Kunden sich keine langen Kundennummern, komplizierten Passwortkombinationen oder Antworten auf Sicherheitsfragen merken. Stattdessen wird ihr individuelles Stimmprofil beispielsweise mithilfe einer Passphrase hinterlegt und bei der Anmeldung oder einem Gespräch von KI-Algorithmen analysiert und wiedererkannt. Das spart Zeit und verhindert, dass durch vergessene Passwörter schon vor der eigentlichen Interaktion bei Kundinnen oder Kunden Frustration entsteht.

Auch für Mitarbeitende der bereits genannten Contact Center vereinfacht Sprachbiometrie die Arbeit, da sie unmittelbar mit der Beratung loslegen können. Statt zunächst wissensbasierte Authentifizierungsfragen zu stellen, wird die Stimme von Anrufenden automatisch zu Beginn des Gesprächs mit vorhandenen Stimmabdrücken abgeglichen und die Agentin oder der Agent erhält das Ergebnis innerhalb von Sekunden. Nuance Gatekeeper kann beispielsweise die Identität schneller validieren als das menschliche Ohr. Gleichzeitig können mit dieser Methode der Identitätsprüfung Kriminelle proaktiv identifiziert werden. Wird eine Anruferin oder ein Anrufer als Betrügerin oder Betrüger erkannt, kann der jeweilige Stimmabdruck in einer Bibliothek hinterlegt werden. Bei weiteren Versuchen wird die Stimme beim biometrischen Abgleich erkannt und der Anruf für weitergehende Sicherheitsüberprüfungen registriert.

Mehr als die Hälfte der weltweit größten Finanzinstitute und Telekommunikationsanbieter setzen bereits Sprachbiometrie-Lösungen von Nuance ein, um ihren Kundenservice zu verbessern, die Sicherheit zu erhöhen und die Prozesse für die Mitarbeitenden zu optimieren. Dazu gehört auch die Deutsche Telekom, die ihren Kunden bereits seit dem Jahr 2018 die Möglichkeit gibt, ihre SprachID statt einer zehn- oder zwölfstelligen Kundennummer für die Identifikation zu verwenden. Über 700.000 Telekom-Kunden haben schon ihre SprachID registriert, die bislang in über 1,7 Millionen Interaktionen als Passwort zum Einsatz kamen.

Kriminelle an der Stimme erkennen

Darüber hinaus bietet Sprachbiometrie noch weitere Möglichkeiten, um die Sicherheit zu erhöhen und das Kundenerlebnis zu verbessern. Neben der initialen Bestätigung der Identität kann entsprechende Software im Laufe des Gesprächs auch die Glaubwürdigkeit der Anrufenden analysieren. Dadurch lässt sich feststellen, ob Kundinnen oder Kunden möglicherweise selbst einen Betrug begehen und beispielsweise widerrechtliche Ansprüche stellen wollen. Gerade in der aktuellen Situation, in der Prozesse vereinfacht wurden, zum Beispiel um Hilfs- und Fördermittel schneller auszugeben, können so mögliche Betrugsfälle schon im Vorhinein erkannt und die Ausschüttung verhindert werden.

Dadurch können bestimmte Kundengruppen wie Senioren priorisiert werden, um Wartezeiten zu verkürzen, relevante Angebote vorzubereiten oder um sie an Schutzmaßnahmen zu erinnern. Denn leider werden sie besonders häufig ins Visier von Bertrügerinnen und Betrügern genommen. Des Weiteren ermöglicht cloudbasierte Sprachbiometrie, dass Kundinnen und Kunden sich von überall, zu jeder Zeit und von jedem Gerät aus mit ihrer Stimme authentifizieren können, während Unternehmen die Lösung ganz nach aktuellem Bedarf skalieren können und automatisch von fortlaufenden Aktualisierungen und Verbesserungen profitieren.

Unternehmen müssen die Sicherheitsproblematik angehen

Die Authentifizierung per Passwort oder PIN ist noch immer die Methode, der in Deutschland das größte Vertrauen entgegengebracht wird. Dabei hat sie einen großen Makel: ihr Sicherheitsniveau ist stark davon abhängig, wie sicherheitsbewusst jeder individuelle Mensch mit ihr umgeht. Wer die PIN für Online-Banking aufschreibt oder für jeden digitalen Dienst dasselbe Passwort nutzt, macht es Kriminellen sehr leicht, an Daten und Geld zu gelangen. Aber das Umdenken muss vor allem in den Unternehmen stattfinden, die nach wie vor auf diese veraltete Art der Identitätsprüfung setzen. Technologien zur Validierung biometrischer Merkmale sind mittlerweile so weit ausgereift, dass sie eine wesentlich schnellere, sicherere und anwenderfreundlichere Alternative sind. Insbesondere die Sprachbiometrie bietet nicht nur die Möglichkeit, Passwörter dauerhaft durch einen Stimmabdruck zu ersetzen, sondern kann auch für eine bessere Erfahrung für Kundinnen und Kunden sorgen und bei der frühzeitigen Aufdeckung von Betrug unterstützen. Aktuell wächst das Bewusstsein für die Gefahren rund um persönliche Daten und Informationen. Dementsprechend wird deren Sicherheit ein immer wichtigeres Kriterium. Führungskräfte müssen sich deshalb mit dieser Thematik befassen und entsprechende Lösungen zeitnah implementieren.

[1] Die Online-Umfrage „Digital Consumer Experience“ wurde von Nuance in Auftrag gegeben und von OnePoll zwischen dem 21. April und 7. Mai 2021 durchgeführt. Befragt wurden 10.000 Verbraucher in Deutschland, Australien, Belgien, Frankreich, Großbritannien, Italien, Mexiko, den Niederlanden, Schweden, Spanien und den USA.

ICF & ClimatePartner Webinar: “Paths to carbon neutral finance”

In diesem Webinar werden wir verschiedene Wege und nachhaltige Strategien zur klimaneutralen Finanzierung untersuchen und diskutieren.

ICF Webinar: “ESG in Bonds – Opportunities and challenges”

ESG-fokussierte Anleihen werden immer interessanter. Experten erwarten, dass sich dieses Instrument mit großer Dynamik entwickeln wird. Dies bietet Anleiheemittenten interessante Möglichkeiten, ihre Investorenbasis zu verbreitern.

„Technologen sind gefragt“

Wir haben mit Fabian Gampfer, Sales Engineering Manager, AppDynamics rückblickend über Enterprise Architecture und die Relevanz von Technologen in den Unternehmen gesprochen. Deren Relevanz bei Geschäftsentscheidungen ist aufgrund von Corona nochmals deutlich angestiegen. Um dafür zu sensibilisieren und Unternehmen auf der „Reise der digitalen Transformation“ entsprechend Zahlen an die Hand geben zu können, hat AppDynamics die Studie „Agents of Transformation“ durchgeführt. Zu zentralen Erkenntnissen nahm er im Interview Stellung.

Die Studie bestätigt, dass IT-Experten einen Einblick in die IT-Landschaft benötigen. Hierfür wären Enterprise Architecture-Lösungen ideal. Wie können Sie hier unterstützen?
Die COVID-19-Pandemie hat die digitale Transformation in Unternehmen im letzten Jahr massiv beschleunigt und vielerorts zu wahren Flickenteppichen aus Legacy- und Cloud-Technologien geführt und damit die Komplexität der IT-Infrastruktur massiv erhöht. Um diese zunehmende Komplexität in den Griff zu bekommen, benötigen Technologen vollständige Transparenz in Echtzeit über den gesamten IT-Bestand. Das heißt von traditionellen IT-Systemen bis hin zu neuen, hybriden Cloud-Umgebungen. Deshalb sehen IT-Experten die Notwendigkeit einer einzigen, einheitlichen Observability-Plattform, die den gesamten Technologie-Stack überwacht, statt mehrerer voneinander unabhängiger Monitoring-Lösungen. Full-Stack Observability ermöglicht Technologen diesen vollständigen Einblick in ihre IT-Landschaft und die Leistung ihrer Anwendungen. Aber Full-Stack Observability alleine reicht nicht aus. IT-Teams müssen in der Lage sein, die Performance mit konkreten Geschäftsergebnissen, wie der Kundenerfahrung oder dem Umsatz, zu verknüpfen. IT-Fachleute können dann auf Grundlage dessen, was für ihr jeweiliges Unternehmen wichtig ist, Entscheidungen und Maßnahmen priorisieren. Auch 90 Prozent der im Agents of Transformation Report befragten Technologen in Deutschland sehen die Notwendigkeit einer solchen Verknüpfung für dieses Jahr als wichtig an.

Fabian Gampfer: „Unternehmen müssen vor allem in der Lage sein, ihre Technologieleistung mit quantifizierbaren Geschäftsergebnissen zu verknüpfen.“

Bedingt durch Corona werden wir in den kommenden Monaten sehr viele Mergers & Acquisitions sehen. IT-Experte werden beim Konsolidierungsprozess mit im Boot sitzen. Hinzu kommt eine prognostizierte Beschleunigung bei Digitalisierungsprozessen. Wie stufen Sie die Rolle von Technologen in den kommenden Monaten ein?
Die Digitalisierung wird in Unternehmen in diesem Jahr weiterhin eine hohe Priorität haben und die IT-Experten noch mehr fordern. So erwarten beispielsweise 90 Prozent der Technologen in Deutschland, dass in diesem Jahr die größte Herausforderung sein wird, die digitale Transformation mit hoher Geschwindigkeit weiter voranzutreiben. Hinzu kommt die Komplexität, die durch die beschleunigte Innovationskraft der letzten zwölf Monate entstanden ist. Deutsche Unternehmen haben im letzten Jahr digitale Transformationsprojekte dreimal so schnell umgesetzt als zu jedem anderen Zeitpunkt. Für eine Organisation, die einen Merger oder eine Akquisition durchläuft, ist die Problematik der Komplexität sogar noch größer! In solchen Situationen steigt damit auch die Notwendigkeit für IT-Teams, einen vollständigen Einblick in die IT-Landschaft zu erhalten und diese Erkenntnisse mit den Geschäftsergebnissen zu verknüpfen.

Konkret zu den Digitalisierungsprozessen im Jahr 2020: Was waren hier die wichtigsten Ergebnisse?
Eine Schwierigkeit im letzten Jahr war sicherlich, dass viele Digitalisierungsprozesse plötzlich sehr schnell gehen mussten. Als die Mitarbeiter zum Arbeiten alle nach Hause geschickt wurden, haben sich viele Unternehmen zum ersten Mal damit beschäftigt, wie sie dies technologisch überhaupt ermöglichen können und die Technologen rückten an die vorderste Front. 68 Prozent von ihnen sagen in Deutschland, dass durch die Reaktion ihres Unternehmens auf die Pandemie die Komplexität der IT-Umgebung so stark gestiegen ist, wie sie es bisher nicht erlebt haben. Dazu haben verschiedene Faktoren beigetragen wie, laut 88 Prozent der Befragten, zu viele neue Technologien sowie ein Flickenteppich bestehend aus Legacy- und Cloud-Technologien, aber auch neue Aufgaben, Prioritäten und Herausforderungen (74 Prozent), der schnelle und spontane Übergang zu Cloud Computing (74 Prozent) oder die zahlreichen, nicht miteinander verbundenen Monitoring-Lösungen (70 Prozent). Dementsprechend glaubt die Mehrheit, nämlich 88 Prozent, dass in diesem Jahr eine große Herausforderung darin liegen wird, die relevanten Informationen in der Datenflut zu identifizieren, um die Ursachen von Performance-Problemen zu identifizieren.

Wie können Unternehmen sich jetzt vorbereiten, um gestärkt aus der Coronakrise hervorzugehen und Digitalisierungsprojekte als „Reset“ zu verstehen um erfolgreich durchzustarten?
Vor allem müssen sie in der Lage sein, ihre Technologieleistung mit quantifizierbaren Geschäftsergebnissen zu verknüpfen. Wo dies nicht möglich ist, sind die Auswirkungen innerhalb von IT-Abteilungen und auf Unternehmen tiefgreifend. Dementsprechend haben wir im Agents of Transformation 2021 Report auch gesehen, dass Technologen sich ernsthafte Sorgen über die Folgen für ihre Organisationen machen. So befürchten fast 70 Prozent von ihnen negative Auswirkungen auf ihr Unternehmen in diesem Jahr, wenn diese Verknüpfung nicht möglich ist. Die IT-Fachleute sind sich der Notwendigkeit bewusst, Erkenntnisse über die IT-Performance mit Echtzeit-Geschäftsdaten zu verbinden. Jedoch verfügen die meisten derzeit nicht über die Ressourcen und die Unterstützung, die sie dafür benötigen. Fast zwei Drittel der Technologen weltweit haben berichtet, dass ihnen die richtige Strategie und die Werkzeuge fehlen, um effektiv zu messen, wie sich Technologieentscheidungen auf die Geschäftsergebnisse auswirken. Unternehmen, die gestärkt und wettbewerbsfähig aus der Pandemie hervorgehen wollen, müssen diesen Punkt jetzt dringend angehen.

Weitere Informationen unter:
https://www.appdynamics.com/

Wie Europa künftig zahlen soll


EU-Kommission setzt auf überweisungsbasiertes Bezahlen

Visa und Mastercard, Apple Pay und Google Pay, PayPal: Viele der modernen Bezahlmethoden, die den Geldtransfer im E-Commerce und anderen internetbasierten Produkt- und Dienstleistungsangeboten, aber zunehmend auch im stationären Handel ermöglichen, werden von amerikanischen Konzernen zur Verfügung gestellt. Als Hüterin europäischer Interessen hat sich die EU-Kommission zum Ziel gesetzt, eine Alternative zu etablieren. Die Basis dafür: SCT Inst, die SEPA-Überweisung in Echtzeit.

„Der Zahlungsverkehr bildet das Lebenselixier der europäischen Wirtschaft“, so ordnet die EU-Kommission in ihrer „EU-Strategie für den Massenzahlungsverkehr“ den Fluss der Geldströme ein. Wie dieser Fluss Wasser auf die Mühlen von Europas Finanzdienstleistern bringen soll, davon handelt das 33-seitige Strategiepapier. Instant Payments, also die europaweit einheitliche Echtzeitüberweisung, soll die universelle Grundlage der Zahlungsströme sein, doch für regionale Zahlungsdienste stehen die Schleusen weiterhin offen. Zugleich sollen Bürger auch künftig mit Bargeld flüssig sein, wenn sie das bevorzugen.

Werden Instant Payments schon Ende 2021 für Banken zur Pflicht?

Karten und Konten werden auch in Zukunft die zwei wesentlichen Elemente im Zahlungsverkehr bleiben, auch wenn dieser zunehmend digitalisiert wird. Immer wieder weist die Kommission auf die Beschleunigung des innereuropäischen Geldtransfers durch Instant Payment (SCT Inst) hin, doch mit der Umsetzung zeigt sich das Gremium nicht zufrieden. Kurzfristig soll die Verbreitung des Verfahrens überprüft werden.

Bei weitem nicht alle Banken bieten diesen Service diskriminierungsfrei an: Oft können Zahlungen nur empfangen werden, aber nicht versandt. Außerdem machen nicht wenige Institute SCT Inst unattraktiv, indem sie es stark bepreisen, obwohl es bereits in der Richtlinie zur Einführung hieß, es sollen keine Premium-Zuschläge erhoben werden. Wenn die aktuell laufende Überprüfung der Verbreitung von Instant Payments zu dem Ergebnis kommt, dass eine allgemeine Teilnahme der Banken an SCT Inst noch nicht gewährleistet ist, stellt die Kommission bereits für Ende 2021 eine Verpflichtung in Aussicht.


Autor: Henning Brandt



Henning Brandt ist als Head of Communication für die Öffentlichkeitsarbeit des Payment Service Providers Computop verantwortlich. Nach Stationen in Journalismus und Public Relations spricht und schreibt er seit 2015 über Themen wie E-Commerce, internationale Zahlungsabwicklung und die Zukunft des Payments.


TIPS für schnelles Clearing

Schnelles, europaweites und währungsübergreifendes Clearing ist die Voraussetzung für Instant Payments im SEPA-Raum. Mit den bisherigen Entwicklungen ist die Kommission nicht zufrieden, sie erwartet daher eine Teilnahme aller SCT Inst-Beteiligten, die über TARGET2 erreichbar sind, an TIPS, dem TARGET Instant Payment Settlement des Eurosystems. Mit eindeutigeren Vorgaben hätte sich die EZB, wie auch beim Open Banking, viel Zeit und Ärger erspart – jetzt setzt die EU-Kommission ein Ausrufezeichen. Zurzeit eignet sich der schnelle Banktransfer jedoch nur eingeschränkt als universales Zahlungsinstrument, denn die Zahlung geht nur in eine Richtung, vom Absender zum Empfänger, und ist das Geld erstmal weg, bekommt man es auch nicht wieder.

Darum möchte die Kommission einen Rückkanal schaffen, der für mehr Verbrauchervertrauen sorgen soll. Wenn ähnlich wie bei Lastschrift oder Kreditkarten ein Rückruf der Überweisung möglich ist, werden sich mehr Konsumenten für diesen Zahlungsweg entscheiden. Wer letztlich die Entscheidung über eine berechtigte Rückerstattung trifft, darüber schweigt sich das Papier jedoch aus. Hier kommen auf Banken möglicherweise neue Prozesse zu, entsprechend dem Chargeback-Verfahren bei Kreditkarten.

Interessant ist an dieser Stelle auch „Request to Pay“ (RTP). Was wie ein Zahlungsverfahren wirkt, ist im Grunde nur ein Nachrichtenkanal. Darüber kann ein Zahlungsempfänger einen Kunden auffordern, eine Zahlung auszuführen, entweder sofort oder zu einem späteren Zeitpunkt. RTP kann im Rahmen des eBilling ausgelöst werden und die elektronische Rechnung in die Nachricht integrieren. Wird der Prozess um Autorisierung und Reservierung ergänzt, wie es für 2022 erwartet wird, so kann die entsprechend „aufgeladene“ Überweisung mit vielen der cleveren Funktionen einer Kreditkarte durchaus mithalten.

Bezahlen muss mobil sein

Die mobile Zahlungsauslösung steht im Zentrum der Pläne für das künftige Bezahlen. Mit Verfahren wie dem SEPA-Proxy-Look-up wurde schon gut vorgearbeitet, doch zum Bedauern der Kommission wird es zu wenig genutzt. Immerhin wäre damit ein EU-weiter Geldtransfer über Smartphones möglich werden – datenschutzkonform ohne Austausch von Kontoinformationen wie der IBAN – wenn es denn zum Einsatz käme. Für die Auslösung mobiler Zahlungen im Handel möchte das EU-Gremium technologieoffen bleiben. Die Abschottung der NFC-Schnittstelle bei Apples iPhones passt da nicht ins Bild, was das Papier elegant umschreibt. NFC soll schließlich eine Schlüsseltechnologie sein, während Bluetooth, aber auch der QR-Code ihre Berechtigung haben. Hier würde die Kommission die Entwicklung eines einheitlichen europäischen Standards begrüßen. Allerdings zielen aktuelle Aktivitäten einiger europäischer Player eher auf die Übernahme des dort sehr erfolgreichen chinesischen Standards von Alipay.


„Die schönsten digitalen Zahlungsverfahren bleiben Zukunftsmusik, wenn der Verbraucher sie nicht antrifft.“


Die Annahmepflicht für digitale Zahlungen rückt näher

Die schönsten digitalen Zahlungsverfahren bleiben Zukunftsmusik, wenn der Verbraucher sie nicht antrifft. Hier adressiert die EU-Kommission die Banken, aber auch den Handel und vor allem die öffentlichen Institutionen, die häufig noch weiter hinterher hinken. Für 2022 kündigt das Strategiepapier darum eine Studie an, ob kleinere und mittlere Unternehmen, aber auch die Verwaltung in den Mitgliedsländern digitale Zahlungsmöglichkeiten ermöglichen. Sollte das Ergebnis unbefriedigend sein, sei eine Verpflichtung zur Annahme durchaus denkbar.

Verpflichtend angenommen werden soll auch weiterhin das Bargeld. Die EU-Kommission sieht zwar Digitales Zentralbankgeld (CBDC) auf dem Weg und wird daran auch mit der EZB zusammenarbeiten. Bargeld muss jedoch weiterhin allgemein zugänglich sein und akzeptiert werden. Rund 30 Millionen Erwachsene in der EU haben kein Bankkonto, sie sollen nicht stärker als ohnehin schon durch die Digitalisierung von Dienstleistungen ausgeschlossen werden.

Einer Ausbreitung von „No-Cash“-Einzelhändlern sollen die Mitgliedsstaaten entgegenwirken und für ein Mindestmaß an Geldausgabestellen sorgen. Mit diesen Vorschlägen zielt das Gremium um Ursula von der Leyen auf eine selbstbewusste europäische Zahlungslandschaft, die den Vorsprung amerikanischer Konzerne einholen und zugleich die chinesischen Anbieter in Schach halten soll, die mobiles Bezahlen bereits für Hunderte Millionen Menschen bereitstellen.

Doch im Onlineshop, an der Ladesäule oder im Bioladen brauchen die Konsumenten keine Konzepte, sondern Zahlungsmethoden. Darum richten sich die Augen derzeit auf die neue European Payment Initiative EPI, in der sich 22 Banken und Zahlungsdienstleister aus Europa zusammengefunden haben, um aus technischen Prozessen Zahlungsinstrumente zu machen. Das Gemeinschaftsunternehmen unter der Leitung von Martina Weimert tritt an, um eine gemeinsame Marke aufzusetzen und, ausgehend von Person-to-Person-Zahlungen, in den nächsten Jahren überweisungsbasierte Karten und Wallets zu entwickeln. So soll die europäische Zahlungsalternative schließlich auch ein Markengesicht bekommen.

EPI arbeitet an der europäischen Payment Brand

Hinter den Kulissen gehen die Verhandlungen aber schon weiter: Sollen erfolgreiche nationale Instrumente wie die Deutsche Girocard, iDEAL in den Niederlanden oder Cartes Bancaires aus Frankreich im EPI-Angebot aufgehen oder es ergänzen? Die EU-Kommission legt sich nicht fest: so sehr sie sich ein einheitliches europäisches Zahlungssystem wünscht, will sie lokalen Champions nicht unbedingt den Stöpsel ziehen. Europa bleibt vielfältig, auch im Zahlungsverkehr.

https://computop.com/de/

Aufmacherbild / Quelle / Lizenz
Photo by Tech Daily on Unsplash

Quo vadis Veränderungsbereitschaft?

Infolge der Pandemie haben nahezu alle Unternehmen mit großen Umstrukturierungen zu kämpfen, die Krise hat viele Defizite ins Licht gerückt. Mehr denn je kommt es jetzt auf die notwendige Veränderungsbereitschaft an. Aber nicht nur jetzt: Veränderung wird bleiben, wie Dr. Katja Nagel, Gründerin und Inhaberin der Unternehmensberatung cetacea, in ihrem Gastbeitrag beschreibt.

Dr. Katja Nagel fordert, dass Unternehmen Veränderungen „begrüßen müssen“.

Strategische Wendepunkte in Unternehmen bedeuten meist auch tiefgreifende Veränderungen innerhalb der Organisationsstruktur. Wenngleich die Pandemie aktuell oft als Hauptgrund für Umstrukturierungen genannt wird, ist sie nur ein Veränderungstreiber unter vielen: Digitalisierung, Automatisierung, Globalisierung, Nachhaltigkeit, Klimawandel – ganze Branchen werden durch externe Faktoren verändert. Hinzu kommt, dass sich die Nachfragemuster aller Stakeholder rasant entwickeln. Kunden haben neue Bedürfnisse, Investoren fordern Wachstum, der Wettbewerb erfordert eine schnelle Anpassung.

Diese zunehmende Marktbewegung und andauernde Unruhe dominieren das Alltagsgeschäft und verlangen eine hohe Flexibilität der Mitarbeitenden. Für den Unternehmenserfolg ist es essenziel, aktiv die Zukunft zu gestalten, statt nur dem Markt zu folgen. Doch wie ist es um diese Transformationskultur in Deutschland bestellt? Nun: Vielfach erleben wir leider zu lange Adaptionszeiten, fehlende Geschwindigkeit, Digitalisierungsrückstand, unverbesserlichen Perfektionismus (wo er nicht sein muss), Normierungswahn, Entscheidungsschwäche, Inflexibilität und Kreativlosigkeit. Ein Großteil der Transformationsvorhaben in Unternehmen schlägt fehl.


Robuste Transformationskultur als Ausgangspunkt

Wer sich im Wettbewerb behaupten möchte, der benötigt eine Kultur, die Veränderung nicht nur aushält, sondern ihren Antrieb daraus zieht. Es braucht eine robuste Transformationskultur, die an der Identität des Unternehmens anknüpft. Sechs kritische Erfolgsfaktoren seien deshalb exemplarisch erwähnt:

  1. Resilienz: Hohe mentale Widerstandsfähigkeit als Prävention vor Erschöpfung und Ermüdung.
  2. Trial & Error: Geschwindigkeit durch neugieriges und mutiges Ausprobieren und Lernen.
  3. Leadership 5.0: Führungskräfte als agile Mentoren, innovative Gestalter und digitale Wegbereiter.
  4. Selbstverantwortung: Eigenverantwortlichkeit als innere Haltung aller Mitarbeitenden.
  5. Co-Working: Bereichsübergreifende Zusammenarbeit in flexiblen und smarten Teams.
  6. Unternehmenswerte: Unternehmenswerte als gelebter Spirit und Leitplanken aller Aktivitäten.

Für den nachhaltigen Fortschritt im Veränderungsprozess ist der Mensch in den Mittelpunkt zu stellen, denn bei den Mitarbeitenden entstehen nicht nur die Ideen, sondern das Verständnis und der Wille. Die fortwährende Kommunikation der Erfolgsfaktoren ist daher unabdingbar. Jeder muss wissen, worum es gerade geht, was das Unternehmen vorhat und was er selbst anders machen sollte als vorher. Es braucht also ein gemeinsames Verständnis und eine Perspektivenangleichung. Da in einer Veränderungssituation alles sehr schnell gehen kann, müssen die Kommunikationsmaßnahmen kurzzeitig umgesetzt werden, pragmatisch sein und sofort greifen.

Ein Gefühl für die Veränderungssituation

Zu ausgefeilte Konzepte und Prozesse stehen einer schnellen Umsetzung der Transformation nur im Weg: Wir definieren monatelang einen Sollzustand, neue Regeln, neue Prozesse, anstatt den Schwerpunkt auf ein gemeinsames Verständnis des Zielzustandes zu lenken und so dafür zu sorgen, dass entsprechend konzipiert, entschieden, gehandelt wird, an allen Stellen im Unternehmen. Die Mitarbeitenden brauchen keine Meilensteine und Projektpläne, sie brauchen aber wohl ein Gefühl für die Veränderungssituation und ein Verständnis für die Konsequenzen daraus.

Führungskräfte müssen dieses Bild der Veränderung also skizzieren, kommunizieren und klarstellen, welcher Einsatz dafür von jedem gefordert ist. Die Befähigung der Mitarbeitenden ist wichtig, damit sie für Unsicherheiten und kritische Situationen gewappnet sind. Sinnvoll ist die Bildung eines Netzwerks, dessen Mitglieder aktiv in die Veränderung einbezogen werden. Das Netzwerk dient als Ideengeber und Treiber des kulturellen Wandels, die Mitglieder als Ansprechpartner und Vorbilder. Sie leben die Transformationsbereitschaft vor und bewahren im besten Fall die “kindliche” Neugier vor dem Unbekannten. So wird die größte globale Krise unserer Zeit, Corona, zu einer lehrhaften Erfahrung und einer Vorbereitung auf die nächsten Krisen – und Chancen. Denn die nächste Veränderung wartet schon. Ganz bestimmt.

Weitere Informationen unter:
https://www.cetacea-gmbh.de/

Zehn Jahre Cloud Computing im Rückblick

Von Matthias Pfützner*

Matthias Pfützner lässt die Geschichte des Cloud Computing kurz Revue passieren und wirft einen Blick in die Zukunft.

Seit mehr als acht Jahren bin ich inzwischen bei Red Hat, doch auch schon zuvor, bei Sun Microsystems, habe ich mich lange und intensiv mit der Cloud beschäftigt. Ein guter Zeitpunkt, um sich die Entwicklung des Cloud Computings in der letzten Dekade etwas näher anzuschauen. Was die Cloud ist, muss man heute wohl nicht mehr groß erklären, also fangen wir damit an, wie ich zur Cloud gekommen und Cloud Solution Architect geworden bin. Ich hatte nie viel fürs Programmieren und die Entwicklung von Anwendungen übrig, obwohl es vielleicht sogar Code von mir gibt, von dem noch Teile beim Münchner Flughafen laufen. Ich war und bin eher ein Administrator, der sich um große Infrastrukturen kümmert. Deshalb war für mich an der Cloud immer interessanter, wie man sie aufbaut und betreibt, und weniger wie man sie nutzt. Für mich hat sie sich ganz natürlich aus Hosting und Virtualisierung, Skalierbarkeit und automatischer Bereitstellung von Ressourcen entwickelt – dennoch war es sehr interessant zu beobachten, wie die großen Clouds entstanden sind.

Die Anfänge der Hyperscaler

Bei Sun und während der beiden Jahre, die ich dort noch unter dem Oracle-Dach verbrachte, beschäftigte ich mich vor allem mit Rechenzentren – ich war lange ein sogenannter Data Center Ambassador, von denen es bei Sun nur 70 weltweit gab. In dieser Rolle waren meine wichtigsten Themen SunCluster und „N1“, also alles, was man braucht, um Infrastruktur aufzubauen, zu verwalten und zu betreiben, sprich: zu automatisieren. N1 bedeutete: „Verwalte N Systeme, als wären sie ein einziges.“ Man könnte sagen, N1 war Suns Idee vom Cloud Computing, doch Oracle entschied sich, diesen Ansatz nicht weiterzuverfolgen.

Bereits zuvor war mit AWS der erste große Cloud-Provider gestartet. Amazon fand damals, es sei eine gute Idee, die Virtualisierung, die VMware für einzelne Systeme on-premises erledigte, auf ein neues Level zu heben – das Ergebnis war Infrastructure as a Services (IaaS), worauf im Laufe der Zeit weitere Services aufbauten. Google dagegen nahm einen anderen Markt ins Visier und schuf eine Platform as a Service (PaaS), auf der man verschiedene Komponenten anbot, aus denen Entwickler komplexere Service bauen konnten.

Meiner Wahrnehmung nach war Amazon mit seinem Ansatz deutlich erfolgreicher, weil es einen größeren Anteil der Anwendungsfälle dieser Tage abdeckte. Administratoren wussten, wie man ein Betriebssystem installiert, wie man es pflegt und wie man Software darauf installiert. Google fand hingegen nicht so viele Entwickler und bot daher schließlich auch IaaS an. Amazon wiederum ergänzte sein Angebot um PaaS-Komponenten, sodass die beiden Clouds mittlerweile ähnliche Funktionen bieten.

Microsoft kam mit seiner Azure Cloud erst spät ins Spiel, aber das ist typisch Microsoft – Stichwort Internet Explorer. Das Unternehmen lässt andere gerne vorangehen, schaut sich alles an und steigt ein, wenn der Weg geebnet ist, sodass man Fehler und Fallstricke vermeiden kann. Fast über Nacht baute Microsoft ein IaaS- und PaaS-Angebot auf. Die bereits vorhandenen Komponenten wie Hyper-V (als IaaS) und .NET (als PaaS) in einem Cloud-Service bereitzustellen, war ein riesiger Erfolg, was sich auch daran zeigt, dass Azure heute die Nummer zwei nach Amazon ist.

 

Die Cloud im eigenen Rechenzentrum

Als ich dann von Sun zu Red Hat wechselte, war ich auf der Bühne angekommen, auf der ich wirklich spielen wollte. Aber was hatte Open Source mit Cloud Computing zu tun und warum sollte sich ein Anbieter von Open-Source-Enterprise-Software für die Cloud interessieren? Das lag an der Private Cloud. Die entstand aus der Idee, dass Dinge, die in der Public Cloud verfügbar waren, auch im eigenen Rechenzentrum verfügbar sein sollten, und dass aus Gründen des Datenschutzes nicht alles in die Public Cloud gehört. Zudem wurde den Unternehmen langsam bewusst, dass durch die Cloud ihre Kontrolle über die interne IT schwindet und Schatten-IT entsteht – weil die Menschen sich an „as a Service“ gewöhnt hatten und neue Lösungen schnell einführen wollten. Interne Service-Provider mussten daher „cloud-ready“ werden und cloudähnliche Services anbieten, und dafür brauchten sie Lösungen für den Aufbau interner Clouds.

In guter Open-Source-Tradition taten sich einige Unternehmen zusammen und begannen mit der Entwicklung von OpenStack. Heute ist OpenStack eines der größten Open-Source-Projekte und kommt als De-facto-Standard in unzähligen Rechenzentren zum Einsatz. Allein die Tatsache, dass Microsoft seine On-Premises-Version von Azure „AzureStack“ nennt, unterstreicht die Bedeutung von OpenStack. Allerdings war OpenStack nur der IaaS-Part der eigenen Cloud, es fehlte noch eine PaaS-Lösung. Die sollte eigentlich Magnum sein, ein Projekt innerhalb von OpenStack, das allerdings nie richtig in Fahrt kam. Einer der Gründe dafür war Docker. Docker machte es möglich, Anwendungsartefakte in Container zu verpacken und einfach bereitzustellen, zu bewegen und zu verwalten. Mit der Zeit etablierte sich Kubernetes als Orchestrierungsplattform für Container – die darauf basierende Lösung bei Red Hat ist OpenShift.

Damit standen die beiden Basistechnologien für Private Clouds bereit, und Unternehmen brauchten nur noch das Wissen, wie man damit cloudfähige Software entwickelt. Bei Red Hat gibt es dafür die Red Hat Innovation Labs, die Unternehmen helfen, cloud-ready zu werden.

Das nächste Jahrzehnt

In den letzten zehn Jahren habe ich als Cloud Solution Architect vielen IT-Abteilungen dabei geholfen, die Vorteile von OpenStack und OpenShift zu verstehen und die Tools so einzusetzen, dass sie erfolgreiche Cloud-Provider für interne Kunden werden. Inzwischen sind weitere Komponenten wie Red Hat Ansible Automation Platform hinzugekommen, die es erlaubt, Software-defined Datacenter aufzubauen. Wir haben sogar Tools geschaffen, um mehrere Clouds wie eine einzige Cloud zu verwalten – die Vision von Suns N1 ist letztlich also Realität geworden.

Nun bin ich neugierig, was die nächsten zehn Jahre Cloud bringen. Nach dem Aufstieg der Private Cloud in der letzten Dekade, der zum Aufbau von Microservice-Architekturen und einer agileren Software-Entwicklung führte, steht ein radikaler Umbau monolithischer Legacy-Anwendungen hin zu Cloud-nativen Applikationen an. Darüber hinaus werden Cloud und on-premises weiter verschmelzen – die Bezeichnung „Hybrid Cloud“ beschreibt das nur teilweise. Angefangen mit der Anbindung von Fertigungsstraßen an Private oder Public Clouds und Fahrzeugen oder anderen IoT-Systemen, die Informationen in der Cloud nutzen oder in die Cloud hochladen, wird das Ubiquitous Computing – die allgegenwärtige Verarbeitung von Daten – mehr und mehr Normalität. Nach fast 20 Jahren mit der Cloud wird es Zeit, Cloud-Technologien auf breiter Basis zu nutzen.

Wie das funktioniert hat, werde ich in einigen Jahren in einem weiteren Beitrag beleuchten – ich trage es mir in den Kalender ein.

* Matthias Pfützner ist Senior Cloud Solution Architect bei Red Hat

Weitere Informationen unter:
www.redhat.com

Server (Symbolbild) Quelle: Image by Edgar Oliver from Pixabay

Drei große Trends in der B2B-Social-Media-Kommunikation

von Jacqueline Althaller

Social Media sind in der B2B-Kommunikation angekommen.

Über 95 Prozent der B2B-Unternehmen nutzen aktuell hier die Chance, ihre Inhalte einer breiten Zielgruppe zu präsentieren, ohne dabei den Weg der traditionellen Pressearbeit gehen zu müssen, die den journalistischen und redaktionellen Regeln und Richtlinien folgt. Das enorme Potenzial, das soziale Medien allein durch die direkte, filterlose Ansprache der Zielgruppen mitbringen, hat B2B erkannt.

Bestätigt wird dies durch die Studie „Social Media in der B2B-Kommunikation – wie verändert sich die Nutzung der Kanäle?“, die seit 2010 jährlich vom „Erster Arbeitskreis Social Media in der B2B-Kommunikation“ in Zusammenarbeit mit ALTHALLER communication durchgeführt wird. Die Ergebnisse zeigen, dass B2B-Unternehmen Budgets und Ressourcen für die Social-Media-Kommunikation erhöhen wollen. Genutzt werden sollen sie, um das Potenzial von Social Media voll auszuschöpfen und die drei großen Trends 2021 – Social Media als Medium zur Employee Advocacy, zum Recruiting über TikTok und Instagram sowie schließlich Social Media als Chefsache, nicht zu verpassen…

Die großen Trends

Employee Advocacy

Die Relevanz von Social Media für die B2B-Kommunikation ist unbestritten. Fakt ist aber auch, dass es dadurch mittlerweile unglaublich viele Social-Media-Accounts gibt, die das Social Web täglich mit Inhalten regelrecht überfluten. Es wird also auch immer schwerer für Unternehmen, mit ihren organischen Inhalten die Aufmerksamkeit zu erreichen, die sie sich wünschen.  

Interessant ist vor allem die Beobachtung, dass Unternehmensaccounts im Allgemeinen weit weniger Reichweite und Engagement erreichen, als wenn dieselben Inhalte, über persönliche Accounts von Mitarbeitern geteilt werden.

Nur logisch, dass sich Unternehmen als Priorität Nummer 1 für das Jahr 2021 vorgenommen haben, ihre Mitarbeitenden zu Unternehmensbotschaftern (Schlagwort Employee Advocacy) auf Social Media aufzubauen. Sie platzieren ihre Themen damit geschickt über die Netzwerke ihrer Mitarbeiter, in denen sie gern aufgegriffen und diskutiert werden. Die Mitarbeiter selbst positionieren sich darüber als Experten für ihr jeweiliges Fachgebiet in Unternehmen; was zur Mitarbeiterbindung beiträgt. Wenn Stakeholder auf Social Media sehen, wie viele Expertenthemen ein Unternehmen über seine Mitarbeiter besetzen kann, zahlt das wiederum auf die Imagebildung ein.

Ein weiterer Vorteil: Das Unternehmen wird zum Mitmach-Unternehmen – und das nicht nur beim Thema „Employee Advocacy“, sondern Schritt für Schritt auch beim Social-Media-Alltag seines Kommunikations-Teams. Wenn diese Teams erst einmal sehen, wie gut Themen extern wahrgenommen werden, fangen die Mitarbeiter sicher auch an, ihre Themen im Redaktionsplan des Unternehmensaccounts platzieren zu wollen, um eine noch größere Zielgruppe erreichen zu können. Und im Handumdrehen füllt sich der Redaktionsplan so von ganz allein.

Allerdings gibt es durchaus auch Gründe, warum die Employee Advocacy bislang eher gemieden wurde: Hauptsächlich handelt es sich dabei um Compliance-Risiken, denen sich Unternehmen nicht stellen wollten. Wenn alle Mitarbeiter öffentlich so posten können, wie sie wollen, müssen sie im Umgang mit sensiblen Inhalten geschult werden; insbesondere mit Blick auf die Compliance-Richtlinien und mögliche Verstöße. Es gilt also, den Mitarbeitern immer wieder Orientierung zu geben, welche Inhalte sie verbreiten dürfen und welche nicht!

Social Media als Recruiting-Tool

Tale as old as time – Social Media wird zum Recruiting verwendet. Klingt erst einmal nach altem Hut. Spätestens seit dem Launch von Xing ist das bereits Gang und Gäbe.

In Sachen Recruiting – oder charmanter und vor allem strategischer ausgedrückt, in Sachen Employer Branding – hat sich seitdem aber einiges getan. Xing wird nach wie vor zum Recruiting genutzt; der deutschen Business-Plattform ist aber schon lang der Rang abgelaufen worden – und zwar von LinkedIn, Instagram und TikTok. LinkedIn ist heute der Klassiker zum Recruiting – daneben gibt es noch Job-Portale wie Stepstone oder Indeed; sie alle werden aber klassisch genutzt, um aktuelle Stellenausschreibungen zu teilen und auf Jobangebote aufmerksam zu machen.

Neu ist aber, dass B2B-Unternehmen Instagram und TikTok zum Employer Branding für sich entdeckt haben. Anders als dort klassisch Stellenanzeigen zu posten, werden die Plattformen genutzt, um das eigene Unternehmen als potentiellen Arbeitgeber zu positionieren. Das passiert, indem per Bild oder kurzem Video z.B. Mitarbeiter und Unternehmensbereiche vorgestellt, Teamevents gezeigt oder andere Einblicke ins Unternehmen gegeben werden, die dieses authentisch darstellen.

Auch Mitarbeiter- und Unternehmensthemen können hier – im Sinne von Employee Advocacy – platziert werden. Die verschiedenen Themen innerhalb Ihres Unternehmens sprechen ganz unterschiedliche Interessensgruppen an. Wenn man seine Mitarbeiter dabei so sein lässt wie sie sind, spricht das auf ihre unterschiedliche Art auch wieder ganz verschiedene potenzielle neue Mitarbeiter an.

Wichtig neben der Authentizität der Mitarbeiter ist auch, die richtigen Formate für diese Plattformen zu wählen. Auf TikTok ein Video zu posten, bei dem lediglich die schriftliche Stellenanzeige herangezoomt wird, ist daher wohl nicht das richtige – stattdessen ein Video zu veröffentlichen, in dem sich Auszubildende auf den bevorstehenden Arbeitstag vorbereiten, ist schon besser.

Die Vorteile liegen auf der Hand:

Employer Branding über Instagram und TikTok ist eine ganz andere und deutlich charmantere Art des Recruitings, da nicht nur platt Stellenanzeigen veröffentlicht werden, sondern persönliche Einblicke in das Unternehmen und die jeweiligen Aufgabengebiete gegeben werden. Ein Unternehmen stellt sich nach dem Pull-Prinzip als Arbeitgebermarke vor und zwingt niemandem einen Stellen-Post auf. Wer sich dann für die jeweilige Stelle interessiert, kann sich die entsprechende Ausschreibung dazu nach dem Video immer noch ansehen.

Außerdem ist die Zielgruppe auf Instagram und TikTok in weiten Teilen eine andere als auf LinkedIn, Stepstone und Co. – jedoch nicht so, wie man es sich im ersten Moment denken würde.

Es stimmt, dass Instagram und TikTok eine eher jüngere Zielgruppe ansprechen. Die Generation 50+ wird man hier weniger häufig antreffen. Trotzdem ist die Annahme weit gefehlt, dass nur Teenager sich hier tummeln. Heute sind z.B. über 65 Prozent der Nutzer von TikTok bereits über 25 Jahre alt. Also auch 20- bis 30-Jährige – eine durchaus sehr attraktive Zielgruppe im Recruiting – werden hier erreicht; und das sogar u.U. besser als auf LinkedIn.

Im Umgang mit diesen „neuen“ Plattformen ist B2B jedoch erfahrungsgemäß eher zurückhaltend und wenig experimentierfreudig. Die Ausreden, um sich gar nicht erst damit beschäftigen zu müssen, sind vielfältig: zu wenig Ressourcen, zu wenig Know-How, keine Mitarbeiter, die sich gerne daran beteiligen würden, etc. Den enormen Nutzen, der sich daraus ergeben könnte, vergessen viele B2B-Unternehmen. Jedoch, eine Investition in Instagram und TikTok lohnt – die Unternehmensbeispiele von der Krones AG und der deutschen Telekom zeigen, wie es klappt.


Zuständigkeiten für die Social-Media-Kommunikation in B2B-Unternehmen. Quelle: B2B-Social-Media-Studie 2020.

Social Media wird zur Chefsache

Wie die Ergebnisse der B2B-Social-Media-Studie 2021 zeigen, wird die Verantwortung für Social Media immer mehr im Management verankert; die Geschäftsführung übernimmt die Kommunikation, zumindest in Teilen. Denn im Sinne der Employee Advocacy müssen auch und besonders Chefs sich positionieren. Niemand vertritt das Unternehmen nach außen so gut wie sie und nirgends kann man so direkt mit allen Stakeholdern gleichzeitig in Kontakt treten wie auf Social Media.

Nur logisch, dass sich besonders CEOs von Unternehmen zunehmend hier positionieren – und gerade in Krisenzeiten Vertrauen schaffen. Punit Renjen (Deloitte), Michael Reeg (Hoesch & Partner) und Ryan Roslansky (LinkedIn) machen es vor.

Dabei sollte es aber immer bewusst sein, dass die Kommunikation gut durchdacht sein muss. Denn alles, was ein Geschäftsführer auf Social Media kommuniziert, wird gerne auf die Goldwaage gelegt und vorschnell interpretiert. Deshalb sollten such Unternehmenskapitäne bei Ihren Posts auf das Vier-Augen-Prinzip setzen und diese inhaltlich potenziell kritischen Aussagen überprüfen lassen. Beispiel: Wenn ein Unternehmen im Mineral-Ölbereich tätig ist, sollte Ihr CEO nicht unbedingt posten, wie wichtig Klimaschutz ist.

Kurzvita:

Jacqueline Althaller gründet 1992 ALTHALLER communication und betreut seither vor allem B2B-Kunden aus den Bereichen „Handel und Payment“ und „HR“. Im Sommer 2010 gründete sie den „Erster Arbeitskreis Social Media in der B2B-Kommunikation“, aus dem heraus sie zur Herausgeberin der einzigen Langzeitstudie wurde, die das Verhalten von B2B Unternehmen in der Social Media Kommunikation untersucht.
(Bild: SusieKnoll)

Aufmacherbild / Quelle / Lizenz
Photo by Jon Tyson on Unsplash

Handel mit Zukunft

Wer erfolgreich sein will, muss Märkte, Technologien und Menschen im Blick behalten.

Wissensmanagement der Zukunft: Verknüpfung von menschlicher und künstlicher Intelligenz

Daniel Fallmann, CEO von Mindbreeze, beschreibt in seinem Gastbeitrag die Kraft von Wissen, um sich im Wettbewerb Vorteile zu verschaffen

Wissen ist und bleibt ein entscheidendes Kriterium, wenn es darum geht sich vom Wettbewerb abzuheben. Die Zusammenarbeit von Menschen und Maschinen bietet dafür riesiges Potenzial. Allerdings machen die heute verfügbaren Technologien und innovativen Arbeitsweisen die traditionellen Vorstellungen von Wissensmanagement obsolet. Um von diesen Veränderungen zu profitieren, müssen Organisationen den Umgang mit Daten und ihre Abläufe neu überdenken und die Interaktion Mensch-Maschine fördern.

Die Datenflut beherrschen & nutzen

Im digitalen Zeitalter generieren und speichern Unternehmen eine regelrechte Flut an Daten. Schenkt man den Prognosen des Anbieters für Markt- und Konsumentendaten Statista vertrauen, wird sich das Datenaufkommen pro Jahr bis 2025 auf mindestens 175 Zettabyte belaufen.
Einige wenige Unternehmen nutzen das Potenzial der vorhandenen Informationen heute bereits zum Teil, jedoch reizt kaum ein Unternehmen die Möglichkeiten auch nur annähernd aus. Obwohl sich die Datenmengen stetig weiter erhöhen, bleiben einer internationalen Erhebung zufolge durchschnittlich 55% der Unternehmensdaten ungenutzt.

Mit der zunehmenden Komplexität und den steigenden Datenbergen wird es immer schwieriger, den Überblick zu behalten: „Unternehmen wissen oft nicht, was sie eigentlich schon wissen.“ Das führt dazu, dass der Leidensdruck unter anderem durch den Markt und Mitbewerb stetig steigt. Es braucht intelligente Wissensmanagementsysteme, die vorhandene Informationen übergreifend indizieren, analysieren, verknüpfen und entsprechend aufbereitet bereitstellen.

Bekannte Anbieter verwenden dafür Bezeichnungen wie „Enterprise Search“, „Insight Engine“, „Cognitive Search“ oder „AI Search“. Trotz unterschiedlicher Begriffe verfolgen sie alle ein Ziel: Dem Anwender zum richtigen Zeitpunkt die gerade benötigten Informationen bereitzustellen. Dafür nutzen sie unterschiedliche Technologien. Von künstlicher Intelligenz (KI) wie Machine und Deep Learning bis hin zu innovativen Ansätzen der Spracherkennung wie Natural Language Processing (NLP), Natural Language Understanding (NLU) sowie die semantische Aufbereitung von Inhalten, um eine natürliche Mensch-Maschinen-Interaktion zu ermöglichen. Doch dies ist erst der Beginn der Entwicklung – wohin die Reise gehen kann, zeigen die folgenden Trends im Überblick:

1. Den Bedarf des Anwenders verstehen und decken

Informationen in Unternehmen sind historisch gewachsen und in zahlreichen unterschiedlichen Datenquellen gespeichert. Da die Daten häufig isoliert in den Anwendungen in den einzelnen Abteilungen vorliegen, spricht man von sogenannten Datensilos. Eine wesentliche Voraussetzung für zukunftsweisendes Wissensmanagement ist es, diese Datensilos aufzubrechen und die
vorliegenden Informationen intelligent zu verknüpfen. Damit Nutzer auf Knopfdruck die relevanten Informationen im entsprechenden Kontext erhalten, verfügen intelligente Enterprise Search Produkte über die Möglichkeit sämtliche verteilten Daten über Konnektoren sicher abzufragen, zu analysieren und semantisch zu verstehen. So lassen sich diese Informationen verknüpfen und in Beziehung zueinander zu setzen (Graphen). Damit werden etwaige Silos nachhaltig aufgebrochen und die Informationen übergreifend nutzbar und versetzten die Anwender in die Lage, konkrete Antworten auf Fragen wie „Was wissen wir über einen Kunden?“ oder „Welche Informationen gibt es zu einem Bauteil?“ zu erhalten. Und das, ohne dafür eine weitere Datenquelle aufzubauen – wie dies in traditionellen Datenintegrationsprojekten der Fall wäre.
Eine wesentliche Voraussetzung, um die Wünsche des Anwenders zu erfüllen, stellt in diesem Zusammenhang die Personalisierung der Informationen dar.
Unter der Bezeichnung „Behavioural Model for Information Retrieval System Design“ werden unter anderem folgende Faktoren analysiert: Die Rolle der Tätigkeit, Aktionen, die in der Vergangenheit im Zusammenhang mit bestimmten Informationen gesetzt wurden, spezifisches Suchverhalten oder sogar die Emotionen, die User mit Informationen verknüpfen – ein Thema, das eng mit „Customer Experience“ bzw. „Experience Economy“ verwandt ist. Ziel ist es, die Relevanz einer Information zu personalisieren und ein intelligentes Assistenzsystem aufzubauen, mit dem der User auf möglichst natürliche Weise interagieren kann, um ihm punktgenau die benötigten Informationen bereitzustellen.

2. Menschen kommunizieren im Dialog

Die Verarbeitung unstrukturierter Informationen setzt die Fähigkeit voraus, Inhalte zu verstehen. Oberflächlich betrachtet mag das einfach erscheinen, jedoch gehört der Aufbau eines sinnvollen und zweckmäßigen Dialogs zu den schwierigsten Herausforderungen für KI. Das liegt vor allem an der unvergleichlichen Komplexität der menschlichen Sprache. Dialekt, Ironie, Mehrdeutigkeit – all das lässt sich allein mit Regeln schwer oder gar nicht erfassen.
Anwendungen mit starren vordefinierten Entscheidungspfaden eigenen sich damit weniger für komplexe Themen und Dialoge. Im Gegensatz dazu schaffen auf KI basierende Anwendungen eine menschenähnliche Gesprächsinteraktion, also imitieren einen Dialog (Coversational Search). Innovative Ansätze der Spracherkennung wie Natural Language Processing (NLP), Natural Language Understanding (NLU) und die semantische Aufbereitung von Inhalten in Kombination mit maschinellem Lernen haben sich dabei in den letzten Jahren als äußert wirksam erwiesen.

Abbildung 1: Natural Language Processing im Kundenservice

3. KI mit reduziertem Aufwand und tollen Ergebnissen: Weak Supervision

KI hatte bis heute einen massiven Nachteil: Um ein intelligentes System zu trainieren, brauchte es riesige Datensets und damit verbunden zeitaufwendige manuelle Arbeit und Vorbereitung. Weak Supervision zeigt hier einen anderen Weg auf. Das innovative Verfahren versetzt Systeme in die Lage nahezu selbstständig zu lernen – und zwar von im Unternehmen bereits vorhandenen Datensets, die nicht im Vorfeld mühevoll aufbereitet werden müssen. Die Performance (Akkuranz der Ergebnisse) optimiert sich durch die Nutzung, wodurch sich die Trainingsdauer der KI enorm reduziert. Gleichzeitig rückt „Explainable AI“ (XAI) zunehmend in den Fokus. Hierbei geht es darum von KI getroffene Entscheidungen nachvollziehbar bzw. transparenter zu machen. Dies ist nach wie vor bei äußerst komplexen Modellen nur bedingt möglich, wodurch die Reise in Zukunft wohl in Richtung Vereinfachung geht.

4. 360-Grad-Sicht (Holistic Views)

War es in der Vergangenheit notwendig Daten und Informationen zu bestimmten Aufgabenstellungen manuell aus unterschiedlichen Datenquellen zusammenzustellen, ist die ganzheitliche Aufbereitung von Informationen mittlerweile Standard.

Voraussetzung dafür muss jedoch sein, dass sich die Darstellung der Ergebnisse individuell an die unterschiedlichen Anforderungen der einzelnen Mitarbeiter, Positionen und Teams anpassen lassen. Branchenführende Lösungen bieten bereits die Möglichkeit eines einfachen Finetunings. Mitarbeiter haben manuell die Möglichkeit individuelle Anpassungen an den verschiedenen Anforderungsprofilen vorzunehmen, ohne den Umweg über die IT oder den Lösungsanbieter gehen zu müssen. Dafür stehen dem Anwender Bausteine wie Layouts, Suchfelder, Ergebnisse, Navigationselemente und Filter zu Verfügung, die sich – ohne jegliche Programmierkenntnisse – individuell zusammenfügen lassen. So kann beispielsweise festgelegt werden, dass einem Wartungsingenieur zuerst die Dokumentation der Wartung und nicht etwa Unterlagen zum Einkauf angezeigt werden. Für die Geschäftsführung hingegen lassen sich dementsprechend eher Dokumente zu den Finanzen des Unternehmens priorisieren.

Abbildung 2: 360-Grad-Sicht auf das Unternehmenswissen

5. Flexibilität bei der Datenaufbereitung

Organisationen haben viele unterschiedliche Datenquellen im Einsatz – von On-Premises über SaaS-Umgebungen bis hin zu Cloud-Services. Um eine qualitativ hochwertige Informationsaufbereitung zu ermöglichen, raten Anbieter ihren Kunden häufig alle Daten in die Cloud zu verlagern (Cloud only). Eine Voraussetzung, die besonders in Bereichen, wo hochsensible Informationen bzw. hochgradig angepasste Fachanwendungen vorliegen, nicht einfach bzw. nur mit hohem Aufwand realisierbar ist. Mit dem Ergebnis, dass diese Bereiche zunehmend nicht in das zentrale Wissensmanagement eingebunden werden können, wenn die Daten das eigene Rechenzentrum nicht verlassen dürfen.
Um kritische Abhängigkeiten aufzulösen, etablieren sich Lösungen – wie sogenannte Insight Engines – deren Funktionen sowohl On-Premises als auch in der Cloud verfügbar sind. So lassen sich Daten aus Cloudanwendungen wie Salesforce, ServiceNow, Office 365 etc. in der Cloud verarbeiten und jene von On-Premises-Anwendungen in den entsprechenden internen Rechenzentren.

6. Hyperautomation

Unternehmen sind immer mehr dazu gezwungen traditionelle Geschäftsprozesse in Richtung Flexibilität und Agilität zu optimieren. In diesem Zusammenhang wird häufig die Automatisierung vorangetrieben. Die Motivation dahinter ist es nicht Mitarbeiter zu reduzieren, sondern diese von quälenden Routineaufgaben zu befreien – damit mehr Zeit für andere Tätigkeiten zur Verfügung steht. Diese Entwicklung hilft Unternehmen dabei neue Geschäftsfelder zu entdecken und zu realisieren. Hyperautomation funktioniert jedoch nur dann, wenn Unternehmen über eine solide Basis in Sachen Wissensmanagement verfügen.

Durch den Einsatz von Technologien aus dem Bereich der künstlichen Intelligenz besteht bereits jetzt die Möglichkeit Arbeitsabläufe zu modernisieren. Während die Maschine lästige Routineaufgaben übernimmt, kann der Mensch seine Stärken wie soziale Interaktion, Kreativität und Fingerspitzengefühl gezielter einsetzen.


Über den Autor:

Daniel Fallmann beschäftigt sich seit frühester Jugend mit den Themen Künstliche Intelligenz, Machine Learning und Deep Learning. Er studierte Informatik an der Johannes Kepler Universität Linz und gründete im Jahr 2005 im Alter von 23 Jahren Mindbreeze.

Daniel Fallmann leitet das Unternehmen seither als CEO. Mindbreeze mit Headquartern in Linz, Österreich sowie Chicago, USA zählt heute zu den führenden internationalen Anbietern im Bereich angewandte künstliche Intelligenz und Wissensmanagement.


Weitere Informationen unter:
http://www.mindbreeze.com/

Covid-19 und das Supply-Chain-Management

Geodiversität + Digitalisierung = Flexibilität – die Lösung?

Globale Lieferketten sind seit COVID-19 eine enorme Herausforderung. Diese Thematik, geprägt von Lieferengpässen und Produktionsproblemen im Zusammenhang mit der Pandemie, zieht sich mittlerweile seit über einem Jahr durch die Medien. Insgesamt verändert die Pandemie, wie Führungskräfte über das Thema Supply-Chain-Management denken und ihre Unternehmen hier für die Zukunft aufstellen, wie eine aktuelle Studie von Orange Business Services und Longitude  zu „Real-time intelligence and the future of supply chain“ zeigt.


Unser Autor:

Philipp Ringgenberg, Senior Director Business Consulting & Innovation, leitet den europäischen Bereich Digital Business Consulting und Innovation bei Orange Business Services. Sein Team berät und unterstützt Kunden bei ihrer digitalen Transformation durch Geschäftsinnovation und Wertschöpfung.


Führungskräfte sehen Pandemie als Hauptrisiko für Lieferketten

Für 70 Prozent der 320 im Rahmen der Studie befragten Führungskräfte stellt die COVID-19 Pandemie das bisher größte Risiko für Lieferketten dar. Die Pandemie hat viele Führungskräfte in Sachen Lieferketten wachgerüttelt: So gaben 83 Prozent der Befragten an, dass sie nun aufmerksamer gegenüber Lieferkettenrisiken sind als noch vor einem Jahr. Auf Platz zwei und drei der größten Risiken für Lieferketten rangieren laut der Befragung „Aufruhr in internationalen Angelegenheiten“ (43 Prozent) und „der Wettbewerbsdruck“ (37 Prozent). Die Führungskräfte gaben außerdem an, dass die Pandemie besonders drei Bereiche negativ beeinflusst: Umsatz (56 Prozent), weltweite Lieferketten (56 Prozent) und das Geschäft insgesamt (55 Prozent). Was aber können Unternehmen tun, um auch in Pandemiezeiten ihre Supply Chains aufrecht zu erhalten?



Mit Innovation zu stabilen Lieferketten in der Pandemie

74 Prozent der befragten Führungskräfte gaben an, dass sie in der Krise weiter auf Innovation setzen und Stillstand als Gefahr sehen. 44 Prozent betonten, dass die Krise sogar einen positiven Einfluss auf ihre Innovationsfähigkeit hat, während 30 Prozent sagten, dass sie keine Auswirkung feststellen konnten. Die Pandemie hat Augen geöffnet und zum Umdenken angeregt – Unmögliches wird möglich. Eine Denkweise, der sich immer mehr Unternehmen anschließen.

Das betont auch Erwin Vestraelen, CDO und CIO vom Hafen Antwerpen: „Wegen COVID-19 sind viele neue Punkte auf der Agenda. Vieles wurde vorher theoretisch diskutiert. Aber alle sagten: „Ah, aber das wird nicht funktionieren. Das ist nicht möglich.“ Durch die Krise haben sich auf einmal innovative Ideen bewährt wie zum Beispiel Fernunterricht oder die remote Gesundheitsversorgung. Das Gleiche wird mit Lieferketten passieren. Man muss nicht nur einen Schritt nach vorne machen – man muss einen Quantensprung nach vorne machen.“

Geschwindigkeit und Agilität zählen mehr denn je

Doch wie könnte(n) dieser Quantensprung aussehen und unerwartete Risiken in Lieferketten eliminiert werden? Die Lösung lässt sich simpel in einer Gleichung darstellen. Geodiversität + Digitalisierung = Flexibilität. Flexibilität ist die Lösung, um Krisen so unbeschadet wie möglich zu überstehen. Sind Unternehmen flexibel, können sie sich schneller an unvorhergesehene Umstände anpassen. So gaben in der Umfrage rund 83 Prozent an, dass sie mehr Speed und Agilität benötigen, um mit Veränderungen in Krisenzeiten umgehen zu können. Doch welche Rolle spielen dabei „Geodiversität“ und „Digitalisierung“? On- und Nearshoring in der Fertigung erhöhen die Geodiversität und die Fähigkeit, sich schnell auf neue Marktgegebenheiten und Kundenbedürfnisse einzustellen sowie mit der Produktion in den eigenen Märkten schnell zu reagieren.


„Die Digitalisierung in Form von beispielsweise Smart Factories, Smart Asset Tracking oder Echtzeit-Daten-Analytik und KI gestützten Szenarien und Simulationen spielt eine wichtige Rolle bei der Flexibilisierung von Lieferketten.“


Aber auch die Digitalisierung in Form von beispielsweise Smart Factories, Smart Asset Tracking oder Echtzeit-Daten-Analytik und KI gestützten Szenarien und Simulationen spielt eine wichtige Rolle bei der Flexibilisierung von Lieferketten. Beispielsweise ist der Bedarf an und die Herstellung von bestimmten Produkten damit vorrausschauend planbar oder Produktionsstätten können schneller auf die Produktion gerade notwendiger Produkte umgestellt werden. Zudem ist die Digitalisierung ein wichtiger Faktor für das immer wichtiger werdende Thema Nachhaltigkeit. So nutzen 59 Prozent der Befragten in der Studie von Orange Business Services und Longitude moderne Technologien, um beispielsweise den Energie-, Kraftstoff- und Wasserverbrauch in der Produktion zu kontrollieren und zu senken.

Nachhaltigkeit – nicht nur für die Umwelt essenziell, sondern auch bei Lieferketten von großer Bedeutung

78 Prozent der befragten Führungskräfte in der Studie gaben an, dass Nachhaltigkeit eine große Rolle bei Lieferketten spielt. Nachhaltigkeit zahlt außerdem direkt auf Produkt- und Serviceinnovationen ein, die überlebenswichtig für Unternehmen sind – heute mehr denn je. Erwin Vestralen vom Hafen von Antwerpen verdeutlicht auch diesen Aspekt: „Die Pandemie wird enden, irgendwie. Aber Klimawandel, Nachhaltigkeit – das sind Trends und Risiken, die uns die nächsten Jahrzehnte beschäftigen werden. Beispielsweise wird der europäische Green Deal mehr Druck auf alle Beteiligten ausüben, den Ursprung von Emissionen zu identifizieren und ihren ökologischen Fußabdruck zu minimieren. Lieferketten spielen hierbei eine wichtige Rolle.“

Was lernen wir daraus?

Auch wenn die Corona-Pandemie eine für uns unvergleichbare Krise ist – unerwartete Ereignisse, treten laut McKinsey im Durschnitt alle 3,7 Jahre auf. Philipp Ringgenberg, Director Business & Solution Consulting Europe, Head of Innovation & Verticals Europe bei Orange Business Services appelliert deshalb an alle Beteiligten: „Es hat sich erneut gezeigt, dass wir uns unbedingt von alten, eingefahrenen Denkmustern trennen müssen. Flexibilität, Kreativität, Innovation und Transparenz müssen im Vordergrund stehen.“

Ein Trend, der sich aktuell herauskristallisiert, um Risiken in Lieferketten durch mehr Flexibilität zu minimieren, ist die Verfolgung einer erweiterten Ökosystem-Strategie. Dabei bauen Unternehmen beispielsweise neue Netzwerke mit zusätzlichen Partnern oder Lieferanten auf oder treten bereits bestehenden Netzwerken bei. Auch die befragten Führungskräfte setzen auf diese Möglichkeit der Risikominimierung: 90 Prozent gaben an, dass sie so eine Strategie bereits verfolgen oder in den nächsten zwei Jahren in Erwägung ziehen. Außerdem zahlen sorgfältige, iterative Überprüfungen der Lieferkette sowie Investitionen in ein größeres Supply-Chain-Management-Team oder externe Expertenunterstützung auf das Ziel Risikominimierung ein. Unternehmen sollten auf keinen Fall auf einzelne Lieferanten oder Zulieferer aus nur einem Land oder einer Region setzen.

Weiterführende Informationen: https://www.orange-business.com/en

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Sind Kryptowährungen eine Bedrohung für Gold?

Sind Kryptowährungen eine Bedrohung für Gold? – Dieser Frage geht Adrian Ash, Director of Research bei BullionVault in seinem Gastbeitrag nach

Noch zu Beginn des Jahres boomten die Kryptowährungen: Nicht nur bekannten sich namhafte Unternehmer wie Tesla-Chef Elon Musk und Sportmogul Mark Cuban zu digitalen Assets, auch Konzerne wie Mastercard oder Visa sowie die Bank of New York gaben kund, ihren Kunden Zugang zum Bitcoin ermöglichen zu wollen. Das führte dazu, dass Digitalwährungen durch Schlagzeilen immer mehr in den Fokus gerückt wurden und die Idee unter Anlegern stärker wuchs, den Bitcoin als Alternative zu Edelmetallen zu betrachten. Zwischenzeitlich knackte der Bitcoin-Kurs so erstmals die Marke von 50.000 Euro.

Doch der vergangene Mai hat nun eine deutliche Trendwende offengelegt: Der Bitcoin-Preis wurde um ein Drittel nach unten gedrückt. Für den Goldpreis hingegen ging es stark bergauf: Mitte des Monats stieg er über die Marke von 1.800 US-Dollar, und seitdem setzt sich dieser Trend fort. So übertraf der Preis am 31. Mai sogar auf über 1.900 Dollar je Feinunze. Seitdem hält er sich in der Nähe dieser Marke.

Allein diese Entwicklung zeigt: Gold und Krypto haben wenig miteinander gemeinsam. Denn auch wenn vor allem während des Kryptobooms natürlich einige Privatinvestoren vermehrt zur digitalen Währung griffen, und obwohl Krypto von so manchem sogar als das Gold 2.0 bezeichnet wird, weisen die beiden, trotz ein paar Gemeinsamkeiten in Bezug auf ihre Anlageeigenschaften, auch erhebliche Unterschiede auf.
Worin bestehen sie?

Gemeinsamkeiten von Krypto und Gold

Sowohl die digitale Währung als auch Edelmetalle sind begrenzt, im Gegensatz zu staatlicher Währung (Fiatgeld) oder Schulden. Auch können beide außerhalb des Finanzsystems gehalten werden. Für Anleger bedeutet das, jederzeit Zugriff auf ihr Asset zu haben und es verkaufen zu können, wenn sie es für richtig halten. Auch wenn der Zugriff auf Konten, Depots oder Bargeld versperrt sein sollte, ist Gold jederzeit zugänglich. Dadurch dass Kryptowährungen keiner staatlichen Kontrolle unterliegen, sind auch für ihren Handel keine Banken und somit herkömmliche Finanztransaktionen notwendig.

Unterschiede von Krypto und Gold

Im Gegensatz zu Gold sind Kryptowährungen jedoch immateriell und eine Erfindung aus dem vorletzten Jahrzehnt, die nach wie vor sehr spekulativ und schwankungsanfällig ist. Im Vergleich zu physischen Edelmetallen ist der Preis von Bitcoins etwa viermal volatiler. Zudem sind Kryptowährungen nur digital verfügbar, dadurch zwar leicht handelbar, aber auch anfällig für Hacker, was ein großes Fragezeichen hinsichtlich ihrer Rechtstitelsicherheit aufwirft. Gold hingegen ist komplett physisch, und bietet Sicherheit und Schutz vor dem Ausfall der Gegenpartei, was kein anderer handelbarer Vermögenswert bieten kann. Zudem blickt Gold auf eine jahrtausendelange Geschichte zurück: Der globale Goldhandel hat sich bewährt und findet auf einem tiefen und liquiden Markt statt. Bitcoin-Volumina sind weniger sicher; verschiedene Börsen bieten sehr unterschiedliche Daten an, und dezentraler Handel wird nicht zuverlässig gemeldet. Aber wie stark auch immer der Bitcoin-Handel gewachsen sein mag, er ist nicht mit einem Rückgang des Goldhandelsvolumens einhergegangen. Das deutet darauf hin, dass Bitcoin keine Investitionsströme „gegessen“ hat, die sonst in Gold fließen würden, und das zeigt: Gold ist nach wie vor ein beliebtes Asset, das für die Diversifizierung eines Portfolios geeignet ist. Das beweist auch eine von BullionVault durchgeführte Umfrage unter Privatanlegern: Gut ein Viertel (27,9 Prozent) gab an, vorranging zur Diversifizierung des Portfolios in Gold anzulegen. Und über ein Drittel (37,9 Prozent) investiert in Gold als Absicherung gegen Inflation.

In Anbetracht der aktuellen Lage scheint also die Frage, ob Kryptowährungen Gold ersetzen werden, fast rhetorisch. Das Anlageverhalten der letzten Monate und die Entwicklung des Goldpreises zeigen ganz klar: Kryptowährungen werden Gold nicht den Rang ablaufen.

Gold und andere Edelmetalle haben im Anlagespektrum in der Regel eine stabilisierende Funktion, und gerade in Zeiten der Inflation wirken sie im Portfolio stabilisierend. Kryptowährungen hingegen sind kein bewährter Inflationsschutz und aufgrund ihrer hohen Volatilität kein geeignetes Wertaufbewahrungsmittel. Wer also langfristig sicher investieren will und das auch in unsicheren Zeiten, ist mit Gold gut beraten.

Weitere Informationen unter:
https://gold.bullionvault.de/

Pedelec, E-Bike und Co. – Was ist bei der Akku-Sicherheit zu beachten?

Für die hartgesottenen Radler ist das ganze Jahr über Saison – für alle anderen beginnt sie jetzt mit den warmen Tagen. Und wie die aktuellen Zahlen des Fahrrad-Industrie-Verbands belegen, werden in diesem Jahr mehr E-Bikes auf deutschen Straßen unterwegs sein als jemals zuvor. Doch gerade bei den Akkus scheidet sich Spreu vom Weizen – da gibt es bei der Sicherheit Einiges zu beachten: Wie verhalten sich Akkus in den verschiedenen Jahreszeiten? Ist Made in Germany absolut notwendig? Was tun, wenn es brennt?

Darüber und über andere Fragen haben wir mit einem gesprochen, der es wissen muss.

Christian Hennig, Technikchef bei Pendix


Herr Hennig, es tauchen ja immer wieder Berichte auf, nach denen Akkus in verschiedenen Geräten plötzlich gebrannt haben. Sind das nur Horror Stories oder besteht wirklich eine ernstzunehmende Gefahr?

Es ist zumindest eine reale Gefahr. Hier verlässliche, absolute Zahlen oder Prozentsätze zu nennen, ist leider nicht möglich. Aber im Verhältnis zu den Akkus im Markt ist die Zahl der Brände super gering. Dass solche Berichte vermehrt in den Medien auftauchen, liegt vor allem an der zunehmenden Verbreitung von Lithium-Akkus in der breiten Masse – besonders in der Elektromobilität. Das Wissen um die speziellen Eigenschaften des Lithiums hat in den letzten Jahren aber auch dazu geführt, dass die Akkus sicherer geworden sind. 

Wieso könnte es denn überhaupt zu einem Brand kommen?

Das in den Akkus verwendete Lithium ist ein besonders leistungsfähiger Rohstoff. Damit erreichen wir die nötigen Anforderungen, auf kleinstem Raum die nötige Kapazität und Energiedichte zu erreichen. Ansonsten müsste jeder von uns mit einem koffergroßen Akku herumlaufen, nur um sein Handy zu nutzen. Neben der Leistungsfähigkeit ist Lithium aber eben auch ein leicht brennbares Material. Technische Defekte oder Anwendungsfehler können Auslöser für eine thermische Reaktion in den Zellen sein – und dadurch kann schlimmstenfalls ein Brand entstehen.

Und wenn der Extremfall doch eintritt? Haben Sie einen Tipp?

Sollte es tatsächlich dazu kommen, entwickelt der Akku bis zu 1.000 Grad. Dafür gibt es spezielle Feuerlöscher, die Löschmittel mit hohem Kühleffekt enthalten. Auch Feuerlöschdecken bieten sich als erstes Mittel an. Laien sollten bei so einem Brand aber auf jeden Fall die Feuerwehr rufen, da eine große Menge Wasser zur Abkühlung nötig ist. Löschmittel wie etwa ABC- oder BC-Pulver, Metallbrandpulver oder Kohlendioxid (CO2) sind nicht geeignet und sollten keinesfalls verwendet werden.

Anwendungsfehler hatten Sie bereits angesprochen. Was gibt es hier zu beachten und wie kann die Lebensdauer von Akkus erhöht werden?

Ich empfehle immer, Original-Ladegeräte des Herstellers zu verwenden. Dabei ist bspw. darauf zu achten, dass das Ladegerät für den Eingangs-Spannungsbereich im jeweiligen Land, in dem ich es verwenden möchte, ausgelegt ist. Dies lässt sich in der Anleitung oder auf dem Label des Ladegerätes selbst ablesen. Außerdem rate ich, Akkus immer bei Raumtemperatur und nie unbeaufsichtigt aufzuladen – auch wenn es nur um einen kurzen Einkauf geht.

Wann macht sich der Memory-Effekt bemerkbar.

Der gehört der Vergangenheit an. Heutige Akkus können bedenkenlos mit Unterbrechungen oder nur zum Teil aufgeladen werden. Einen positiven Effekt auf die Lebensdauer bringt, den Akku nicht immer komplett zu entladen, so es die Nutzung denn erlaubt. Speziell in niedrigen Ladezuständen unter 15% altern die Zellen schneller.

Wie erkenne ich einen defekten Akku?

Hier muss zuerst der natürliche Verschleiß ausgeschlossen werden. Akkus haben nur eine begrenzte Lebensdauer, und mit der Zeit nimmt die Leistung ab – auch ohne Memory-Effekt (lacht). Ein Defekt liegt aber vermutlich vor, wenn es zu sprunghaften Kapazitätseinbrüchen kommt – das sind dann Anzeichen für einen Zelldefekt. Sowas lässt sich von außen nur schwer feststellen, aber Fachhändler haben dafür spezielle Diagnosetools. Auch wenn der Akku beim Laden ungewöhnlich warm wird, sollte er nicht mehr benutzt werden, bis er von einem Spezialisten gecheckt wurde.


„Neben der Herkunft spielen natürlich auch die verwendeten Materialien eine große Rolle, so haben wir uns bewusst für ein Akkugehäuse aus Aluminium entschieden, welches die Risiken bei einem möglichen Zellbrand gegenüber Kunststoffgehäusen nachweislich noch mal deutlich senkt.“


Gibt es sonst noch Faktoren, die beachtet werden müssen? Etwa was die verschiedenen Jahreszeiten angeht?

Lithium-Ionen-Akkus sind kleine Mimosen und fühlen sich bei ungefähr 25 Grad Celsius am wohlsten. Bei zu kalten Temperaturen sinkt die Leistungsfähigkeit und die Zellen altern schneller. Ist es zu heiß, können Überhitzungen mit möglichen Folgeschäden auftreten. In den Akkus ist ein Batterie-Management-System integriert, mit dem sich das System bei zu hohen oder niedrigen Temperaturen und Spannungen automatisch abschaltet, um Schäden zu vermeiden. Trotzdem sollten Akkus vor allem im Sommer nicht der prallen Sonne ausgesetzt werden.

Sie sind ja Experte für die Elektromobilität. Sind bei E-Bike und Co. spezielle Vorsichtsmaßnahmen nötig?

Wer sich an die Empfehlungen hält, ist auf jeden Fall sicher unterwegs. Wir bei Pendix freuen uns, wenn unsere Kunden ihr Rad das ganze Jahr über nutzen. Für die Hardcore-Winter-Radler haben wir deshalb ein Akku-Cover entwickelt, damit sie auch bei Schnee und Eis vorankommen. Wenn das E-Bike doch mal länger nicht genutzt wird und es in den Fahrradkeller kommt, sollte die Akkuladung zwischen 40 und 70 Prozent betragen.

Unser eDrive zeigt das zum Beispiel durch einen gelben LED-Ring an. Ungefähr alle zwölf Wochen sollte der Akkustand überprüft werden, um einer Tiefenentladung vorzubeugen. Ansonsten gelten bei E-Bikes dieselben Regeln wie bei anderen Geräten. Die Akkus sind robust und auch eine Offroad-Tour macht ihnen nichts aus. Sollte es mal zu einem Unfall kommen, sollte der Akku aber gewechselt oder zumindest von einem Fachmann geprüft werden.

Müssen es eigentlich immer Akkus Made in Germany sein?

Das lässt sich pauschal nur schwer beantworten. Ich persönlich rate immer zu einem Made in Germany-Akku, weil die Qualität meist besser ist. Das heißt aber nicht, dass andere Akkus generell schlecht sind. Wer nach günstigen Modellen schaut, müsste sich aber genau über die Herkunft informieren und Hersteller vergleichen. Die Sicherheitsstandards im Ausland schwanken sehr. Neben der Herkunft spielen aber natürlich auch die verwendeten Materialien eine große Rolle, so haben wir uns bewusst für ein Akkugehäuse aus Aluminium entschieden, welches die Risiken bei einem möglichen Zellbrand gegenüber Kunststoffgehäusen nachweislich noch mal deutlich senkt.

Stichwort Globalisierung: Durch Corona und zuletzt durch den Stau im Suez-Kanal kommt es in vielen Branchen zu Lieferproblemen. Sind Sie auch betroffen?

Bisher konnten wir durch unsere vorausschauende Einkaufsstrategie kritische Lieferausfälle kompensieren. Wir merken auch, dass der Markt angespannt ist, gerade im Bereich der Elektronikbauteile stehen auch wir derzeit vor großen Herausforderungen, um die Lieferkette lauffähig zu halten, aber wir sind optimistisch.

Alles hat ein Ende. Wie sollten Akkus denn vernünftig entsorgt werden?

Auf keinen Fall im Hausmüll. Das bitte bloß nicht! Privatleute haben immer das Recht, den Akku dort abzugeben, wo sie ihn gekauft haben. Alternativ gibt es dafür auch spezielle Rücknahmestellen und Wertstoffhöfe.

Aufmacherbild / Quelle / Lizenz
Bild von Franz W. auf Pixabay

KI-Technologien und intelligente Apps

Herr Dr. Trommen, wie verändern die Technologien rund um künstliche Intelligenz unsere Medien und die Medienbranche?
Disruptiv und exponentiell. Entscheidend ist, sich mit der Technologie sehr früh zu beschäftigen. Man sieht das bspw. am Erfolg von Axel Springer oder N-TV, die bereits sehr früh auf die Digitalisierung gesetzt haben und in diesem Bereich immer noch führend sind.

Dr. Alexander Trommen, CEO Appsfactory 

Welche Wettbewerbsvorteile können „First-Mover“ generieren, die auf KI setzen?
Zum einen Kostenersparnis, z.B. bei Tätigkeiten, die standardisierbar sind – z.B. das Einsprechen von Podcasts, was mit Text-to-Speech-Schnittstellen automatisiert werden kann. Auf der Re:publica haben wir ein gemeinsames Projekt mit dem WDR vorgestellt. Dabei ging es um die Möglichkeiten Stimmen zu imitieren. Hier braucht man 200 – 400 Minuten an Material, damit der Computer meine Stimme, Ihre Stimme oder welche Stimme auch immer, imitieren kann. Die Erfahrung ist mit dieser Technologie wirklich sehr gut und man kann die Stimmen kaum mehr unterscheiden.

Andererseits wird mehr Reichweite generiert: Wir haben bspw. für die FAZ eines der ersten deutschen Personalisierungsprojekte umgesetzt. Dass sich die FAZ im Vergleich zu den anderen Tageszeitungen in den letzten Jahren in der Reichweite überproportional entwickelt hat, führen wir auch auf die Investitionen in die Technologie zurück.

Welche Projekte bearbeiten Sie in diesem Kontext zurzeit und gibt es Beispiele dafür?
Aktuell experimentieren wir im Bereich von Robo-Journalismus, d.h. automatisierter datengetriebener Journalismus.  Wir fangen an mit einzelnen Bereichen, wie z.B. Corona, Sportjournalismus oder Arbeitslosen-Statistiken, wo wir lokale Daten in großer Menge haben, die nicht jeden Tag redaktionell aufbereitet werden können. In der Tagesschau-App gibt es bereits ein Widget, in dem die aktuellen Corona-Daten komplett automatisiert zu einem Mini-Artikel zusammengefasst werden.

Zwar sind wir weit weg davon, dass der Robo-Journalismus den echten Journalismus ersetzt, aber es gibt im Journalismus sehr viele standardisierte Tätigkeiten. Ein großes Aufgabengebiet der Journalisten bei der Tagesschau ist es bspw. bereits bestehende Texte für die entsprechenden Medien anzupassen. Das Kürzen von Texten ist dabei ein sehr großer, manchmal auch ein bisschen lästiger Bestandteil der täglichen Arbeit. Dort kann man schon sehr stark unterstützen und damit „Zeit freispielen“.

Bieten Sie selbst „Cognitive Services“ an oder nutzen Sie Cloud-Plattformen wie Azure und AWS?

Wir nutzen tatsächlich alle Cognitive-Services-Schnittstellen der drei großen Anbieter, MS Azure, AWS und Google. Die einzelnen Schnittstellen haben unterschiedliche Stärken und Schwächen – die eine ist evtl. etwas besser in der Text-to-Speech-Generierung, die andere in der semantischen Analyse oder im Human-Voice-Bereich. Deswegen „benchmarken“ wir sie ständig gegeneinander.

Wie schätzen Sie den Zukunftsmarkt für Augmented Reality und Virtual Reality ein?
Das ist ein superspannendes Thema – ich befürchte aber, dass wir auf den Massenmarkt noch zehn Jahre warten müssen. Bevor die Brillen genauso groß sind wie die Brillengestelle, die wir einfach tragen, von mir aus 100 Gramm mehr wiegen, werden wir keine AR bzw. VR Massenmarkt haben, da Leute mit den „großen AR-Brillen“ nicht durch die Straßen laufen. Dann aber kann das schon sehr stark disruptiv wirken.

Für welche Unternehmen lohnt sich jetzt schon der Einsatz und welche Kunden-Projekte verfolgt Ihr Haus zurzeit?
Momentan sehen wir eine hohe Nachfrage im Bereich Logistik, vor allem bei Pick-Solution im E-Commerce – wo muss der Picker hingehen, wo etwas entnehmen.

Mit der Tagesschau haben wir ein recht spannendes Projekt gemacht, wo wir dargestellt haben, wie die Tagesschau in 10 – 15 Jahren aussehen könnte. Dabei haben wir Linda Zervakis als 3-D-Modell abgebildet, die quasi ins Wohnzimmer projiziert wird und dort das Wetter illustriert oder über Katastrophen wie den Brand der Kathedrale Notre Dame in 3-D berichtet. Die Objekte stehen dann neben ihr und sie kann sie drehen. Auf Grund der hohen Produktionskosten – man ist hier schnell im sechsstelligen Bereich – ist das jedoch nichts, was man heute schon jeden Tag produzieren kann.

Evolution oder Revolution?
Sie kennen vielleicht die Story von Neurolink, also einem Elon-Musk-Unternehmen, wo jetzt der erste Chip in einen Affen implementiert wurde, der in der Lage ist, mit den Gedanken ein Videospiel zu steuern. Zusammen mit AR entstehen hier ganz neue Möglichkeiten. Also definitiv Revolution – aber es braucht noch ein bisschen Zeit.

Welche neuen Geschäftsmodelle wären vorstellbar?
Geschäftsmodelle werden alle in Richtung Abo-Economy laufen. Im journalistischen Bereich gibt es dieses Modell mittlerweile schon seit Jahrzehnten. Es ist relativ einfach zu skalieren auf der Anbieterseite. Auf der Konsumentenseite setzt es sich immer mehr durch, da ich meine Kosten kalkulieren kann.

Wearables sind erst der Anfang der BYOE-Revolution am Arbeitsplatz – wieviel steckt in Exoskeletten und implantierter Technologie und welche Geschäftsmodelle sind denkbar?
Da gibt es gerade in der Medizintechnik schon echte Anwendungen jenseits der Robocop-Visionen. Hier haben wir ein Projekt mit einem sehr großen Prothesen-Hersteller umgesetzt, wo eine Fußgelenksprothese per App auf bestimmte Anforderungen angepasst werden konnte – also ob ich bspw. joggen oder normal gehen will. Der nächste Schritt wird sein, das Ganze mit einer KI zu koppeln, so dass das System selbst erkennt, was sein Nutzer eigentlich will, ohne dass er dies in einer App auswählen muss. Die Geschäftsmodelle sind aber glaube ich, die gleichen wie immer. Sie verkaufen diese Prothesen oder Produkte.

Und implantierte Technologien – wenn es z.B. darum geht, später etwas schlauer zu werden – sehen Sie dort auch neue Möglichkeiten?
Wenn Sie mich heute fragen würden, ob ich Aktien von Neurolink kaufen würde, dann würde ich sagen: ja, auf jeden Fall. Die Frage ist dann, wie das Geschäftsmodell aussieht. Was ist es wert, wenn ich noch 20 % intelligenter werde? Es ist also schwer zu kalkulieren, aber auf jeden Fall sehr spannend.

Was kann Deutschland von anderen Ländern noch lernen?
Wenn wir sehen, wie langsam wir durch die Pandemie gekommen sind und wie schnell einige asiatische Länder dabei waren, dann sieht man, dass die Corona-App hier bei uns einfach nicht funktioniert hat. Ein Grund hierfür war eine überhöhte Anforderung an den Datenschutz.

Zudem stelle ich fest, dass viele andere Länder zwar in der Forschung hinten dran sind – und die KI-Forschung in Deutschland muss sich wirklich nicht verstecken – dennoch sind wir diejenigen, die daraus keine Community-Services zur Verfügung stellen. Wir haben keinerlei Plattformanbieter, die ihre Schnittstellen bereitstellen. Nicht einmal die Telekom, die die Manpower hätte, stellt Ihre Schnittstellen bereit.

Was sind momentan Ihre spannendsten Projekte und welche Ziele haben Sie sich gesetzt?
Eines unsere spannendsten Projekte ist aus dem Bereich Android-Open-Source, also dem Betriebssystem, mit dem ganz viele Automotiv-Hersteller ihr komplettes Infotainment machen und machen werden. In diesem Bereich gibt es kaum Firmen mit Ahnung, weswegen wir dort eine Schlüsselposition einnehmen. Dass das Infotainment in Fahrzeugen insgesamt wichtiger wird, ist bei selbstfahrenden Automobilen und den heutigen Entwicklungen, selbsterklärend.

Ein weiteres spannendes Projekt haben wir mit Huawei zusammen. Mit Harmony schafft Huawei gerade eine Android-Variante mit eigenem Ökosystem und eigenem Vertriebssystem, das nicht nur auf Smartphones, sondern auch auf Wearables läuft. Wir helfen Huawei das Ökosystem aufzubauen, in dem wir im Bereich Shops bzw. Appstore als auch bei der App-Portierung helfen.

Unser Ziel bis 2025 ist es, die Anzahl unserer Mitarbeiter auf 500 zu verdoppeln. Wir wollen weiter wachsen zu einen der bedeutendsten Full-Service-Dienstleister im Bereich der Applikationen und der digitalen Transformation in Deutschland.

www.appsfactory.de

Aufmacherbild / Quelle / Lizenz
Bild von kalhh auf Pixabay