Klasse statt Masse – smarte Daten für Ihren Online-Shop

von Thorsten Mühling

Klasse statt Masse. Im E-Commerce kommt es nicht auf Big Data an, sondern auf Smart Data. Denn Unternehmen in dieser Branche brauchen nicht alle denk- und speicherbaren Informationen, um erfolgreich zu sein. Sie brauchen die richtigen. Mit den passenden Informationen klappt es dann auch mit der Personalisierung, was im Online-Handel ja erst besonders tolle Kundenerlebnisse ermöglicht. In beiden Fällen nimmt KI eine Schlüsselrolle ein.

Der E-Commerce wuchs zwischen 2019 und 2020 laut HDE Online Monitor 2021 (S.6) um beeindruckende 23 Prozent. Für 2021 prognostiziert die Untersuchung einen Anstieg um weitere 17 Prozent. Auch viele ältere Menschen haben – ausgelöst durch die Schließungen im stationären Handel – das Online-Shopping für sich entdeckt. Die wachsende Zahl der Web-Käufer bringt den Netz-Händlern nicht nur neue Kunden, sondern auch viele frische wichtige Daten über die Nutzer – sogenannte Big Data. Das zeichnet sich zum einen durch ihr Volumen, aber auch durch die Methoden und Technologien aus, die Händler verwenden, um einen Nutzen aus den Informationen zu ziehen. Besonders interessant ist dabei ein genauerer Blick auf die Frage, welche Daten der E-Commerce besonders gut gebrauchen kann.  

Von Big Data zu Smart Data

Wichtige Informationen aus dem großen Big-Data-Pool sind beispielsweise solche, mit denen ein Unternehmen sein zukünftiges Agieren besser planen kann. Darunter fallen unter anderem Informationen aus dem Shopsystem, dem Warenwirtschaftssystem und dem Klick- und Kaufverhalten. Doch das Sammeln dieser Angaben allein reicht nicht aus. Um die Informationen nachhaltig nutzen zu können, sollte eine effektive und zielgerichtete Analyse erfolgen, an deren Ende zum Beispiel Muster und Korrelationen stehen. Aus dem vormaligen großen Volumen der Big Data erfolgt so also eine Extraktion von Smart Data. Letztere sind nützliche Informationen für bestimmte Anwendungsfälle im E-Commerce.


Unser Gastautor

Thorsten Mühling ist CEO und Co Founder der epoq internet services GmbH. Der studierte Betriebswirt gründete bereits 2003, gemeinsam mit seinem Partner Michael Bernhard, ein Tech-Unternehmen. Dieses entwickelte selbstlernende Systeme, die in verschiedenen Branchen zum Einsatz kamen. 2013 hat er zusammen mit Michael die epoq internet services GmbH gegründet und sich ganz der KI-gestützten 1:1-Personalisierung des digitalen Handels gewidmet. Er leitet seit der Gründung das operative Geschäft von epoq und ist für die strategische Weiterentwicklung des Unternehmens verantwortlich.

Der E-Commerce-Experte gestaltet und verfolgt den Aufstieg des Online-Handels seit fast zwei Jahrzehnten. Dabei versteht er es, erfolgreiche Prozesse des stationären Handels, mit beständigen Innovationen, in die digitale Welt zu transportieren. In seiner Freizeit ist Thorsten als Fußballtrainer sportlich aktiv und schwingt daneben gerne den Schläger als begeisterter Golfer.

https://www.epoq.de/


Um Personalisierungsmaßnahmen durchzuführen sind z. B. Verhaltensdaten entscheidend, welche DSGVO-konform eingesetzt werden können. IP-Adressen oder andere personenbezogene Daten werden für die erfolgreiche Personalisierung eines Online-Shops nicht benötigt. Die Verhaltensdaten sind aber umso wertvoller, je „stabiler“ die Aggregation ist: Hat der Kunde ein Konto, können die Daten an eine stabile Customer-ID angehängt und in der Datenbank aggregiert werden. Aber auch ohne Kundenkonto kann personalisiert werden. Denn fortschrittliche Personalisierung nutzt keine Third-Party-Cookies mehr, sie stützt sich auf First-Party-Identifier im Rahmen des Online-Shops und gehört somit zu dem IT-Umfeld des Shop-Betreibers.

Use Case

Agiert ein Konsument also mit der Webseite eines Online-Shops, erhält der Betreiber erstmal Big Data. Durch die Datenanalyse wir daraus Smart Data. Sie beantworten Fragen wie: Auf welche Links hat der Kunde geklickt? Welche Artikel hat er in den Warenkorb gelegt? Und wie lange hielt sich der User wo auf? Anhand eines KI-unterstützen Modells erfolgt anschließend eine Berechnung darüber, welche der extrahierten Informationen zur Verbesserung des Shopping-Erlebnisses für den aktuellen Kunden und für ein mögliches aktuelles Problem – wie zum Beispiel der fehlenden Conversion – führen kann. Der Data Scientist legt somit fest, welche Daten im Shop entscheidend sind, um beispielsweise für Empfehlungen eine Vorhersage zu treffen, die dann mit hoher Wahrscheinlichkeit zum Kauf führt. Das sind dann Smart Data. Diese Daten werden schließlich von den Algorithmen weiterverwendet. Dieser Personalisierungsprozess hat eine bessere und erfolgreichere User Experience des Nutzers zur Folge.

Mit Personalisierung durch KI zur erfolgreichen Customer Journey

Im stationären Handel gibt es den Fachverkäufer, der potentielle Käufer im Idealfall so gut betreuen kann, dass sie genau das finden, was sie suchen. Außerdem kennt er seine Kundschaft so genau, dass er ihnen auch gezielt weitere Produkte vorschlagen kann. Viele Konsumenten schätzen dieses persönliche Erlebnis, das dem stationären Handel bisher immer einen Vorteil verschafft hat. Allerdings gibt es diese Art der Personalisierung jetzt auch für Online-Shops.
 

Mit Hilfe von KI sind wir mittlerweile in der Lage, sehr gute Prognosen abzugeben, für welche weiteren Artikel sich ein Online-Shopper ziemlich sicher interessiert. Wir können heute zum Teil sogar ein besseres Einkaufserlebnis bieten als der stationäre Fachhandel. Und dabei geht es um die gesamte Customer Journey. Das Ziel ist es, zu verhindern, dass der Kunde seine Meinung irgendwo zwischen Kauf-Idee und Abschluss noch ändert. Mit der passenden KI-gestützten Software schaffen es Online-Händler auch, nicht nur die Conversion-Raten, den Traffic, die Wiederkaufrate oder den Warenwert im Einkaufkorb zu erhöhen, sondern auch die Zahl der Retouren zu minimieren. Denn erhalten Kunden schon vor dem Kauf genau die Empfehlung zu den Produkten, die sie auch wirklich suchen, gibt es keinen Grund mehr, sie zurück zu schicken. 

Algorithmen helfen dabei, dass Online-Händler dem Kunden genau auf seine Bedürfnisse und Interessen abgestimmte Inhalte anzeigen können. So erfährt auch die emotionale Komponente eines Einkaufserlebnisses durch die Personalisierung eine Steigerung gegenüber dem stationären Handel. Bei der Wahl der richtigen Tools, um eine durchdachte, authentische und 1:1 personalisierte Strategie im Online-Shop umzusetzen, dürfen die Richtlinien der DSGVO nicht außen vor bleiben. Denn es sind ausschließlich pseudonymisierte Daten für die Personalisierung nötig.  

Use Case

Ein gutes Beispiel ist Outletcity in Metzingen. Bereits seit einiger Zeit setzte der Online-Shop auf eine Recommendation Engine für die Personalisierung von Produkt-Empfehlungen. Dr. Stefan Hoffmann, Managing Director bei Outletcity Metzingen, erklärt dazu: „Unsere Premium- und Luxus-Kunden erwarten, insbesondere von uns als geschlossenem Online-Shop, personalisierte Angebote und Empfehlungen, basierend auf Markenpräferenz, der eigenen Kleidergröße oder dem Geschmack.“ Nach der Verbesserung der Personalisierungsstrategie durch die Integration eines neuen Personalisierungs-Tools, stieg der Umsatz des Shops pro Session um 5,04 Prozent.

Die Conversion-Rate erhöhte sich um 2,1 Prozent. Im Detail erhielt zum Beispiel die Produktdetailseite zwei Widgets (Produktkarten) mit Alternativ- und Cross-Selling Empfehlungen. Außerdem zeigen jetzt die Bestellbestätigungsseiten und die Log-Out Seiten jeweils ein Widget mit Empfehlungen zu Produktkategorien, die von Kunden noch nicht angesehen wurden. Die Ausspielung der Produkte in den Widgets erfolgt für jeden Kunden individuell und führen dadurch zu einem gesteigerten Shoppingerlebnis.

Der E-Commerce wächst stetig weiter. Neben Konsumenten, die sowohl im stationären wie auch im Online-Handel shoppen, gibt es immer mehr Kunden, die nur noch rein digital unterwegs sind. Und sie erwarten auch hier ein tolles Shopping-Erlebnis. Die vorgestellten Beispiele zeigen anschaulich, dass Web-Händler gute Möglichkeiten haben, um aktiv nachzusteuern und ihr Wachstum mit der nachhaltigen Nutzung von Smart Data und guten Personalisierungs-Tools voranzutreiben.

Aufmacherbild / Quelle / Lizenz
Bild von yatsusimnetcojp auf Pixabay

Deutscher Demografie Preis 2021 für LidA

Das Projekt „LidA – Lernen in der digitalisierten Arbeitswelt“ ist Preisträger des Deutschen Demografie Preises 2021, verliehen vom Demographie Netzwerk e.V. (ddn). Ausgezeichnet wurde LidA in der Kategorie „Chancen der Digitalisierung“. Die Inhalte und Ziele des Projekts präsentierte Korhan Zeyrek, kaufmännischer Geschäftsleiter der Mauser + Co. GmbH, die als Partner im Projektverbund auch die Bewerbung für den Preis initiierte. Die vorgestellten Ergebnisse überzeugten die Jury durch einen klaren Fokus auf digitale Lernplattformen, die Einbeziehung verschiedener Zielgruppen, den Abbau von Ängsten vor der Digitalisierung und ein insgesamt bedarfsgerechtes Didaktik-Konzept.

Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt wird umgesetzt von einem Konsortium aus Wissenschaft und Unternehmen. Beteiligt sind das International Performance Research Insitute (IPRI), das FIR an der RWTH Aachen, die Databay AG, die leifos GmbH, die Volkswagen AG, die Mauser + Co. GmbH, die TRUMPF GmbH + Co. KG sowie die Universität Ulm.

Ziel von LidA ist es, Beschäftigte für die Herausforderungen des digitalen Wandels zu qualifizieren und sie mit den Kompetenzen auszustatten, die sie in einer digitalisierten Arbeitswelt benötigen. Dazu setzt LidA auf die Identifikation individueller Kompetenzbedarfe und die Entwicklung zugeschnittener Lernpfade. Die einzelnen Lehr- und Lermodule werden in ein bedarfsgerechtes, methodisches Konzept eingebettet und auf einer Lehr- und Lernplattform bereitgestellt.

„Das digitale Kompetenzmanagement im Unternehmen gewinnt immer mehr an Bedeutung. Die individuellen Lernpfade und -lösungen, die wir in LidA gemeinsam mit den Partnern entwickeln können, helfen, bereits heute die zukünftig benötigten Kompetenzen zu entwickeln. Daher freuen wir uns über die Anerkennung unserer Arbeit und ganz besonders über die vom ddn bescheinigte Vorbildfunktion für kleine und mittlere Unternehmen.“, sagt Roman Senderek, Leiter der Fachgruppe New Industrial Work am FIR, zur besonderen Anerkennung der im LidA-Projekt erzielten Ergebnisse.

Das Demographie Netzwerk e. V. (ddn) ist ein gemeinnütziges Netzwerk von Unternehmen und Institutionen, die den demographischen Wandel als Chance begreifen und aktiv gestalten wollen. Seit 2020 verleiht das ddn den Deutschen Demografie Preis an Unternehmen, Netzwerke und Vereine für innovative Ideen, zukunftsweisende Lösungen und nachahmenswerte Projekte.

Weitere Informationen:
Forschungsprojekt LidA
Deutscher Demografie Preis

Bildquelle / Lizenz:

Digitalisierung am PoS

Unser Leben hat sich geteilt: Vor der Corona-Pandemie und danach. Ob wir bereits im „danach“ angekommen sind, ist noch nicht absehbar, aber eines ist sicher – viele Dinge und Verhaltensweisen haben sich geändert. Was geht und was bleibt? Was hat uns nachhaltig beeinflusst? Aus Sicht des Handels und der Paymentunternehmen hat sich am Point-of-Sales insbesondere das Bezahlverhalten gewandelt.

Wer hätte das vorhersehen wollen – Hinweisschilder bei den großen Handelsunternehmen appellieren an die Kunden für eine bargeldlosen Zahlung. Hygiene, aber auch Schnelligkeit ohne Schlange stehen haben dem Bargeld ein wenig von seinem alten, übermächtigen Präsenz genommen. Speziell kontaktloses Zahlen hat an
Beliebtheit gewonnen, was auch Zahlen des CCV Netzbetriebs belegen: Exponentielle Wachstumsraten begleiten die Monate der Lockdowns, insbesondere für die Girocard kontaktlos. Auch die Erhöhung des Betrags zur kontaktlosen Zahlung ohne PIN-Eingabe auf 50 € durch die Deutsche Kreditwirtschaft hat ihr übriges für die gestiegene Akzeptanz getan.

Ein Trend, der bleiben wird – denn Hygiene, Schnelligkeit und Komfort werden auch in Post-Coronazeiten geschätzt werden. Frühere Hemmschwellen eingefleischter Bargeldzahler wurden überwunden, um nicht wieder aufgebaut zu werden. Dieses neue Bezahlverhalten gilt es nun auf Seiten von Paymentbranche und auch Handel aufzugreifen und zu pflegen, ist es doch der erste große Schritt für die Akzeptanz und Etablierung neuer, digitaler Lösungen am Point-of-Sales.


Unsere Autorin

Susanne Kohlhofer ist seit 2008 als Corporate Communication Lead beim Paymentdienstleister CCV fest in der Paymentbranche verankert und begleitet die neuesten Entwicklungen, Trend und Innovationen am bargeldlosen Point-of-Sales.


Warum ist Digitalisierung am Point-of-Sales so wichtig?

Wir leben in einer neuen Gesellschaft der Apps, die als kleine, schlanke Programme unser Leben begleiten, bereichern und auch erleichtern. Für Prozesse am Point-of-Sales waren ähnliche Set-ups auf den klassischen Paymentterminals bisher nicht abbildbar, denn Sicherheitsbestimmungen und Zertifizierungen ließen Installationen abseits reiner Bezahlfunktionen nicht zu.

Heute wandelt sich das Bild: Die neue Generation Bezahlterminals arbeitet mit einem Android-Betriebssystem, das bereits in sich Vorteile birgt wie z.B. ein hervorragendes Batteriemanagement – eine hoch effiziente Leistung, die sich aus den stetigen Optimierungen für den Smartphone Betrieb ergibt.


„Die heutige Entwicklung zeigt, dass Kartenzahlungen und im nächsten Schritt Mobile Payment über die digitalen Wallets auf Smartphones und Smart Watches sich als Standardbezahlmittel immer stärker in den Köpfen der Verbraucher als gut und vorteilhaft festsetzen.“


Apps verbinden und schaffen Mehrwerte – gerade am Point-of-Sales, der als Touchpoint in jeder Customer Journey vorkommt und nachhaltige Eindrücke schafft. Die Vorteile der Apps richten sich hier sowohl an Händler als auch an deren Kunden. Der Händler hat erstmalig die Chance, seine Kassenperipherie mit Apps schnell und on-demand zu optimieren und muss nicht zwingend in additive Hardware investieren. Trial-versions von z.B. Kassensystemen auf App-Basis helfen, das richtige Programm zu testen und damit vertraut zu werden. Neue Geschäftsmodelle oder – wie auch während der Corona-Pandemie – neue Anforderungen lassen sich durch Apps schnell aufgreifen, z.B. der Umstieg auf Lieferservice oder die Verknüpfung von stationärem Geschäft mit einem Onlinesortiment.

Die klassische Customer Journey hat sich gewandelt, ebenso wie unser Verständnis von Komfort. Der Supermarkt wird nicht mehr nur für den Wocheneinkauf angesteuert, sondern z.B. auch für die zwischenzeitliche Betankung des e- oder Hybridfahrzeugs. Die bargeldlose Bezahlung an der Ladesäule und an der Kasse im Markt soll in Art und Komfort identisch und optimalerweise miteinander verquickt sein: Eine Stunde Tanken beinhaltet einen Kaffee-to-Go gratis oder umgekehrt eine gratis Stromladung für die Dauer des Einkaufs. Diese moderne Art des Cross Selling muss durch moderne Bezahlsysteme unterstützt werden und im Hintergrund für den Händler bzw. Betreiber zu homogenen und schnell integrierbaren Systemen zusammengefasst werden – über Android-basierte Managementtools eine leichte Übung.

Im Self-Service Bereich erweisen sich Bezahlterminals mit Android-Technologie als besonderer Meilenstein. Der bisher statische Verkauf an Automaten (Vending, Parken, Public Transport oder Ticketing) gewinnt an Dynamik und damit eine höhere Kundenbindung. An hochmodernen Geräten wie dem CCV IM30 können Preise stundenaktuell konfiguriert werden und interaktive Service-Apps via Kamera aktiviert werden, um nur einige der Funktionen zu nennen.

Digitale Terminals sind im Kommen

Apps sind in unserem Leben bereits fest etabliert und deren flexible und on Demand Nutzung nicht nur beliebt, sondern auch bereits Standard. Die heutige Entwicklung zeigt, dass Kartenzahlungen und im nächsten Schritt Mobile Payment über die digitalen Wallets auf Smartphones und Smart Watches sich als Standardbezahlmittel immer stärker in den Köpfen der Verbraucher als gut und vorteilhaft festsetzen.

Wenden sich die mobilen Wallets an den Endverbraucher – also denjenigen, der die Zahlung tätigt – so kristallisiert sich am anderen Ende das Smartphone auch als Business-Gerät für den Händler heraus. Was liegt also näher, als das Smartphone selbst in ein Bezahlterminal zu verwandeln?

Auch dies ist schon heute möglich durch die Installation von sogenannten SoftPOS Apps, die mit allen Sicherheitsvorkehrungen das Smartphone zu vollwertigen Kartenlesern aufrüsten.

Diese digitalen Terminals sind die Basis für eine Zukunft, in der Androidsysteme über Displays Kartenakzeptanzen ermöglichen und über eine PIN-on-Glas Technologie auch die Eingabe von PIN-Nummern abbilden können. Die Deutsche Kreditwirtschaft, als Institution für sämtliche Sicherheitsfragen im Bereich Payment verantwortlich, hat für die „CCV PhonePOS“ als erstem digitalen Terminal die Zertifizierung für die girocard, dem wichtigsten deutschen bargeldlosen Bezahlmittel, anerkannt.

Heute sehen ca. 68 % der CIOs der großen Retailunternehmen (Quelle: EHI Retail Technology Research 2021) mittelfristig weiterhin klassische Terminals an den Kassenplätzen. Der Blick ist jedoch schon nach vorne in die Zukunft gerichtet. So sind Androidsysteme vorherrschend an vielen strategisch wichtigen Touchpoints der Customer Journey, man denke auch an die Infotainmentsysteme in Fahrzeugen, die sich mit den Android-Apps auf den Smartphones der Insassen verbinden.

Komfortables und modernes Bezahlen muss sich diesen Gegebenheiten anpassen, die Nutzung von Apps auf den heutigen Kartenterminals ist ein erster Schritt. Die Technologien von morgen wie das digitale Terminal CCV PhonePOS benötigen noch einen Schub im Sinne von Akzeptanz und Vertrauen. Die großen Finanzinstitute sind bereits am Zug, die Kartenakzeptanz per Smartphone unter eigener Marke in ihr Portfolio aufnehmen und unter ihrem Schirm einem breiten Markt zugänglich machen.

Auf Verbraucherseite verbinden sich nahtloses Bezahlen und Services am Point-of-Sales im Sinne eines umfassend komfortablen Einkaufserlebnisses, das nicht an der Kassenzone Halt macht.

https://www.ccv.eu/de/

Die eigene Stimme als Passwort

Morna Florack erklärt im Gastbeitrag, wie die eigene Stimme zum Passwort wird.

Das Leben spielt sich heute immer stärker im digitalen Raum ab – Einkäufe und Bankgeschäfte werden einfach online erledigt, Kommunikation läuft über Social-Media-Apps ab und selbst Arzttermine finden seit dem Ausbruch von COVID-19 vermehrt per Video-Konsultation statt. Ein ständiger Begleiter dabei: Passwörter, die zur Identifikation genutzt werden. Diese Methode der Authentifizierung ist jedoch nicht mehr zeitgemäß. Wieso die Erkennung biometrischer Merkmale wie der Stimme mithilfe von künstlicher Intelligenz wesentlich sicherer und benutzerfreundlicher ist und wie Privatpersonen und Unternehmen davon profitieren, erklärt Morna Florack, Enterprise Sales Manager DACH bei Nuance im Gastbeitrag.

PIN und Passwort sind für fast ein Drittel (32 Prozent) der deutschen Teilnehmenden einer aktuellen Studie von Nuance[1] die Authentifizierungsmethode, der sie am meisten vertrauen. Dass Nutzerdaten einschließlich der dazugehörigen Passwörter im Darknet verkauft werden, ist allerdings schon lange kein Geheimnis mehr. Wer sich davor schützen will, dass Kriminelle mit einem Schlag Zugang zu allen Konten bekommen, sollte für jeden Dienst ein individuelles Passwort verwenden. Dies beherzigen jedoch nur 28 Prozent der Befragten. 25 Prozent nutzen sogar immer dieselben ein bis drei Passwörter oder Variationen von diesen. Der Grund dafür ist häufig Bequemlichkeit – ähnliche Passwörter lassen sich leichter merken als viele unterschiedliche: Jede zehnte Person (10 Prozent) muss täglich oder wöchentlich Nutzernamen und Passwörter zurücksetzen lassen, weil sie nicht mehr präsent sind.

Aber nicht nur Privatpersonen, sondern auch Unternehmen müssen die Sicherheit ihrer Daten ernster nehmen und mehr dafür leisten. Ein Beispiel hierfür sind Contact Center. Gerade in Krisenzeiten stehen die Mitarbeitenden hier besonders unter Druck und müssen mit gestressten, wütenden oder verzweifelten Kundinnen und Kunden umgehen. Das führt schnell dazu, dass die Überprüfung der Identität weniger streng durchgeführt wird als in normalen Zeiten, zumal die richtigen Zugangsdaten für Betrügerinnen und Betrüger oft nur noch wenige Klicks entfernt sind. Damit können persönlich identifizierbare Informationen (PII) leicht in die falschen Hände geraten.

Einzigartige Merkmale als Sicherheitsfaktor

Wesentlich sicherer ist der Abgleich biometrischer Charakteristika. Schon jetzt bieten beispielsweise viele Smartphones die Möglichkeit, sie per Fingerabdruck oder Gesichtserkennung zu entsperren. Dadurch soll sichergestellt werden, dass Unberechtigte keinen Zugriff auf die Inhalte erhalten. Der größte Vorteil von Biometrie ist die Einzigartigkeit der Merkmale – das gilt sowohl für den Fingerabdruck als auch für Gesicht, Iris oder Stimme. Auch unter den deutschen Verbraucherinnen und Verbrauchern steigt das Vertrauen in diese Möglichkeiten: Fast die Hälfte (45 Prozent) fühlt sich heute wohler dabei, den Zugriff auf Konten mithilfe biometrischer Eigenschaften zu authentifizieren, als noch vor der Pandemie. Ebenfalls 45 Prozent vertrauen biometrischer Identifikation durch Stimme, Gesicht, Fingerabdruck, Verhalten oder einer Kombination aus diesen Merkmalen, sogar am meisten.

Besonders die Identitätserkennung mithilfe von Sprache bietet ein hohes Maß an Sicherheit, während der Aufwand für die Anwendenden geringgehalten wird. So müssen Kundinnen und Kunden sich keine langen Kundennummern, komplizierten Passwortkombinationen oder Antworten auf Sicherheitsfragen merken. Stattdessen wird ihr individuelles Stimmprofil beispielsweise mithilfe einer Passphrase hinterlegt und bei der Anmeldung oder einem Gespräch von KI-Algorithmen analysiert und wiedererkannt. Das spart Zeit und verhindert, dass durch vergessene Passwörter schon vor der eigentlichen Interaktion bei Kundinnen oder Kunden Frustration entsteht.

Auch für Mitarbeitende der bereits genannten Contact Center vereinfacht Sprachbiometrie die Arbeit, da sie unmittelbar mit der Beratung loslegen können. Statt zunächst wissensbasierte Authentifizierungsfragen zu stellen, wird die Stimme von Anrufenden automatisch zu Beginn des Gesprächs mit vorhandenen Stimmabdrücken abgeglichen und die Agentin oder der Agent erhält das Ergebnis innerhalb von Sekunden. Nuance Gatekeeper kann beispielsweise die Identität schneller validieren als das menschliche Ohr. Gleichzeitig können mit dieser Methode der Identitätsprüfung Kriminelle proaktiv identifiziert werden. Wird eine Anruferin oder ein Anrufer als Betrügerin oder Betrüger erkannt, kann der jeweilige Stimmabdruck in einer Bibliothek hinterlegt werden. Bei weiteren Versuchen wird die Stimme beim biometrischen Abgleich erkannt und der Anruf für weitergehende Sicherheitsüberprüfungen registriert.

Mehr als die Hälfte der weltweit größten Finanzinstitute und Telekommunikationsanbieter setzen bereits Sprachbiometrie-Lösungen von Nuance ein, um ihren Kundenservice zu verbessern, die Sicherheit zu erhöhen und die Prozesse für die Mitarbeitenden zu optimieren. Dazu gehört auch die Deutsche Telekom, die ihren Kunden bereits seit dem Jahr 2018 die Möglichkeit gibt, ihre SprachID statt einer zehn- oder zwölfstelligen Kundennummer für die Identifikation zu verwenden. Über 700.000 Telekom-Kunden haben schon ihre SprachID registriert, die bislang in über 1,7 Millionen Interaktionen als Passwort zum Einsatz kamen.

Kriminelle an der Stimme erkennen

Darüber hinaus bietet Sprachbiometrie noch weitere Möglichkeiten, um die Sicherheit zu erhöhen und das Kundenerlebnis zu verbessern. Neben der initialen Bestätigung der Identität kann entsprechende Software im Laufe des Gesprächs auch die Glaubwürdigkeit der Anrufenden analysieren. Dadurch lässt sich feststellen, ob Kundinnen oder Kunden möglicherweise selbst einen Betrug begehen und beispielsweise widerrechtliche Ansprüche stellen wollen. Gerade in der aktuellen Situation, in der Prozesse vereinfacht wurden, zum Beispiel um Hilfs- und Fördermittel schneller auszugeben, können so mögliche Betrugsfälle schon im Vorhinein erkannt und die Ausschüttung verhindert werden.

Dadurch können bestimmte Kundengruppen wie Senioren priorisiert werden, um Wartezeiten zu verkürzen, relevante Angebote vorzubereiten oder um sie an Schutzmaßnahmen zu erinnern. Denn leider werden sie besonders häufig ins Visier von Bertrügerinnen und Betrügern genommen. Des Weiteren ermöglicht cloudbasierte Sprachbiometrie, dass Kundinnen und Kunden sich von überall, zu jeder Zeit und von jedem Gerät aus mit ihrer Stimme authentifizieren können, während Unternehmen die Lösung ganz nach aktuellem Bedarf skalieren können und automatisch von fortlaufenden Aktualisierungen und Verbesserungen profitieren.

Unternehmen müssen die Sicherheitsproblematik angehen

Die Authentifizierung per Passwort oder PIN ist noch immer die Methode, der in Deutschland das größte Vertrauen entgegengebracht wird. Dabei hat sie einen großen Makel: ihr Sicherheitsniveau ist stark davon abhängig, wie sicherheitsbewusst jeder individuelle Mensch mit ihr umgeht. Wer die PIN für Online-Banking aufschreibt oder für jeden digitalen Dienst dasselbe Passwort nutzt, macht es Kriminellen sehr leicht, an Daten und Geld zu gelangen. Aber das Umdenken muss vor allem in den Unternehmen stattfinden, die nach wie vor auf diese veraltete Art der Identitätsprüfung setzen. Technologien zur Validierung biometrischer Merkmale sind mittlerweile so weit ausgereift, dass sie eine wesentlich schnellere, sicherere und anwenderfreundlichere Alternative sind. Insbesondere die Sprachbiometrie bietet nicht nur die Möglichkeit, Passwörter dauerhaft durch einen Stimmabdruck zu ersetzen, sondern kann auch für eine bessere Erfahrung für Kundinnen und Kunden sorgen und bei der frühzeitigen Aufdeckung von Betrug unterstützen. Aktuell wächst das Bewusstsein für die Gefahren rund um persönliche Daten und Informationen. Dementsprechend wird deren Sicherheit ein immer wichtigeres Kriterium. Führungskräfte müssen sich deshalb mit dieser Thematik befassen und entsprechende Lösungen zeitnah implementieren.

[1] Die Online-Umfrage „Digital Consumer Experience“ wurde von Nuance in Auftrag gegeben und von OnePoll zwischen dem 21. April und 7. Mai 2021 durchgeführt. Befragt wurden 10.000 Verbraucher in Deutschland, Australien, Belgien, Frankreich, Großbritannien, Italien, Mexiko, den Niederlanden, Schweden, Spanien und den USA.

ICF & ClimatePartner Webinar: “Paths to carbon neutral finance”

In diesem Webinar werden wir verschiedene Wege und nachhaltige Strategien zur klimaneutralen Finanzierung untersuchen und diskutieren.

ICF Webinar: “ESG in Bonds – Opportunities and challenges”

ESG-fokussierte Anleihen werden immer interessanter. Experten erwarten, dass sich dieses Instrument mit großer Dynamik entwickeln wird. Dies bietet Anleiheemittenten interessante Möglichkeiten, ihre Investorenbasis zu verbreitern.

„Technologen sind gefragt“

Wir haben mit Fabian Gampfer, Sales Engineering Manager, AppDynamics rückblickend über Enterprise Architecture und die Relevanz von Technologen in den Unternehmen gesprochen. Deren Relevanz bei Geschäftsentscheidungen ist aufgrund von Corona nochmals deutlich angestiegen. Um dafür zu sensibilisieren und Unternehmen auf der „Reise der digitalen Transformation“ entsprechend Zahlen an die Hand geben zu können, hat AppDynamics die Studie „Agents of Transformation“ durchgeführt. Zu zentralen Erkenntnissen nahm er im Interview Stellung.

Die Studie bestätigt, dass IT-Experten einen Einblick in die IT-Landschaft benötigen. Hierfür wären Enterprise Architecture-Lösungen ideal. Wie können Sie hier unterstützen?
Die COVID-19-Pandemie hat die digitale Transformation in Unternehmen im letzten Jahr massiv beschleunigt und vielerorts zu wahren Flickenteppichen aus Legacy- und Cloud-Technologien geführt und damit die Komplexität der IT-Infrastruktur massiv erhöht. Um diese zunehmende Komplexität in den Griff zu bekommen, benötigen Technologen vollständige Transparenz in Echtzeit über den gesamten IT-Bestand. Das heißt von traditionellen IT-Systemen bis hin zu neuen, hybriden Cloud-Umgebungen. Deshalb sehen IT-Experten die Notwendigkeit einer einzigen, einheitlichen Observability-Plattform, die den gesamten Technologie-Stack überwacht, statt mehrerer voneinander unabhängiger Monitoring-Lösungen. Full-Stack Observability ermöglicht Technologen diesen vollständigen Einblick in ihre IT-Landschaft und die Leistung ihrer Anwendungen. Aber Full-Stack Observability alleine reicht nicht aus. IT-Teams müssen in der Lage sein, die Performance mit konkreten Geschäftsergebnissen, wie der Kundenerfahrung oder dem Umsatz, zu verknüpfen. IT-Fachleute können dann auf Grundlage dessen, was für ihr jeweiliges Unternehmen wichtig ist, Entscheidungen und Maßnahmen priorisieren. Auch 90 Prozent der im Agents of Transformation Report befragten Technologen in Deutschland sehen die Notwendigkeit einer solchen Verknüpfung für dieses Jahr als wichtig an.

Fabian Gampfer: „Unternehmen müssen vor allem in der Lage sein, ihre Technologieleistung mit quantifizierbaren Geschäftsergebnissen zu verknüpfen.“

Bedingt durch Corona werden wir in den kommenden Monaten sehr viele Mergers & Acquisitions sehen. IT-Experte werden beim Konsolidierungsprozess mit im Boot sitzen. Hinzu kommt eine prognostizierte Beschleunigung bei Digitalisierungsprozessen. Wie stufen Sie die Rolle von Technologen in den kommenden Monaten ein?
Die Digitalisierung wird in Unternehmen in diesem Jahr weiterhin eine hohe Priorität haben und die IT-Experten noch mehr fordern. So erwarten beispielsweise 90 Prozent der Technologen in Deutschland, dass in diesem Jahr die größte Herausforderung sein wird, die digitale Transformation mit hoher Geschwindigkeit weiter voranzutreiben. Hinzu kommt die Komplexität, die durch die beschleunigte Innovationskraft der letzten zwölf Monate entstanden ist. Deutsche Unternehmen haben im letzten Jahr digitale Transformationsprojekte dreimal so schnell umgesetzt als zu jedem anderen Zeitpunkt. Für eine Organisation, die einen Merger oder eine Akquisition durchläuft, ist die Problematik der Komplexität sogar noch größer! In solchen Situationen steigt damit auch die Notwendigkeit für IT-Teams, einen vollständigen Einblick in die IT-Landschaft zu erhalten und diese Erkenntnisse mit den Geschäftsergebnissen zu verknüpfen.

Konkret zu den Digitalisierungsprozessen im Jahr 2020: Was waren hier die wichtigsten Ergebnisse?
Eine Schwierigkeit im letzten Jahr war sicherlich, dass viele Digitalisierungsprozesse plötzlich sehr schnell gehen mussten. Als die Mitarbeiter zum Arbeiten alle nach Hause geschickt wurden, haben sich viele Unternehmen zum ersten Mal damit beschäftigt, wie sie dies technologisch überhaupt ermöglichen können und die Technologen rückten an die vorderste Front. 68 Prozent von ihnen sagen in Deutschland, dass durch die Reaktion ihres Unternehmens auf die Pandemie die Komplexität der IT-Umgebung so stark gestiegen ist, wie sie es bisher nicht erlebt haben. Dazu haben verschiedene Faktoren beigetragen wie, laut 88 Prozent der Befragten, zu viele neue Technologien sowie ein Flickenteppich bestehend aus Legacy- und Cloud-Technologien, aber auch neue Aufgaben, Prioritäten und Herausforderungen (74 Prozent), der schnelle und spontane Übergang zu Cloud Computing (74 Prozent) oder die zahlreichen, nicht miteinander verbundenen Monitoring-Lösungen (70 Prozent). Dementsprechend glaubt die Mehrheit, nämlich 88 Prozent, dass in diesem Jahr eine große Herausforderung darin liegen wird, die relevanten Informationen in der Datenflut zu identifizieren, um die Ursachen von Performance-Problemen zu identifizieren.

Wie können Unternehmen sich jetzt vorbereiten, um gestärkt aus der Coronakrise hervorzugehen und Digitalisierungsprojekte als „Reset“ zu verstehen um erfolgreich durchzustarten?
Vor allem müssen sie in der Lage sein, ihre Technologieleistung mit quantifizierbaren Geschäftsergebnissen zu verknüpfen. Wo dies nicht möglich ist, sind die Auswirkungen innerhalb von IT-Abteilungen und auf Unternehmen tiefgreifend. Dementsprechend haben wir im Agents of Transformation 2021 Report auch gesehen, dass Technologen sich ernsthafte Sorgen über die Folgen für ihre Organisationen machen. So befürchten fast 70 Prozent von ihnen negative Auswirkungen auf ihr Unternehmen in diesem Jahr, wenn diese Verknüpfung nicht möglich ist. Die IT-Fachleute sind sich der Notwendigkeit bewusst, Erkenntnisse über die IT-Performance mit Echtzeit-Geschäftsdaten zu verbinden. Jedoch verfügen die meisten derzeit nicht über die Ressourcen und die Unterstützung, die sie dafür benötigen. Fast zwei Drittel der Technologen weltweit haben berichtet, dass ihnen die richtige Strategie und die Werkzeuge fehlen, um effektiv zu messen, wie sich Technologieentscheidungen auf die Geschäftsergebnisse auswirken. Unternehmen, die gestärkt und wettbewerbsfähig aus der Pandemie hervorgehen wollen, müssen diesen Punkt jetzt dringend angehen.

Weitere Informationen unter:
https://www.appdynamics.com/

Wie Europa künftig zahlen soll


EU-Kommission setzt auf überweisungsbasiertes Bezahlen

Visa und Mastercard, Apple Pay und Google Pay, PayPal: Viele der modernen Bezahlmethoden, die den Geldtransfer im E-Commerce und anderen internetbasierten Produkt- und Dienstleistungsangeboten, aber zunehmend auch im stationären Handel ermöglichen, werden von amerikanischen Konzernen zur Verfügung gestellt. Als Hüterin europäischer Interessen hat sich die EU-Kommission zum Ziel gesetzt, eine Alternative zu etablieren. Die Basis dafür: SCT Inst, die SEPA-Überweisung in Echtzeit.

„Der Zahlungsverkehr bildet das Lebenselixier der europäischen Wirtschaft“, so ordnet die EU-Kommission in ihrer „EU-Strategie für den Massenzahlungsverkehr“ den Fluss der Geldströme ein. Wie dieser Fluss Wasser auf die Mühlen von Europas Finanzdienstleistern bringen soll, davon handelt das 33-seitige Strategiepapier. Instant Payments, also die europaweit einheitliche Echtzeitüberweisung, soll die universelle Grundlage der Zahlungsströme sein, doch für regionale Zahlungsdienste stehen die Schleusen weiterhin offen. Zugleich sollen Bürger auch künftig mit Bargeld flüssig sein, wenn sie das bevorzugen.

Werden Instant Payments schon Ende 2021 für Banken zur Pflicht?

Karten und Konten werden auch in Zukunft die zwei wesentlichen Elemente im Zahlungsverkehr bleiben, auch wenn dieser zunehmend digitalisiert wird. Immer wieder weist die Kommission auf die Beschleunigung des innereuropäischen Geldtransfers durch Instant Payment (SCT Inst) hin, doch mit der Umsetzung zeigt sich das Gremium nicht zufrieden. Kurzfristig soll die Verbreitung des Verfahrens überprüft werden.

Bei weitem nicht alle Banken bieten diesen Service diskriminierungsfrei an: Oft können Zahlungen nur empfangen werden, aber nicht versandt. Außerdem machen nicht wenige Institute SCT Inst unattraktiv, indem sie es stark bepreisen, obwohl es bereits in der Richtlinie zur Einführung hieß, es sollen keine Premium-Zuschläge erhoben werden. Wenn die aktuell laufende Überprüfung der Verbreitung von Instant Payments zu dem Ergebnis kommt, dass eine allgemeine Teilnahme der Banken an SCT Inst noch nicht gewährleistet ist, stellt die Kommission bereits für Ende 2021 eine Verpflichtung in Aussicht.


Autor: Henning Brandt



Henning Brandt ist als Head of Communication für die Öffentlichkeitsarbeit des Payment Service Providers Computop verantwortlich. Nach Stationen in Journalismus und Public Relations spricht und schreibt er seit 2015 über Themen wie E-Commerce, internationale Zahlungsabwicklung und die Zukunft des Payments.


TIPS für schnelles Clearing

Schnelles, europaweites und währungsübergreifendes Clearing ist die Voraussetzung für Instant Payments im SEPA-Raum. Mit den bisherigen Entwicklungen ist die Kommission nicht zufrieden, sie erwartet daher eine Teilnahme aller SCT Inst-Beteiligten, die über TARGET2 erreichbar sind, an TIPS, dem TARGET Instant Payment Settlement des Eurosystems. Mit eindeutigeren Vorgaben hätte sich die EZB, wie auch beim Open Banking, viel Zeit und Ärger erspart – jetzt setzt die EU-Kommission ein Ausrufezeichen. Zurzeit eignet sich der schnelle Banktransfer jedoch nur eingeschränkt als universales Zahlungsinstrument, denn die Zahlung geht nur in eine Richtung, vom Absender zum Empfänger, und ist das Geld erstmal weg, bekommt man es auch nicht wieder.

Darum möchte die Kommission einen Rückkanal schaffen, der für mehr Verbrauchervertrauen sorgen soll. Wenn ähnlich wie bei Lastschrift oder Kreditkarten ein Rückruf der Überweisung möglich ist, werden sich mehr Konsumenten für diesen Zahlungsweg entscheiden. Wer letztlich die Entscheidung über eine berechtigte Rückerstattung trifft, darüber schweigt sich das Papier jedoch aus. Hier kommen auf Banken möglicherweise neue Prozesse zu, entsprechend dem Chargeback-Verfahren bei Kreditkarten.

Interessant ist an dieser Stelle auch „Request to Pay“ (RTP). Was wie ein Zahlungsverfahren wirkt, ist im Grunde nur ein Nachrichtenkanal. Darüber kann ein Zahlungsempfänger einen Kunden auffordern, eine Zahlung auszuführen, entweder sofort oder zu einem späteren Zeitpunkt. RTP kann im Rahmen des eBilling ausgelöst werden und die elektronische Rechnung in die Nachricht integrieren. Wird der Prozess um Autorisierung und Reservierung ergänzt, wie es für 2022 erwartet wird, so kann die entsprechend „aufgeladene“ Überweisung mit vielen der cleveren Funktionen einer Kreditkarte durchaus mithalten.

Bezahlen muss mobil sein

Die mobile Zahlungsauslösung steht im Zentrum der Pläne für das künftige Bezahlen. Mit Verfahren wie dem SEPA-Proxy-Look-up wurde schon gut vorgearbeitet, doch zum Bedauern der Kommission wird es zu wenig genutzt. Immerhin wäre damit ein EU-weiter Geldtransfer über Smartphones möglich werden – datenschutzkonform ohne Austausch von Kontoinformationen wie der IBAN – wenn es denn zum Einsatz käme. Für die Auslösung mobiler Zahlungen im Handel möchte das EU-Gremium technologieoffen bleiben. Die Abschottung der NFC-Schnittstelle bei Apples iPhones passt da nicht ins Bild, was das Papier elegant umschreibt. NFC soll schließlich eine Schlüsseltechnologie sein, während Bluetooth, aber auch der QR-Code ihre Berechtigung haben. Hier würde die Kommission die Entwicklung eines einheitlichen europäischen Standards begrüßen. Allerdings zielen aktuelle Aktivitäten einiger europäischer Player eher auf die Übernahme des dort sehr erfolgreichen chinesischen Standards von Alipay.


„Die schönsten digitalen Zahlungsverfahren bleiben Zukunftsmusik, wenn der Verbraucher sie nicht antrifft.“


Die Annahmepflicht für digitale Zahlungen rückt näher

Die schönsten digitalen Zahlungsverfahren bleiben Zukunftsmusik, wenn der Verbraucher sie nicht antrifft. Hier adressiert die EU-Kommission die Banken, aber auch den Handel und vor allem die öffentlichen Institutionen, die häufig noch weiter hinterher hinken. Für 2022 kündigt das Strategiepapier darum eine Studie an, ob kleinere und mittlere Unternehmen, aber auch die Verwaltung in den Mitgliedsländern digitale Zahlungsmöglichkeiten ermöglichen. Sollte das Ergebnis unbefriedigend sein, sei eine Verpflichtung zur Annahme durchaus denkbar.

Verpflichtend angenommen werden soll auch weiterhin das Bargeld. Die EU-Kommission sieht zwar Digitales Zentralbankgeld (CBDC) auf dem Weg und wird daran auch mit der EZB zusammenarbeiten. Bargeld muss jedoch weiterhin allgemein zugänglich sein und akzeptiert werden. Rund 30 Millionen Erwachsene in der EU haben kein Bankkonto, sie sollen nicht stärker als ohnehin schon durch die Digitalisierung von Dienstleistungen ausgeschlossen werden.

Einer Ausbreitung von „No-Cash“-Einzelhändlern sollen die Mitgliedsstaaten entgegenwirken und für ein Mindestmaß an Geldausgabestellen sorgen. Mit diesen Vorschlägen zielt das Gremium um Ursula von der Leyen auf eine selbstbewusste europäische Zahlungslandschaft, die den Vorsprung amerikanischer Konzerne einholen und zugleich die chinesischen Anbieter in Schach halten soll, die mobiles Bezahlen bereits für Hunderte Millionen Menschen bereitstellen.

Doch im Onlineshop, an der Ladesäule oder im Bioladen brauchen die Konsumenten keine Konzepte, sondern Zahlungsmethoden. Darum richten sich die Augen derzeit auf die neue European Payment Initiative EPI, in der sich 22 Banken und Zahlungsdienstleister aus Europa zusammengefunden haben, um aus technischen Prozessen Zahlungsinstrumente zu machen. Das Gemeinschaftsunternehmen unter der Leitung von Martina Weimert tritt an, um eine gemeinsame Marke aufzusetzen und, ausgehend von Person-to-Person-Zahlungen, in den nächsten Jahren überweisungsbasierte Karten und Wallets zu entwickeln. So soll die europäische Zahlungsalternative schließlich auch ein Markengesicht bekommen.

EPI arbeitet an der europäischen Payment Brand

Hinter den Kulissen gehen die Verhandlungen aber schon weiter: Sollen erfolgreiche nationale Instrumente wie die Deutsche Girocard, iDEAL in den Niederlanden oder Cartes Bancaires aus Frankreich im EPI-Angebot aufgehen oder es ergänzen? Die EU-Kommission legt sich nicht fest: so sehr sie sich ein einheitliches europäisches Zahlungssystem wünscht, will sie lokalen Champions nicht unbedingt den Stöpsel ziehen. Europa bleibt vielfältig, auch im Zahlungsverkehr.

https://computop.com/de/

Aufmacherbild / Quelle / Lizenz
Photo by Tech Daily on Unsplash

Quo vadis Veränderungsbereitschaft?

Infolge der Pandemie haben nahezu alle Unternehmen mit großen Umstrukturierungen zu kämpfen, die Krise hat viele Defizite ins Licht gerückt. Mehr denn je kommt es jetzt auf die notwendige Veränderungsbereitschaft an. Aber nicht nur jetzt: Veränderung wird bleiben, wie Dr. Katja Nagel, Gründerin und Inhaberin der Unternehmensberatung cetacea, in ihrem Gastbeitrag beschreibt.

Dr. Katja Nagel fordert, dass Unternehmen Veränderungen „begrüßen müssen“.

Strategische Wendepunkte in Unternehmen bedeuten meist auch tiefgreifende Veränderungen innerhalb der Organisationsstruktur. Wenngleich die Pandemie aktuell oft als Hauptgrund für Umstrukturierungen genannt wird, ist sie nur ein Veränderungstreiber unter vielen: Digitalisierung, Automatisierung, Globalisierung, Nachhaltigkeit, Klimawandel – ganze Branchen werden durch externe Faktoren verändert. Hinzu kommt, dass sich die Nachfragemuster aller Stakeholder rasant entwickeln. Kunden haben neue Bedürfnisse, Investoren fordern Wachstum, der Wettbewerb erfordert eine schnelle Anpassung.

Diese zunehmende Marktbewegung und andauernde Unruhe dominieren das Alltagsgeschäft und verlangen eine hohe Flexibilität der Mitarbeitenden. Für den Unternehmenserfolg ist es essenziel, aktiv die Zukunft zu gestalten, statt nur dem Markt zu folgen. Doch wie ist es um diese Transformationskultur in Deutschland bestellt? Nun: Vielfach erleben wir leider zu lange Adaptionszeiten, fehlende Geschwindigkeit, Digitalisierungsrückstand, unverbesserlichen Perfektionismus (wo er nicht sein muss), Normierungswahn, Entscheidungsschwäche, Inflexibilität und Kreativlosigkeit. Ein Großteil der Transformationsvorhaben in Unternehmen schlägt fehl.


Robuste Transformationskultur als Ausgangspunkt

Wer sich im Wettbewerb behaupten möchte, der benötigt eine Kultur, die Veränderung nicht nur aushält, sondern ihren Antrieb daraus zieht. Es braucht eine robuste Transformationskultur, die an der Identität des Unternehmens anknüpft. Sechs kritische Erfolgsfaktoren seien deshalb exemplarisch erwähnt:

  1. Resilienz: Hohe mentale Widerstandsfähigkeit als Prävention vor Erschöpfung und Ermüdung.
  2. Trial & Error: Geschwindigkeit durch neugieriges und mutiges Ausprobieren und Lernen.
  3. Leadership 5.0: Führungskräfte als agile Mentoren, innovative Gestalter und digitale Wegbereiter.
  4. Selbstverantwortung: Eigenverantwortlichkeit als innere Haltung aller Mitarbeitenden.
  5. Co-Working: Bereichsübergreifende Zusammenarbeit in flexiblen und smarten Teams.
  6. Unternehmenswerte: Unternehmenswerte als gelebter Spirit und Leitplanken aller Aktivitäten.

Für den nachhaltigen Fortschritt im Veränderungsprozess ist der Mensch in den Mittelpunkt zu stellen, denn bei den Mitarbeitenden entstehen nicht nur die Ideen, sondern das Verständnis und der Wille. Die fortwährende Kommunikation der Erfolgsfaktoren ist daher unabdingbar. Jeder muss wissen, worum es gerade geht, was das Unternehmen vorhat und was er selbst anders machen sollte als vorher. Es braucht also ein gemeinsames Verständnis und eine Perspektivenangleichung. Da in einer Veränderungssituation alles sehr schnell gehen kann, müssen die Kommunikationsmaßnahmen kurzzeitig umgesetzt werden, pragmatisch sein und sofort greifen.

Ein Gefühl für die Veränderungssituation

Zu ausgefeilte Konzepte und Prozesse stehen einer schnellen Umsetzung der Transformation nur im Weg: Wir definieren monatelang einen Sollzustand, neue Regeln, neue Prozesse, anstatt den Schwerpunkt auf ein gemeinsames Verständnis des Zielzustandes zu lenken und so dafür zu sorgen, dass entsprechend konzipiert, entschieden, gehandelt wird, an allen Stellen im Unternehmen. Die Mitarbeitenden brauchen keine Meilensteine und Projektpläne, sie brauchen aber wohl ein Gefühl für die Veränderungssituation und ein Verständnis für die Konsequenzen daraus.

Führungskräfte müssen dieses Bild der Veränderung also skizzieren, kommunizieren und klarstellen, welcher Einsatz dafür von jedem gefordert ist. Die Befähigung der Mitarbeitenden ist wichtig, damit sie für Unsicherheiten und kritische Situationen gewappnet sind. Sinnvoll ist die Bildung eines Netzwerks, dessen Mitglieder aktiv in die Veränderung einbezogen werden. Das Netzwerk dient als Ideengeber und Treiber des kulturellen Wandels, die Mitglieder als Ansprechpartner und Vorbilder. Sie leben die Transformationsbereitschaft vor und bewahren im besten Fall die “kindliche” Neugier vor dem Unbekannten. So wird die größte globale Krise unserer Zeit, Corona, zu einer lehrhaften Erfahrung und einer Vorbereitung auf die nächsten Krisen – und Chancen. Denn die nächste Veränderung wartet schon. Ganz bestimmt.

Weitere Informationen unter:
https://www.cetacea-gmbh.de/

Zehn Jahre Cloud Computing im Rückblick

Von Matthias Pfützner*

Matthias Pfützner lässt die Geschichte des Cloud Computing kurz Revue passieren und wirft einen Blick in die Zukunft.

Seit mehr als acht Jahren bin ich inzwischen bei Red Hat, doch auch schon zuvor, bei Sun Microsystems, habe ich mich lange und intensiv mit der Cloud beschäftigt. Ein guter Zeitpunkt, um sich die Entwicklung des Cloud Computings in der letzten Dekade etwas näher anzuschauen. Was die Cloud ist, muss man heute wohl nicht mehr groß erklären, also fangen wir damit an, wie ich zur Cloud gekommen und Cloud Solution Architect geworden bin. Ich hatte nie viel fürs Programmieren und die Entwicklung von Anwendungen übrig, obwohl es vielleicht sogar Code von mir gibt, von dem noch Teile beim Münchner Flughafen laufen. Ich war und bin eher ein Administrator, der sich um große Infrastrukturen kümmert. Deshalb war für mich an der Cloud immer interessanter, wie man sie aufbaut und betreibt, und weniger wie man sie nutzt. Für mich hat sie sich ganz natürlich aus Hosting und Virtualisierung, Skalierbarkeit und automatischer Bereitstellung von Ressourcen entwickelt – dennoch war es sehr interessant zu beobachten, wie die großen Clouds entstanden sind.

Die Anfänge der Hyperscaler

Bei Sun und während der beiden Jahre, die ich dort noch unter dem Oracle-Dach verbrachte, beschäftigte ich mich vor allem mit Rechenzentren – ich war lange ein sogenannter Data Center Ambassador, von denen es bei Sun nur 70 weltweit gab. In dieser Rolle waren meine wichtigsten Themen SunCluster und „N1“, also alles, was man braucht, um Infrastruktur aufzubauen, zu verwalten und zu betreiben, sprich: zu automatisieren. N1 bedeutete: „Verwalte N Systeme, als wären sie ein einziges.“ Man könnte sagen, N1 war Suns Idee vom Cloud Computing, doch Oracle entschied sich, diesen Ansatz nicht weiterzuverfolgen.

Bereits zuvor war mit AWS der erste große Cloud-Provider gestartet. Amazon fand damals, es sei eine gute Idee, die Virtualisierung, die VMware für einzelne Systeme on-premises erledigte, auf ein neues Level zu heben – das Ergebnis war Infrastructure as a Services (IaaS), worauf im Laufe der Zeit weitere Services aufbauten. Google dagegen nahm einen anderen Markt ins Visier und schuf eine Platform as a Service (PaaS), auf der man verschiedene Komponenten anbot, aus denen Entwickler komplexere Service bauen konnten.

Meiner Wahrnehmung nach war Amazon mit seinem Ansatz deutlich erfolgreicher, weil es einen größeren Anteil der Anwendungsfälle dieser Tage abdeckte. Administratoren wussten, wie man ein Betriebssystem installiert, wie man es pflegt und wie man Software darauf installiert. Google fand hingegen nicht so viele Entwickler und bot daher schließlich auch IaaS an. Amazon wiederum ergänzte sein Angebot um PaaS-Komponenten, sodass die beiden Clouds mittlerweile ähnliche Funktionen bieten.

Microsoft kam mit seiner Azure Cloud erst spät ins Spiel, aber das ist typisch Microsoft – Stichwort Internet Explorer. Das Unternehmen lässt andere gerne vorangehen, schaut sich alles an und steigt ein, wenn der Weg geebnet ist, sodass man Fehler und Fallstricke vermeiden kann. Fast über Nacht baute Microsoft ein IaaS- und PaaS-Angebot auf. Die bereits vorhandenen Komponenten wie Hyper-V (als IaaS) und .NET (als PaaS) in einem Cloud-Service bereitzustellen, war ein riesiger Erfolg, was sich auch daran zeigt, dass Azure heute die Nummer zwei nach Amazon ist.

 

Die Cloud im eigenen Rechenzentrum

Als ich dann von Sun zu Red Hat wechselte, war ich auf der Bühne angekommen, auf der ich wirklich spielen wollte. Aber was hatte Open Source mit Cloud Computing zu tun und warum sollte sich ein Anbieter von Open-Source-Enterprise-Software für die Cloud interessieren? Das lag an der Private Cloud. Die entstand aus der Idee, dass Dinge, die in der Public Cloud verfügbar waren, auch im eigenen Rechenzentrum verfügbar sein sollten, und dass aus Gründen des Datenschutzes nicht alles in die Public Cloud gehört. Zudem wurde den Unternehmen langsam bewusst, dass durch die Cloud ihre Kontrolle über die interne IT schwindet und Schatten-IT entsteht – weil die Menschen sich an „as a Service“ gewöhnt hatten und neue Lösungen schnell einführen wollten. Interne Service-Provider mussten daher „cloud-ready“ werden und cloudähnliche Services anbieten, und dafür brauchten sie Lösungen für den Aufbau interner Clouds.

In guter Open-Source-Tradition taten sich einige Unternehmen zusammen und begannen mit der Entwicklung von OpenStack. Heute ist OpenStack eines der größten Open-Source-Projekte und kommt als De-facto-Standard in unzähligen Rechenzentren zum Einsatz. Allein die Tatsache, dass Microsoft seine On-Premises-Version von Azure „AzureStack“ nennt, unterstreicht die Bedeutung von OpenStack. Allerdings war OpenStack nur der IaaS-Part der eigenen Cloud, es fehlte noch eine PaaS-Lösung. Die sollte eigentlich Magnum sein, ein Projekt innerhalb von OpenStack, das allerdings nie richtig in Fahrt kam. Einer der Gründe dafür war Docker. Docker machte es möglich, Anwendungsartefakte in Container zu verpacken und einfach bereitzustellen, zu bewegen und zu verwalten. Mit der Zeit etablierte sich Kubernetes als Orchestrierungsplattform für Container – die darauf basierende Lösung bei Red Hat ist OpenShift.

Damit standen die beiden Basistechnologien für Private Clouds bereit, und Unternehmen brauchten nur noch das Wissen, wie man damit cloudfähige Software entwickelt. Bei Red Hat gibt es dafür die Red Hat Innovation Labs, die Unternehmen helfen, cloud-ready zu werden.

Das nächste Jahrzehnt

In den letzten zehn Jahren habe ich als Cloud Solution Architect vielen IT-Abteilungen dabei geholfen, die Vorteile von OpenStack und OpenShift zu verstehen und die Tools so einzusetzen, dass sie erfolgreiche Cloud-Provider für interne Kunden werden. Inzwischen sind weitere Komponenten wie Red Hat Ansible Automation Platform hinzugekommen, die es erlaubt, Software-defined Datacenter aufzubauen. Wir haben sogar Tools geschaffen, um mehrere Clouds wie eine einzige Cloud zu verwalten – die Vision von Suns N1 ist letztlich also Realität geworden.

Nun bin ich neugierig, was die nächsten zehn Jahre Cloud bringen. Nach dem Aufstieg der Private Cloud in der letzten Dekade, der zum Aufbau von Microservice-Architekturen und einer agileren Software-Entwicklung führte, steht ein radikaler Umbau monolithischer Legacy-Anwendungen hin zu Cloud-nativen Applikationen an. Darüber hinaus werden Cloud und on-premises weiter verschmelzen – die Bezeichnung „Hybrid Cloud“ beschreibt das nur teilweise. Angefangen mit der Anbindung von Fertigungsstraßen an Private oder Public Clouds und Fahrzeugen oder anderen IoT-Systemen, die Informationen in der Cloud nutzen oder in die Cloud hochladen, wird das Ubiquitous Computing – die allgegenwärtige Verarbeitung von Daten – mehr und mehr Normalität. Nach fast 20 Jahren mit der Cloud wird es Zeit, Cloud-Technologien auf breiter Basis zu nutzen.

Wie das funktioniert hat, werde ich in einigen Jahren in einem weiteren Beitrag beleuchten – ich trage es mir in den Kalender ein.

* Matthias Pfützner ist Senior Cloud Solution Architect bei Red Hat

Weitere Informationen unter:
www.redhat.com

Server (Symbolbild) Quelle: Image by Edgar Oliver from Pixabay

Drei große Trends in der B2B-Social-Media-Kommunikation

von Jacqueline Althaller

Social Media sind in der B2B-Kommunikation angekommen.

Über 95 Prozent der B2B-Unternehmen nutzen aktuell hier die Chance, ihre Inhalte einer breiten Zielgruppe zu präsentieren, ohne dabei den Weg der traditionellen Pressearbeit gehen zu müssen, die den journalistischen und redaktionellen Regeln und Richtlinien folgt. Das enorme Potenzial, das soziale Medien allein durch die direkte, filterlose Ansprache der Zielgruppen mitbringen, hat B2B erkannt.

Bestätigt wird dies durch die Studie „Social Media in der B2B-Kommunikation – wie verändert sich die Nutzung der Kanäle?“, die seit 2010 jährlich vom „Erster Arbeitskreis Social Media in der B2B-Kommunikation“ in Zusammenarbeit mit ALTHALLER communication durchgeführt wird. Die Ergebnisse zeigen, dass B2B-Unternehmen Budgets und Ressourcen für die Social-Media-Kommunikation erhöhen wollen. Genutzt werden sollen sie, um das Potenzial von Social Media voll auszuschöpfen und die drei großen Trends 2021 – Social Media als Medium zur Employee Advocacy, zum Recruiting über TikTok und Instagram sowie schließlich Social Media als Chefsache, nicht zu verpassen…

Die großen Trends

Employee Advocacy

Die Relevanz von Social Media für die B2B-Kommunikation ist unbestritten. Fakt ist aber auch, dass es dadurch mittlerweile unglaublich viele Social-Media-Accounts gibt, die das Social Web täglich mit Inhalten regelrecht überfluten. Es wird also auch immer schwerer für Unternehmen, mit ihren organischen Inhalten die Aufmerksamkeit zu erreichen, die sie sich wünschen.  

Interessant ist vor allem die Beobachtung, dass Unternehmensaccounts im Allgemeinen weit weniger Reichweite und Engagement erreichen, als wenn dieselben Inhalte, über persönliche Accounts von Mitarbeitern geteilt werden.

Nur logisch, dass sich Unternehmen als Priorität Nummer 1 für das Jahr 2021 vorgenommen haben, ihre Mitarbeitenden zu Unternehmensbotschaftern (Schlagwort Employee Advocacy) auf Social Media aufzubauen. Sie platzieren ihre Themen damit geschickt über die Netzwerke ihrer Mitarbeiter, in denen sie gern aufgegriffen und diskutiert werden. Die Mitarbeiter selbst positionieren sich darüber als Experten für ihr jeweiliges Fachgebiet in Unternehmen; was zur Mitarbeiterbindung beiträgt. Wenn Stakeholder auf Social Media sehen, wie viele Expertenthemen ein Unternehmen über seine Mitarbeiter besetzen kann, zahlt das wiederum auf die Imagebildung ein.

Ein weiterer Vorteil: Das Unternehmen wird zum Mitmach-Unternehmen – und das nicht nur beim Thema „Employee Advocacy“, sondern Schritt für Schritt auch beim Social-Media-Alltag seines Kommunikations-Teams. Wenn diese Teams erst einmal sehen, wie gut Themen extern wahrgenommen werden, fangen die Mitarbeiter sicher auch an, ihre Themen im Redaktionsplan des Unternehmensaccounts platzieren zu wollen, um eine noch größere Zielgruppe erreichen zu können. Und im Handumdrehen füllt sich der Redaktionsplan so von ganz allein.

Allerdings gibt es durchaus auch Gründe, warum die Employee Advocacy bislang eher gemieden wurde: Hauptsächlich handelt es sich dabei um Compliance-Risiken, denen sich Unternehmen nicht stellen wollten. Wenn alle Mitarbeiter öffentlich so posten können, wie sie wollen, müssen sie im Umgang mit sensiblen Inhalten geschult werden; insbesondere mit Blick auf die Compliance-Richtlinien und mögliche Verstöße. Es gilt also, den Mitarbeitern immer wieder Orientierung zu geben, welche Inhalte sie verbreiten dürfen und welche nicht!

Social Media als Recruiting-Tool

Tale as old as time – Social Media wird zum Recruiting verwendet. Klingt erst einmal nach altem Hut. Spätestens seit dem Launch von Xing ist das bereits Gang und Gäbe.

In Sachen Recruiting – oder charmanter und vor allem strategischer ausgedrückt, in Sachen Employer Branding – hat sich seitdem aber einiges getan. Xing wird nach wie vor zum Recruiting genutzt; der deutschen Business-Plattform ist aber schon lang der Rang abgelaufen worden – und zwar von LinkedIn, Instagram und TikTok. LinkedIn ist heute der Klassiker zum Recruiting – daneben gibt es noch Job-Portale wie Stepstone oder Indeed; sie alle werden aber klassisch genutzt, um aktuelle Stellenausschreibungen zu teilen und auf Jobangebote aufmerksam zu machen.

Neu ist aber, dass B2B-Unternehmen Instagram und TikTok zum Employer Branding für sich entdeckt haben. Anders als dort klassisch Stellenanzeigen zu posten, werden die Plattformen genutzt, um das eigene Unternehmen als potentiellen Arbeitgeber zu positionieren. Das passiert, indem per Bild oder kurzem Video z.B. Mitarbeiter und Unternehmensbereiche vorgestellt, Teamevents gezeigt oder andere Einblicke ins Unternehmen gegeben werden, die dieses authentisch darstellen.

Auch Mitarbeiter- und Unternehmensthemen können hier – im Sinne von Employee Advocacy – platziert werden. Die verschiedenen Themen innerhalb Ihres Unternehmens sprechen ganz unterschiedliche Interessensgruppen an. Wenn man seine Mitarbeiter dabei so sein lässt wie sie sind, spricht das auf ihre unterschiedliche Art auch wieder ganz verschiedene potenzielle neue Mitarbeiter an.

Wichtig neben der Authentizität der Mitarbeiter ist auch, die richtigen Formate für diese Plattformen zu wählen. Auf TikTok ein Video zu posten, bei dem lediglich die schriftliche Stellenanzeige herangezoomt wird, ist daher wohl nicht das richtige – stattdessen ein Video zu veröffentlichen, in dem sich Auszubildende auf den bevorstehenden Arbeitstag vorbereiten, ist schon besser.

Die Vorteile liegen auf der Hand:

Employer Branding über Instagram und TikTok ist eine ganz andere und deutlich charmantere Art des Recruitings, da nicht nur platt Stellenanzeigen veröffentlicht werden, sondern persönliche Einblicke in das Unternehmen und die jeweiligen Aufgabengebiete gegeben werden. Ein Unternehmen stellt sich nach dem Pull-Prinzip als Arbeitgebermarke vor und zwingt niemandem einen Stellen-Post auf. Wer sich dann für die jeweilige Stelle interessiert, kann sich die entsprechende Ausschreibung dazu nach dem Video immer noch ansehen.

Außerdem ist die Zielgruppe auf Instagram und TikTok in weiten Teilen eine andere als auf LinkedIn, Stepstone und Co. – jedoch nicht so, wie man es sich im ersten Moment denken würde.

Es stimmt, dass Instagram und TikTok eine eher jüngere Zielgruppe ansprechen. Die Generation 50+ wird man hier weniger häufig antreffen. Trotzdem ist die Annahme weit gefehlt, dass nur Teenager sich hier tummeln. Heute sind z.B. über 65 Prozent der Nutzer von TikTok bereits über 25 Jahre alt. Also auch 20- bis 30-Jährige – eine durchaus sehr attraktive Zielgruppe im Recruiting – werden hier erreicht; und das sogar u.U. besser als auf LinkedIn.

Im Umgang mit diesen „neuen“ Plattformen ist B2B jedoch erfahrungsgemäß eher zurückhaltend und wenig experimentierfreudig. Die Ausreden, um sich gar nicht erst damit beschäftigen zu müssen, sind vielfältig: zu wenig Ressourcen, zu wenig Know-How, keine Mitarbeiter, die sich gerne daran beteiligen würden, etc. Den enormen Nutzen, der sich daraus ergeben könnte, vergessen viele B2B-Unternehmen. Jedoch, eine Investition in Instagram und TikTok lohnt – die Unternehmensbeispiele von der Krones AG und der deutschen Telekom zeigen, wie es klappt.


Zuständigkeiten für die Social-Media-Kommunikation in B2B-Unternehmen. Quelle: B2B-Social-Media-Studie 2020.

Social Media wird zur Chefsache

Wie die Ergebnisse der B2B-Social-Media-Studie 2021 zeigen, wird die Verantwortung für Social Media immer mehr im Management verankert; die Geschäftsführung übernimmt die Kommunikation, zumindest in Teilen. Denn im Sinne der Employee Advocacy müssen auch und besonders Chefs sich positionieren. Niemand vertritt das Unternehmen nach außen so gut wie sie und nirgends kann man so direkt mit allen Stakeholdern gleichzeitig in Kontakt treten wie auf Social Media.

Nur logisch, dass sich besonders CEOs von Unternehmen zunehmend hier positionieren – und gerade in Krisenzeiten Vertrauen schaffen. Punit Renjen (Deloitte), Michael Reeg (Hoesch & Partner) und Ryan Roslansky (LinkedIn) machen es vor.

Dabei sollte es aber immer bewusst sein, dass die Kommunikation gut durchdacht sein muss. Denn alles, was ein Geschäftsführer auf Social Media kommuniziert, wird gerne auf die Goldwaage gelegt und vorschnell interpretiert. Deshalb sollten such Unternehmenskapitäne bei Ihren Posts auf das Vier-Augen-Prinzip setzen und diese inhaltlich potenziell kritischen Aussagen überprüfen lassen. Beispiel: Wenn ein Unternehmen im Mineral-Ölbereich tätig ist, sollte Ihr CEO nicht unbedingt posten, wie wichtig Klimaschutz ist.

Kurzvita:

Jacqueline Althaller gründet 1992 ALTHALLER communication und betreut seither vor allem B2B-Kunden aus den Bereichen „Handel und Payment“ und „HR“. Im Sommer 2010 gründete sie den „Erster Arbeitskreis Social Media in der B2B-Kommunikation“, aus dem heraus sie zur Herausgeberin der einzigen Langzeitstudie wurde, die das Verhalten von B2B Unternehmen in der Social Media Kommunikation untersucht.
(Bild: SusieKnoll)

Aufmacherbild / Quelle / Lizenz
Photo by Jon Tyson on Unsplash

Handel mit Zukunft

Wer erfolgreich sein will, muss Märkte, Technologien und Menschen im Blick behalten.

Wissensmanagement der Zukunft: Verknüpfung von menschlicher und künstlicher Intelligenz

Daniel Fallmann, CEO von Mindbreeze, beschreibt in seinem Gastbeitrag die Kraft von Wissen, um sich im Wettbewerb Vorteile zu verschaffen

Wissen ist und bleibt ein entscheidendes Kriterium, wenn es darum geht sich vom Wettbewerb abzuheben. Die Zusammenarbeit von Menschen und Maschinen bietet dafür riesiges Potenzial. Allerdings machen die heute verfügbaren Technologien und innovativen Arbeitsweisen die traditionellen Vorstellungen von Wissensmanagement obsolet. Um von diesen Veränderungen zu profitieren, müssen Organisationen den Umgang mit Daten und ihre Abläufe neu überdenken und die Interaktion Mensch-Maschine fördern.

Die Datenflut beherrschen & nutzen

Im digitalen Zeitalter generieren und speichern Unternehmen eine regelrechte Flut an Daten. Schenkt man den Prognosen des Anbieters für Markt- und Konsumentendaten Statista vertrauen, wird sich das Datenaufkommen pro Jahr bis 2025 auf mindestens 175 Zettabyte belaufen.
Einige wenige Unternehmen nutzen das Potenzial der vorhandenen Informationen heute bereits zum Teil, jedoch reizt kaum ein Unternehmen die Möglichkeiten auch nur annähernd aus. Obwohl sich die Datenmengen stetig weiter erhöhen, bleiben einer internationalen Erhebung zufolge durchschnittlich 55% der Unternehmensdaten ungenutzt.

Mit der zunehmenden Komplexität und den steigenden Datenbergen wird es immer schwieriger, den Überblick zu behalten: „Unternehmen wissen oft nicht, was sie eigentlich schon wissen.“ Das führt dazu, dass der Leidensdruck unter anderem durch den Markt und Mitbewerb stetig steigt. Es braucht intelligente Wissensmanagementsysteme, die vorhandene Informationen übergreifend indizieren, analysieren, verknüpfen und entsprechend aufbereitet bereitstellen.

Bekannte Anbieter verwenden dafür Bezeichnungen wie „Enterprise Search“, „Insight Engine“, „Cognitive Search“ oder „AI Search“. Trotz unterschiedlicher Begriffe verfolgen sie alle ein Ziel: Dem Anwender zum richtigen Zeitpunkt die gerade benötigten Informationen bereitzustellen. Dafür nutzen sie unterschiedliche Technologien. Von künstlicher Intelligenz (KI) wie Machine und Deep Learning bis hin zu innovativen Ansätzen der Spracherkennung wie Natural Language Processing (NLP), Natural Language Understanding (NLU) sowie die semantische Aufbereitung von Inhalten, um eine natürliche Mensch-Maschinen-Interaktion zu ermöglichen. Doch dies ist erst der Beginn der Entwicklung – wohin die Reise gehen kann, zeigen die folgenden Trends im Überblick:

1. Den Bedarf des Anwenders verstehen und decken

Informationen in Unternehmen sind historisch gewachsen und in zahlreichen unterschiedlichen Datenquellen gespeichert. Da die Daten häufig isoliert in den Anwendungen in den einzelnen Abteilungen vorliegen, spricht man von sogenannten Datensilos. Eine wesentliche Voraussetzung für zukunftsweisendes Wissensmanagement ist es, diese Datensilos aufzubrechen und die
vorliegenden Informationen intelligent zu verknüpfen. Damit Nutzer auf Knopfdruck die relevanten Informationen im entsprechenden Kontext erhalten, verfügen intelligente Enterprise Search Produkte über die Möglichkeit sämtliche verteilten Daten über Konnektoren sicher abzufragen, zu analysieren und semantisch zu verstehen. So lassen sich diese Informationen verknüpfen und in Beziehung zueinander zu setzen (Graphen). Damit werden etwaige Silos nachhaltig aufgebrochen und die Informationen übergreifend nutzbar und versetzten die Anwender in die Lage, konkrete Antworten auf Fragen wie „Was wissen wir über einen Kunden?“ oder „Welche Informationen gibt es zu einem Bauteil?“ zu erhalten. Und das, ohne dafür eine weitere Datenquelle aufzubauen – wie dies in traditionellen Datenintegrationsprojekten der Fall wäre.
Eine wesentliche Voraussetzung, um die Wünsche des Anwenders zu erfüllen, stellt in diesem Zusammenhang die Personalisierung der Informationen dar.
Unter der Bezeichnung „Behavioural Model for Information Retrieval System Design“ werden unter anderem folgende Faktoren analysiert: Die Rolle der Tätigkeit, Aktionen, die in der Vergangenheit im Zusammenhang mit bestimmten Informationen gesetzt wurden, spezifisches Suchverhalten oder sogar die Emotionen, die User mit Informationen verknüpfen – ein Thema, das eng mit „Customer Experience“ bzw. „Experience Economy“ verwandt ist. Ziel ist es, die Relevanz einer Information zu personalisieren und ein intelligentes Assistenzsystem aufzubauen, mit dem der User auf möglichst natürliche Weise interagieren kann, um ihm punktgenau die benötigten Informationen bereitzustellen.

2. Menschen kommunizieren im Dialog

Die Verarbeitung unstrukturierter Informationen setzt die Fähigkeit voraus, Inhalte zu verstehen. Oberflächlich betrachtet mag das einfach erscheinen, jedoch gehört der Aufbau eines sinnvollen und zweckmäßigen Dialogs zu den schwierigsten Herausforderungen für KI. Das liegt vor allem an der unvergleichlichen Komplexität der menschlichen Sprache. Dialekt, Ironie, Mehrdeutigkeit – all das lässt sich allein mit Regeln schwer oder gar nicht erfassen.
Anwendungen mit starren vordefinierten Entscheidungspfaden eigenen sich damit weniger für komplexe Themen und Dialoge. Im Gegensatz dazu schaffen auf KI basierende Anwendungen eine menschenähnliche Gesprächsinteraktion, also imitieren einen Dialog (Coversational Search). Innovative Ansätze der Spracherkennung wie Natural Language Processing (NLP), Natural Language Understanding (NLU) und die semantische Aufbereitung von Inhalten in Kombination mit maschinellem Lernen haben sich dabei in den letzten Jahren als äußert wirksam erwiesen.

Abbildung 1: Natural Language Processing im Kundenservice

3. KI mit reduziertem Aufwand und tollen Ergebnissen: Weak Supervision

KI hatte bis heute einen massiven Nachteil: Um ein intelligentes System zu trainieren, brauchte es riesige Datensets und damit verbunden zeitaufwendige manuelle Arbeit und Vorbereitung. Weak Supervision zeigt hier einen anderen Weg auf. Das innovative Verfahren versetzt Systeme in die Lage nahezu selbstständig zu lernen – und zwar von im Unternehmen bereits vorhandenen Datensets, die nicht im Vorfeld mühevoll aufbereitet werden müssen. Die Performance (Akkuranz der Ergebnisse) optimiert sich durch die Nutzung, wodurch sich die Trainingsdauer der KI enorm reduziert. Gleichzeitig rückt „Explainable AI“ (XAI) zunehmend in den Fokus. Hierbei geht es darum von KI getroffene Entscheidungen nachvollziehbar bzw. transparenter zu machen. Dies ist nach wie vor bei äußerst komplexen Modellen nur bedingt möglich, wodurch die Reise in Zukunft wohl in Richtung Vereinfachung geht.

4. 360-Grad-Sicht (Holistic Views)

War es in der Vergangenheit notwendig Daten und Informationen zu bestimmten Aufgabenstellungen manuell aus unterschiedlichen Datenquellen zusammenzustellen, ist die ganzheitliche Aufbereitung von Informationen mittlerweile Standard.

Voraussetzung dafür muss jedoch sein, dass sich die Darstellung der Ergebnisse individuell an die unterschiedlichen Anforderungen der einzelnen Mitarbeiter, Positionen und Teams anpassen lassen. Branchenführende Lösungen bieten bereits die Möglichkeit eines einfachen Finetunings. Mitarbeiter haben manuell die Möglichkeit individuelle Anpassungen an den verschiedenen Anforderungsprofilen vorzunehmen, ohne den Umweg über die IT oder den Lösungsanbieter gehen zu müssen. Dafür stehen dem Anwender Bausteine wie Layouts, Suchfelder, Ergebnisse, Navigationselemente und Filter zu Verfügung, die sich – ohne jegliche Programmierkenntnisse – individuell zusammenfügen lassen. So kann beispielsweise festgelegt werden, dass einem Wartungsingenieur zuerst die Dokumentation der Wartung und nicht etwa Unterlagen zum Einkauf angezeigt werden. Für die Geschäftsführung hingegen lassen sich dementsprechend eher Dokumente zu den Finanzen des Unternehmens priorisieren.

Abbildung 2: 360-Grad-Sicht auf das Unternehmenswissen

5. Flexibilität bei der Datenaufbereitung

Organisationen haben viele unterschiedliche Datenquellen im Einsatz – von On-Premises über SaaS-Umgebungen bis hin zu Cloud-Services. Um eine qualitativ hochwertige Informationsaufbereitung zu ermöglichen, raten Anbieter ihren Kunden häufig alle Daten in die Cloud zu verlagern (Cloud only). Eine Voraussetzung, die besonders in Bereichen, wo hochsensible Informationen bzw. hochgradig angepasste Fachanwendungen vorliegen, nicht einfach bzw. nur mit hohem Aufwand realisierbar ist. Mit dem Ergebnis, dass diese Bereiche zunehmend nicht in das zentrale Wissensmanagement eingebunden werden können, wenn die Daten das eigene Rechenzentrum nicht verlassen dürfen.
Um kritische Abhängigkeiten aufzulösen, etablieren sich Lösungen – wie sogenannte Insight Engines – deren Funktionen sowohl On-Premises als auch in der Cloud verfügbar sind. So lassen sich Daten aus Cloudanwendungen wie Salesforce, ServiceNow, Office 365 etc. in der Cloud verarbeiten und jene von On-Premises-Anwendungen in den entsprechenden internen Rechenzentren.

6. Hyperautomation

Unternehmen sind immer mehr dazu gezwungen traditionelle Geschäftsprozesse in Richtung Flexibilität und Agilität zu optimieren. In diesem Zusammenhang wird häufig die Automatisierung vorangetrieben. Die Motivation dahinter ist es nicht Mitarbeiter zu reduzieren, sondern diese von quälenden Routineaufgaben zu befreien – damit mehr Zeit für andere Tätigkeiten zur Verfügung steht. Diese Entwicklung hilft Unternehmen dabei neue Geschäftsfelder zu entdecken und zu realisieren. Hyperautomation funktioniert jedoch nur dann, wenn Unternehmen über eine solide Basis in Sachen Wissensmanagement verfügen.

Durch den Einsatz von Technologien aus dem Bereich der künstlichen Intelligenz besteht bereits jetzt die Möglichkeit Arbeitsabläufe zu modernisieren. Während die Maschine lästige Routineaufgaben übernimmt, kann der Mensch seine Stärken wie soziale Interaktion, Kreativität und Fingerspitzengefühl gezielter einsetzen.


Über den Autor:

Daniel Fallmann beschäftigt sich seit frühester Jugend mit den Themen Künstliche Intelligenz, Machine Learning und Deep Learning. Er studierte Informatik an der Johannes Kepler Universität Linz und gründete im Jahr 2005 im Alter von 23 Jahren Mindbreeze.

Daniel Fallmann leitet das Unternehmen seither als CEO. Mindbreeze mit Headquartern in Linz, Österreich sowie Chicago, USA zählt heute zu den führenden internationalen Anbietern im Bereich angewandte künstliche Intelligenz und Wissensmanagement.


Weitere Informationen unter:
http://www.mindbreeze.com/

Covid-19 und das Supply-Chain-Management

Geodiversität + Digitalisierung = Flexibilität – die Lösung?

Globale Lieferketten sind seit COVID-19 eine enorme Herausforderung. Diese Thematik, geprägt von Lieferengpässen und Produktionsproblemen im Zusammenhang mit der Pandemie, zieht sich mittlerweile seit über einem Jahr durch die Medien. Insgesamt verändert die Pandemie, wie Führungskräfte über das Thema Supply-Chain-Management denken und ihre Unternehmen hier für die Zukunft aufstellen, wie eine aktuelle Studie von Orange Business Services und Longitude  zu „Real-time intelligence and the future of supply chain“ zeigt.


Unser Autor:

Philipp Ringgenberg, Senior Director Business Consulting & Innovation, leitet den europäischen Bereich Digital Business Consulting und Innovation bei Orange Business Services. Sein Team berät und unterstützt Kunden bei ihrer digitalen Transformation durch Geschäftsinnovation und Wertschöpfung.


Führungskräfte sehen Pandemie als Hauptrisiko für Lieferketten

Für 70 Prozent der 320 im Rahmen der Studie befragten Führungskräfte stellt die COVID-19 Pandemie das bisher größte Risiko für Lieferketten dar. Die Pandemie hat viele Führungskräfte in Sachen Lieferketten wachgerüttelt: So gaben 83 Prozent der Befragten an, dass sie nun aufmerksamer gegenüber Lieferkettenrisiken sind als noch vor einem Jahr. Auf Platz zwei und drei der größten Risiken für Lieferketten rangieren laut der Befragung „Aufruhr in internationalen Angelegenheiten“ (43 Prozent) und „der Wettbewerbsdruck“ (37 Prozent). Die Führungskräfte gaben außerdem an, dass die Pandemie besonders drei Bereiche negativ beeinflusst: Umsatz (56 Prozent), weltweite Lieferketten (56 Prozent) und das Geschäft insgesamt (55 Prozent). Was aber können Unternehmen tun, um auch in Pandemiezeiten ihre Supply Chains aufrecht zu erhalten?



Mit Innovation zu stabilen Lieferketten in der Pandemie

74 Prozent der befragten Führungskräfte gaben an, dass sie in der Krise weiter auf Innovation setzen und Stillstand als Gefahr sehen. 44 Prozent betonten, dass die Krise sogar einen positiven Einfluss auf ihre Innovationsfähigkeit hat, während 30 Prozent sagten, dass sie keine Auswirkung feststellen konnten. Die Pandemie hat Augen geöffnet und zum Umdenken angeregt – Unmögliches wird möglich. Eine Denkweise, der sich immer mehr Unternehmen anschließen.

Das betont auch Erwin Vestraelen, CDO und CIO vom Hafen Antwerpen: „Wegen COVID-19 sind viele neue Punkte auf der Agenda. Vieles wurde vorher theoretisch diskutiert. Aber alle sagten: „Ah, aber das wird nicht funktionieren. Das ist nicht möglich.“ Durch die Krise haben sich auf einmal innovative Ideen bewährt wie zum Beispiel Fernunterricht oder die remote Gesundheitsversorgung. Das Gleiche wird mit Lieferketten passieren. Man muss nicht nur einen Schritt nach vorne machen – man muss einen Quantensprung nach vorne machen.“

Geschwindigkeit und Agilität zählen mehr denn je

Doch wie könnte(n) dieser Quantensprung aussehen und unerwartete Risiken in Lieferketten eliminiert werden? Die Lösung lässt sich simpel in einer Gleichung darstellen. Geodiversität + Digitalisierung = Flexibilität. Flexibilität ist die Lösung, um Krisen so unbeschadet wie möglich zu überstehen. Sind Unternehmen flexibel, können sie sich schneller an unvorhergesehene Umstände anpassen. So gaben in der Umfrage rund 83 Prozent an, dass sie mehr Speed und Agilität benötigen, um mit Veränderungen in Krisenzeiten umgehen zu können. Doch welche Rolle spielen dabei „Geodiversität“ und „Digitalisierung“? On- und Nearshoring in der Fertigung erhöhen die Geodiversität und die Fähigkeit, sich schnell auf neue Marktgegebenheiten und Kundenbedürfnisse einzustellen sowie mit der Produktion in den eigenen Märkten schnell zu reagieren.


„Die Digitalisierung in Form von beispielsweise Smart Factories, Smart Asset Tracking oder Echtzeit-Daten-Analytik und KI gestützten Szenarien und Simulationen spielt eine wichtige Rolle bei der Flexibilisierung von Lieferketten.“


Aber auch die Digitalisierung in Form von beispielsweise Smart Factories, Smart Asset Tracking oder Echtzeit-Daten-Analytik und KI gestützten Szenarien und Simulationen spielt eine wichtige Rolle bei der Flexibilisierung von Lieferketten. Beispielsweise ist der Bedarf an und die Herstellung von bestimmten Produkten damit vorrausschauend planbar oder Produktionsstätten können schneller auf die Produktion gerade notwendiger Produkte umgestellt werden. Zudem ist die Digitalisierung ein wichtiger Faktor für das immer wichtiger werdende Thema Nachhaltigkeit. So nutzen 59 Prozent der Befragten in der Studie von Orange Business Services und Longitude moderne Technologien, um beispielsweise den Energie-, Kraftstoff- und Wasserverbrauch in der Produktion zu kontrollieren und zu senken.

Nachhaltigkeit – nicht nur für die Umwelt essenziell, sondern auch bei Lieferketten von großer Bedeutung

78 Prozent der befragten Führungskräfte in der Studie gaben an, dass Nachhaltigkeit eine große Rolle bei Lieferketten spielt. Nachhaltigkeit zahlt außerdem direkt auf Produkt- und Serviceinnovationen ein, die überlebenswichtig für Unternehmen sind – heute mehr denn je. Erwin Vestralen vom Hafen von Antwerpen verdeutlicht auch diesen Aspekt: „Die Pandemie wird enden, irgendwie. Aber Klimawandel, Nachhaltigkeit – das sind Trends und Risiken, die uns die nächsten Jahrzehnte beschäftigen werden. Beispielsweise wird der europäische Green Deal mehr Druck auf alle Beteiligten ausüben, den Ursprung von Emissionen zu identifizieren und ihren ökologischen Fußabdruck zu minimieren. Lieferketten spielen hierbei eine wichtige Rolle.“

Was lernen wir daraus?

Auch wenn die Corona-Pandemie eine für uns unvergleichbare Krise ist – unerwartete Ereignisse, treten laut McKinsey im Durschnitt alle 3,7 Jahre auf. Philipp Ringgenberg, Director Business & Solution Consulting Europe, Head of Innovation & Verticals Europe bei Orange Business Services appelliert deshalb an alle Beteiligten: „Es hat sich erneut gezeigt, dass wir uns unbedingt von alten, eingefahrenen Denkmustern trennen müssen. Flexibilität, Kreativität, Innovation und Transparenz müssen im Vordergrund stehen.“

Ein Trend, der sich aktuell herauskristallisiert, um Risiken in Lieferketten durch mehr Flexibilität zu minimieren, ist die Verfolgung einer erweiterten Ökosystem-Strategie. Dabei bauen Unternehmen beispielsweise neue Netzwerke mit zusätzlichen Partnern oder Lieferanten auf oder treten bereits bestehenden Netzwerken bei. Auch die befragten Führungskräfte setzen auf diese Möglichkeit der Risikominimierung: 90 Prozent gaben an, dass sie so eine Strategie bereits verfolgen oder in den nächsten zwei Jahren in Erwägung ziehen. Außerdem zahlen sorgfältige, iterative Überprüfungen der Lieferkette sowie Investitionen in ein größeres Supply-Chain-Management-Team oder externe Expertenunterstützung auf das Ziel Risikominimierung ein. Unternehmen sollten auf keinen Fall auf einzelne Lieferanten oder Zulieferer aus nur einem Land oder einer Region setzen.

Weiterführende Informationen: https://www.orange-business.com/en

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Sind Kryptowährungen eine Bedrohung für Gold?

Sind Kryptowährungen eine Bedrohung für Gold? – Dieser Frage geht Adrian Ash, Director of Research bei BullionVault in seinem Gastbeitrag nach

Noch zu Beginn des Jahres boomten die Kryptowährungen: Nicht nur bekannten sich namhafte Unternehmer wie Tesla-Chef Elon Musk und Sportmogul Mark Cuban zu digitalen Assets, auch Konzerne wie Mastercard oder Visa sowie die Bank of New York gaben kund, ihren Kunden Zugang zum Bitcoin ermöglichen zu wollen. Das führte dazu, dass Digitalwährungen durch Schlagzeilen immer mehr in den Fokus gerückt wurden und die Idee unter Anlegern stärker wuchs, den Bitcoin als Alternative zu Edelmetallen zu betrachten. Zwischenzeitlich knackte der Bitcoin-Kurs so erstmals die Marke von 50.000 Euro.

Doch der vergangene Mai hat nun eine deutliche Trendwende offengelegt: Der Bitcoin-Preis wurde um ein Drittel nach unten gedrückt. Für den Goldpreis hingegen ging es stark bergauf: Mitte des Monats stieg er über die Marke von 1.800 US-Dollar, und seitdem setzt sich dieser Trend fort. So übertraf der Preis am 31. Mai sogar auf über 1.900 Dollar je Feinunze. Seitdem hält er sich in der Nähe dieser Marke.

Allein diese Entwicklung zeigt: Gold und Krypto haben wenig miteinander gemeinsam. Denn auch wenn vor allem während des Kryptobooms natürlich einige Privatinvestoren vermehrt zur digitalen Währung griffen, und obwohl Krypto von so manchem sogar als das Gold 2.0 bezeichnet wird, weisen die beiden, trotz ein paar Gemeinsamkeiten in Bezug auf ihre Anlageeigenschaften, auch erhebliche Unterschiede auf.
Worin bestehen sie?

Gemeinsamkeiten von Krypto und Gold

Sowohl die digitale Währung als auch Edelmetalle sind begrenzt, im Gegensatz zu staatlicher Währung (Fiatgeld) oder Schulden. Auch können beide außerhalb des Finanzsystems gehalten werden. Für Anleger bedeutet das, jederzeit Zugriff auf ihr Asset zu haben und es verkaufen zu können, wenn sie es für richtig halten. Auch wenn der Zugriff auf Konten, Depots oder Bargeld versperrt sein sollte, ist Gold jederzeit zugänglich. Dadurch dass Kryptowährungen keiner staatlichen Kontrolle unterliegen, sind auch für ihren Handel keine Banken und somit herkömmliche Finanztransaktionen notwendig.

Unterschiede von Krypto und Gold

Im Gegensatz zu Gold sind Kryptowährungen jedoch immateriell und eine Erfindung aus dem vorletzten Jahrzehnt, die nach wie vor sehr spekulativ und schwankungsanfällig ist. Im Vergleich zu physischen Edelmetallen ist der Preis von Bitcoins etwa viermal volatiler. Zudem sind Kryptowährungen nur digital verfügbar, dadurch zwar leicht handelbar, aber auch anfällig für Hacker, was ein großes Fragezeichen hinsichtlich ihrer Rechtstitelsicherheit aufwirft. Gold hingegen ist komplett physisch, und bietet Sicherheit und Schutz vor dem Ausfall der Gegenpartei, was kein anderer handelbarer Vermögenswert bieten kann. Zudem blickt Gold auf eine jahrtausendelange Geschichte zurück: Der globale Goldhandel hat sich bewährt und findet auf einem tiefen und liquiden Markt statt. Bitcoin-Volumina sind weniger sicher; verschiedene Börsen bieten sehr unterschiedliche Daten an, und dezentraler Handel wird nicht zuverlässig gemeldet. Aber wie stark auch immer der Bitcoin-Handel gewachsen sein mag, er ist nicht mit einem Rückgang des Goldhandelsvolumens einhergegangen. Das deutet darauf hin, dass Bitcoin keine Investitionsströme „gegessen“ hat, die sonst in Gold fließen würden, und das zeigt: Gold ist nach wie vor ein beliebtes Asset, das für die Diversifizierung eines Portfolios geeignet ist. Das beweist auch eine von BullionVault durchgeführte Umfrage unter Privatanlegern: Gut ein Viertel (27,9 Prozent) gab an, vorranging zur Diversifizierung des Portfolios in Gold anzulegen. Und über ein Drittel (37,9 Prozent) investiert in Gold als Absicherung gegen Inflation.

In Anbetracht der aktuellen Lage scheint also die Frage, ob Kryptowährungen Gold ersetzen werden, fast rhetorisch. Das Anlageverhalten der letzten Monate und die Entwicklung des Goldpreises zeigen ganz klar: Kryptowährungen werden Gold nicht den Rang ablaufen.

Gold und andere Edelmetalle haben im Anlagespektrum in der Regel eine stabilisierende Funktion, und gerade in Zeiten der Inflation wirken sie im Portfolio stabilisierend. Kryptowährungen hingegen sind kein bewährter Inflationsschutz und aufgrund ihrer hohen Volatilität kein geeignetes Wertaufbewahrungsmittel. Wer also langfristig sicher investieren will und das auch in unsicheren Zeiten, ist mit Gold gut beraten.

Weitere Informationen unter:
https://gold.bullionvault.de/

Pedelec, E-Bike und Co. – Was ist bei der Akku-Sicherheit zu beachten?

Für die hartgesottenen Radler ist das ganze Jahr über Saison – für alle anderen beginnt sie jetzt mit den warmen Tagen. Und wie die aktuellen Zahlen des Fahrrad-Industrie-Verbands belegen, werden in diesem Jahr mehr E-Bikes auf deutschen Straßen unterwegs sein als jemals zuvor. Doch gerade bei den Akkus scheidet sich Spreu vom Weizen – da gibt es bei der Sicherheit Einiges zu beachten: Wie verhalten sich Akkus in den verschiedenen Jahreszeiten? Ist Made in Germany absolut notwendig? Was tun, wenn es brennt?

Darüber und über andere Fragen haben wir mit einem gesprochen, der es wissen muss.

Christian Hennig, Technikchef bei Pendix


Herr Hennig, es tauchen ja immer wieder Berichte auf, nach denen Akkus in verschiedenen Geräten plötzlich gebrannt haben. Sind das nur Horror Stories oder besteht wirklich eine ernstzunehmende Gefahr?

Es ist zumindest eine reale Gefahr. Hier verlässliche, absolute Zahlen oder Prozentsätze zu nennen, ist leider nicht möglich. Aber im Verhältnis zu den Akkus im Markt ist die Zahl der Brände super gering. Dass solche Berichte vermehrt in den Medien auftauchen, liegt vor allem an der zunehmenden Verbreitung von Lithium-Akkus in der breiten Masse – besonders in der Elektromobilität. Das Wissen um die speziellen Eigenschaften des Lithiums hat in den letzten Jahren aber auch dazu geführt, dass die Akkus sicherer geworden sind. 

Wieso könnte es denn überhaupt zu einem Brand kommen?

Das in den Akkus verwendete Lithium ist ein besonders leistungsfähiger Rohstoff. Damit erreichen wir die nötigen Anforderungen, auf kleinstem Raum die nötige Kapazität und Energiedichte zu erreichen. Ansonsten müsste jeder von uns mit einem koffergroßen Akku herumlaufen, nur um sein Handy zu nutzen. Neben der Leistungsfähigkeit ist Lithium aber eben auch ein leicht brennbares Material. Technische Defekte oder Anwendungsfehler können Auslöser für eine thermische Reaktion in den Zellen sein – und dadurch kann schlimmstenfalls ein Brand entstehen.

Und wenn der Extremfall doch eintritt? Haben Sie einen Tipp?

Sollte es tatsächlich dazu kommen, entwickelt der Akku bis zu 1.000 Grad. Dafür gibt es spezielle Feuerlöscher, die Löschmittel mit hohem Kühleffekt enthalten. Auch Feuerlöschdecken bieten sich als erstes Mittel an. Laien sollten bei so einem Brand aber auf jeden Fall die Feuerwehr rufen, da eine große Menge Wasser zur Abkühlung nötig ist. Löschmittel wie etwa ABC- oder BC-Pulver, Metallbrandpulver oder Kohlendioxid (CO2) sind nicht geeignet und sollten keinesfalls verwendet werden.

Anwendungsfehler hatten Sie bereits angesprochen. Was gibt es hier zu beachten und wie kann die Lebensdauer von Akkus erhöht werden?

Ich empfehle immer, Original-Ladegeräte des Herstellers zu verwenden. Dabei ist bspw. darauf zu achten, dass das Ladegerät für den Eingangs-Spannungsbereich im jeweiligen Land, in dem ich es verwenden möchte, ausgelegt ist. Dies lässt sich in der Anleitung oder auf dem Label des Ladegerätes selbst ablesen. Außerdem rate ich, Akkus immer bei Raumtemperatur und nie unbeaufsichtigt aufzuladen – auch wenn es nur um einen kurzen Einkauf geht.

Wann macht sich der Memory-Effekt bemerkbar.

Der gehört der Vergangenheit an. Heutige Akkus können bedenkenlos mit Unterbrechungen oder nur zum Teil aufgeladen werden. Einen positiven Effekt auf die Lebensdauer bringt, den Akku nicht immer komplett zu entladen, so es die Nutzung denn erlaubt. Speziell in niedrigen Ladezuständen unter 15% altern die Zellen schneller.

Wie erkenne ich einen defekten Akku?

Hier muss zuerst der natürliche Verschleiß ausgeschlossen werden. Akkus haben nur eine begrenzte Lebensdauer, und mit der Zeit nimmt die Leistung ab – auch ohne Memory-Effekt (lacht). Ein Defekt liegt aber vermutlich vor, wenn es zu sprunghaften Kapazitätseinbrüchen kommt – das sind dann Anzeichen für einen Zelldefekt. Sowas lässt sich von außen nur schwer feststellen, aber Fachhändler haben dafür spezielle Diagnosetools. Auch wenn der Akku beim Laden ungewöhnlich warm wird, sollte er nicht mehr benutzt werden, bis er von einem Spezialisten gecheckt wurde.


„Neben der Herkunft spielen natürlich auch die verwendeten Materialien eine große Rolle, so haben wir uns bewusst für ein Akkugehäuse aus Aluminium entschieden, welches die Risiken bei einem möglichen Zellbrand gegenüber Kunststoffgehäusen nachweislich noch mal deutlich senkt.“


Gibt es sonst noch Faktoren, die beachtet werden müssen? Etwa was die verschiedenen Jahreszeiten angeht?

Lithium-Ionen-Akkus sind kleine Mimosen und fühlen sich bei ungefähr 25 Grad Celsius am wohlsten. Bei zu kalten Temperaturen sinkt die Leistungsfähigkeit und die Zellen altern schneller. Ist es zu heiß, können Überhitzungen mit möglichen Folgeschäden auftreten. In den Akkus ist ein Batterie-Management-System integriert, mit dem sich das System bei zu hohen oder niedrigen Temperaturen und Spannungen automatisch abschaltet, um Schäden zu vermeiden. Trotzdem sollten Akkus vor allem im Sommer nicht der prallen Sonne ausgesetzt werden.

Sie sind ja Experte für die Elektromobilität. Sind bei E-Bike und Co. spezielle Vorsichtsmaßnahmen nötig?

Wer sich an die Empfehlungen hält, ist auf jeden Fall sicher unterwegs. Wir bei Pendix freuen uns, wenn unsere Kunden ihr Rad das ganze Jahr über nutzen. Für die Hardcore-Winter-Radler haben wir deshalb ein Akku-Cover entwickelt, damit sie auch bei Schnee und Eis vorankommen. Wenn das E-Bike doch mal länger nicht genutzt wird und es in den Fahrradkeller kommt, sollte die Akkuladung zwischen 40 und 70 Prozent betragen.

Unser eDrive zeigt das zum Beispiel durch einen gelben LED-Ring an. Ungefähr alle zwölf Wochen sollte der Akkustand überprüft werden, um einer Tiefenentladung vorzubeugen. Ansonsten gelten bei E-Bikes dieselben Regeln wie bei anderen Geräten. Die Akkus sind robust und auch eine Offroad-Tour macht ihnen nichts aus. Sollte es mal zu einem Unfall kommen, sollte der Akku aber gewechselt oder zumindest von einem Fachmann geprüft werden.

Müssen es eigentlich immer Akkus Made in Germany sein?

Das lässt sich pauschal nur schwer beantworten. Ich persönlich rate immer zu einem Made in Germany-Akku, weil die Qualität meist besser ist. Das heißt aber nicht, dass andere Akkus generell schlecht sind. Wer nach günstigen Modellen schaut, müsste sich aber genau über die Herkunft informieren und Hersteller vergleichen. Die Sicherheitsstandards im Ausland schwanken sehr. Neben der Herkunft spielen aber natürlich auch die verwendeten Materialien eine große Rolle, so haben wir uns bewusst für ein Akkugehäuse aus Aluminium entschieden, welches die Risiken bei einem möglichen Zellbrand gegenüber Kunststoffgehäusen nachweislich noch mal deutlich senkt.

Stichwort Globalisierung: Durch Corona und zuletzt durch den Stau im Suez-Kanal kommt es in vielen Branchen zu Lieferproblemen. Sind Sie auch betroffen?

Bisher konnten wir durch unsere vorausschauende Einkaufsstrategie kritische Lieferausfälle kompensieren. Wir merken auch, dass der Markt angespannt ist, gerade im Bereich der Elektronikbauteile stehen auch wir derzeit vor großen Herausforderungen, um die Lieferkette lauffähig zu halten, aber wir sind optimistisch.

Alles hat ein Ende. Wie sollten Akkus denn vernünftig entsorgt werden?

Auf keinen Fall im Hausmüll. Das bitte bloß nicht! Privatleute haben immer das Recht, den Akku dort abzugeben, wo sie ihn gekauft haben. Alternativ gibt es dafür auch spezielle Rücknahmestellen und Wertstoffhöfe.

Aufmacherbild / Quelle / Lizenz
Bild von Franz W. auf Pixabay

KI-Technologien und intelligente Apps

Herr Dr. Trommen, wie verändern die Technologien rund um künstliche Intelligenz unsere Medien und die Medienbranche?
Disruptiv und exponentiell. Entscheidend ist, sich mit der Technologie sehr früh zu beschäftigen. Man sieht das bspw. am Erfolg von Axel Springer oder N-TV, die bereits sehr früh auf die Digitalisierung gesetzt haben und in diesem Bereich immer noch führend sind.

Dr. Alexander Trommen, CEO Appsfactory 

Welche Wettbewerbsvorteile können „First-Mover“ generieren, die auf KI setzen?
Zum einen Kostenersparnis, z.B. bei Tätigkeiten, die standardisierbar sind – z.B. das Einsprechen von Podcasts, was mit Text-to-Speech-Schnittstellen automatisiert werden kann. Auf der Re:publica haben wir ein gemeinsames Projekt mit dem WDR vorgestellt. Dabei ging es um die Möglichkeiten Stimmen zu imitieren. Hier braucht man 200 – 400 Minuten an Material, damit der Computer meine Stimme, Ihre Stimme oder welche Stimme auch immer, imitieren kann. Die Erfahrung ist mit dieser Technologie wirklich sehr gut und man kann die Stimmen kaum mehr unterscheiden.

Andererseits wird mehr Reichweite generiert: Wir haben bspw. für die FAZ eines der ersten deutschen Personalisierungsprojekte umgesetzt. Dass sich die FAZ im Vergleich zu den anderen Tageszeitungen in den letzten Jahren in der Reichweite überproportional entwickelt hat, führen wir auch auf die Investitionen in die Technologie zurück.

Welche Projekte bearbeiten Sie in diesem Kontext zurzeit und gibt es Beispiele dafür?
Aktuell experimentieren wir im Bereich von Robo-Journalismus, d.h. automatisierter datengetriebener Journalismus.  Wir fangen an mit einzelnen Bereichen, wie z.B. Corona, Sportjournalismus oder Arbeitslosen-Statistiken, wo wir lokale Daten in großer Menge haben, die nicht jeden Tag redaktionell aufbereitet werden können. In der Tagesschau-App gibt es bereits ein Widget, in dem die aktuellen Corona-Daten komplett automatisiert zu einem Mini-Artikel zusammengefasst werden.

Zwar sind wir weit weg davon, dass der Robo-Journalismus den echten Journalismus ersetzt, aber es gibt im Journalismus sehr viele standardisierte Tätigkeiten. Ein großes Aufgabengebiet der Journalisten bei der Tagesschau ist es bspw. bereits bestehende Texte für die entsprechenden Medien anzupassen. Das Kürzen von Texten ist dabei ein sehr großer, manchmal auch ein bisschen lästiger Bestandteil der täglichen Arbeit. Dort kann man schon sehr stark unterstützen und damit „Zeit freispielen“.

Bieten Sie selbst „Cognitive Services“ an oder nutzen Sie Cloud-Plattformen wie Azure und AWS?

Wir nutzen tatsächlich alle Cognitive-Services-Schnittstellen der drei großen Anbieter, MS Azure, AWS und Google. Die einzelnen Schnittstellen haben unterschiedliche Stärken und Schwächen – die eine ist evtl. etwas besser in der Text-to-Speech-Generierung, die andere in der semantischen Analyse oder im Human-Voice-Bereich. Deswegen „benchmarken“ wir sie ständig gegeneinander.

Wie schätzen Sie den Zukunftsmarkt für Augmented Reality und Virtual Reality ein?
Das ist ein superspannendes Thema – ich befürchte aber, dass wir auf den Massenmarkt noch zehn Jahre warten müssen. Bevor die Brillen genauso groß sind wie die Brillengestelle, die wir einfach tragen, von mir aus 100 Gramm mehr wiegen, werden wir keine AR bzw. VR Massenmarkt haben, da Leute mit den „großen AR-Brillen“ nicht durch die Straßen laufen. Dann aber kann das schon sehr stark disruptiv wirken.

Für welche Unternehmen lohnt sich jetzt schon der Einsatz und welche Kunden-Projekte verfolgt Ihr Haus zurzeit?
Momentan sehen wir eine hohe Nachfrage im Bereich Logistik, vor allem bei Pick-Solution im E-Commerce – wo muss der Picker hingehen, wo etwas entnehmen.

Mit der Tagesschau haben wir ein recht spannendes Projekt gemacht, wo wir dargestellt haben, wie die Tagesschau in 10 – 15 Jahren aussehen könnte. Dabei haben wir Linda Zervakis als 3-D-Modell abgebildet, die quasi ins Wohnzimmer projiziert wird und dort das Wetter illustriert oder über Katastrophen wie den Brand der Kathedrale Notre Dame in 3-D berichtet. Die Objekte stehen dann neben ihr und sie kann sie drehen. Auf Grund der hohen Produktionskosten – man ist hier schnell im sechsstelligen Bereich – ist das jedoch nichts, was man heute schon jeden Tag produzieren kann.

Evolution oder Revolution?
Sie kennen vielleicht die Story von Neurolink, also einem Elon-Musk-Unternehmen, wo jetzt der erste Chip in einen Affen implementiert wurde, der in der Lage ist, mit den Gedanken ein Videospiel zu steuern. Zusammen mit AR entstehen hier ganz neue Möglichkeiten. Also definitiv Revolution – aber es braucht noch ein bisschen Zeit.

Welche neuen Geschäftsmodelle wären vorstellbar?
Geschäftsmodelle werden alle in Richtung Abo-Economy laufen. Im journalistischen Bereich gibt es dieses Modell mittlerweile schon seit Jahrzehnten. Es ist relativ einfach zu skalieren auf der Anbieterseite. Auf der Konsumentenseite setzt es sich immer mehr durch, da ich meine Kosten kalkulieren kann.

Wearables sind erst der Anfang der BYOE-Revolution am Arbeitsplatz – wieviel steckt in Exoskeletten und implantierter Technologie und welche Geschäftsmodelle sind denkbar?
Da gibt es gerade in der Medizintechnik schon echte Anwendungen jenseits der Robocop-Visionen. Hier haben wir ein Projekt mit einem sehr großen Prothesen-Hersteller umgesetzt, wo eine Fußgelenksprothese per App auf bestimmte Anforderungen angepasst werden konnte – also ob ich bspw. joggen oder normal gehen will. Der nächste Schritt wird sein, das Ganze mit einer KI zu koppeln, so dass das System selbst erkennt, was sein Nutzer eigentlich will, ohne dass er dies in einer App auswählen muss. Die Geschäftsmodelle sind aber glaube ich, die gleichen wie immer. Sie verkaufen diese Prothesen oder Produkte.

Und implantierte Technologien – wenn es z.B. darum geht, später etwas schlauer zu werden – sehen Sie dort auch neue Möglichkeiten?
Wenn Sie mich heute fragen würden, ob ich Aktien von Neurolink kaufen würde, dann würde ich sagen: ja, auf jeden Fall. Die Frage ist dann, wie das Geschäftsmodell aussieht. Was ist es wert, wenn ich noch 20 % intelligenter werde? Es ist also schwer zu kalkulieren, aber auf jeden Fall sehr spannend.

Was kann Deutschland von anderen Ländern noch lernen?
Wenn wir sehen, wie langsam wir durch die Pandemie gekommen sind und wie schnell einige asiatische Länder dabei waren, dann sieht man, dass die Corona-App hier bei uns einfach nicht funktioniert hat. Ein Grund hierfür war eine überhöhte Anforderung an den Datenschutz.

Zudem stelle ich fest, dass viele andere Länder zwar in der Forschung hinten dran sind – und die KI-Forschung in Deutschland muss sich wirklich nicht verstecken – dennoch sind wir diejenigen, die daraus keine Community-Services zur Verfügung stellen. Wir haben keinerlei Plattformanbieter, die ihre Schnittstellen bereitstellen. Nicht einmal die Telekom, die die Manpower hätte, stellt Ihre Schnittstellen bereit.

Was sind momentan Ihre spannendsten Projekte und welche Ziele haben Sie sich gesetzt?
Eines unsere spannendsten Projekte ist aus dem Bereich Android-Open-Source, also dem Betriebssystem, mit dem ganz viele Automotiv-Hersteller ihr komplettes Infotainment machen und machen werden. In diesem Bereich gibt es kaum Firmen mit Ahnung, weswegen wir dort eine Schlüsselposition einnehmen. Dass das Infotainment in Fahrzeugen insgesamt wichtiger wird, ist bei selbstfahrenden Automobilen und den heutigen Entwicklungen, selbsterklärend.

Ein weiteres spannendes Projekt haben wir mit Huawei zusammen. Mit Harmony schafft Huawei gerade eine Android-Variante mit eigenem Ökosystem und eigenem Vertriebssystem, das nicht nur auf Smartphones, sondern auch auf Wearables läuft. Wir helfen Huawei das Ökosystem aufzubauen, in dem wir im Bereich Shops bzw. Appstore als auch bei der App-Portierung helfen.

Unser Ziel bis 2025 ist es, die Anzahl unserer Mitarbeiter auf 500 zu verdoppeln. Wir wollen weiter wachsen zu einen der bedeutendsten Full-Service-Dienstleister im Bereich der Applikationen und der digitalen Transformation in Deutschland.

www.appsfactory.de

Aufmacherbild / Quelle / Lizenz
Bild von kalhh auf Pixabay

2021: Das Low-Code Jahr

Zum Einfluss der Pandemie und der Zukunft der Digitalisierung hat sich Karten Noack, Gründer und CEO von Scopeland Technology GmbH Gedanken gemacht. Er sieht 2021 ganz im Zuge des Themas Low Code. Damit können sich Unternehmen nicht nur ein Stück weit selbst helfen, sondern es schärft auch den Blick für die Herausforderungen der digitalen Transformation.

Mehr als ein Jahr Pandemie – Was hat das mit der IT-Infrastruktur, der Digitalen Transformation und der Softwareentwicklung gemacht? Fernarbeit ist zur Normalität geworden und die benötigte Geschwindigkeit in der Entwicklung von Softwareanwendungen hat noch mehr zugenommen, als vor der weltweiten Krise. Nun wird es langsam Zeit, eine erste Bilanz zu ziehen.

Laut einer aktuellen Studie von Equinix haben 48 % der deutschen und 51 % der weltweit befragten Unternehmen ihre IT-Infrastruktur umgestaltet, um sich an die neuen Anforderungen an Home-Office und hybriden Arbeitsplätzen anzupassen. Fast die Hälfte, 47 % der weltweit und 41 % der in Deutschland befragten IT-Entscheider haben aufgrund der Pandemie ihre Pläne für die digitale Transformation beschleunigt.

Die Bedeutung von deklarativen Technologien

Das vergangene Jahr hat noch einmal deutlich gemacht, welche bedeutende Rolle deklarative Technologien wie Low-Code für die Digitalisierung (von Prozessen) einnehmen. Die Entwicklung mithilfe von Low-Code ermöglicht eine deutlich schnellere, effizientere und damit kostengünstigere Softwareentwicklung. Die Anwendungen sind flexibel hinsichtlich Änderungen aller Art und auf allen Ebenen, was wiederum zu kürzeren Projektlaufzeiten, geringeren Kosten und besserer Softwarequalität führt.

In vielen Unternehmen besteht oft das Problem, dass agile Entwicklungsteams nicht in der Lage sind, bei der Entwicklung und Anpassung von Softwareprojekten die benötigte Geschwindigkeit und Reaktionsfähigkeit zu gewährleisten. So macht das US-Analystenhaus Forrester Research in einem aktuellen Report deutlich, wie wertvoll Low-Code-Tools sind, um den Entwicklungsrückstand direkt anzugehen und die Geschäftsentwicklung zu stärken. Low-Code-Plattformen hätten sich demnach bestens bewährt und sind mittlerweile sogar nötig, um die durch die Pandemie hervorgerufene neue Normalität zu begünstigen. Vorgefertigte Komponenten, integrierte Qualitätsprüfungen sowie die automatisierte App-Bereitstellung und andere deklarative Werkzeuge sorgen dafür, dass Low-Code sehr gut geeignet ist, den Ansprüchen gerecht zu werden.

Auch in Sachen Kollaboration, sowohl innerhalb des Unternehmens als auch mit externen Teams, bietet Low-Code viele Vorteile. IT-Abteilungen können programmierfremden Kollegen aus den Fachbereichen oder externen Unternehmen Instrumente zur Anwendungsentwicklung an die Hand geben und diese gegebenenfalls bei der Entwicklung unterstützen.

2021 – Das Jahr von Low-Code

Führende Branchenexperten wie die Analystenhäuser Forrester Research und Gartner prognostizieren, dass 2021 das bisher bedeutendste Jahr für die Low-Code Technologie ist. Bereits in den vergangenen Jahren ist die Entwicklung vorangeschritten, jedoch nicht so rapide wie jetzt. Laut den US-Analysten werden in diesem Jahr 75% der Unternehmenssoftware weltweit mit Low-Code entwickelt. Forrester Research prognostiziert zudem, dass der Marktwert von Low-Code-Anbietern bis 2022 voraussichtlich 22 Milliarden US-Dollar betragen wird.
Die Pandemie hat diesen Anstieg zwar selbst nicht ausgelöst, aber die Problemlage wurde so verdichtet und offengelegt, ob Unternehmen in der Lage sind, ihre Software anzupassen.

Über den Autor:

Karsten Noack ist Gründer und CEO von Scopeland Technology, einem führenden Anbieter kundenspezifischer Datenbankanwendungen für große Unternehmen, Forschungs- und Verwaltungseinrichtungen. Als Visionär entwickelte er Mitte der 90er Jahre die Technologie, die heute als Low-Code bekannt ist. Die Softwareplattform SCOPELAND ermöglicht fast programmierfrei per Konfiguration die Entwicklung anspruchsvoller Datenbanklösungen. Er ist Mitglied des Hauptvorstands und mehrerer Arbeitsgruppen des BITKOM.

Weitere Informationen unter:
https://www.scopeland.de/

Nach dem Kauf ist vor dem Service

After-Sales-Management – Kundenbindung konkret


Von Stephanie Helfen

„After Sales“ klingt für den Laien immer ein wenig nach Ende. Der Kunde hat sich für den Kauf einer Ware oder Dienstleistung entschieden, der Handel ging – meist sogar buchstäblich – über die Bühne. Der Käufer freut sich über sein Wunschprodukt – der Verkäufer über seine Einnahme. Ein Abbild früherer Tage vielleicht, heute aber nicht mehr zeitgemäß. Denn erst nach dem Kauf setzt die gelebte Kundenbindung ein: Neben der Qualität der Ware entscheiden auch ganz andere Aspekte darüber, ob der Kunde wiederkehren wird. Dann steht der eigentliche Service im Mittelpunkt: Lieferung, Montage, Kundendienst, Gewährleistung, Schulungen, Ersatzteillieferung, Reklamationsbearbeitung. Alles Themen, die den Kunden an das Unternehmen binden. Vorausgesetzt, der Händler schafft es, das After-Sales-Erlebnis positiv zu gestalten und zu bewerkstelligen

Torsten Thau

Torsten Thau, Product Owner des Managementsystems KIX beim IT Softwarehaus cape IT hat sich berufsbedingt intensiv mit dem Thema auseinandergesetzt: „Im Zuge von Digitalisierung und Ausbau des Onlinehandels ist der After-Sales-Service für die meisten Unternehmen extrem wichtig geworden. Ganz klar ist die Zufriedenheit eines Käufers zunächst davon abhängig , ob die Qualität des gekauften Produkts stimmt.

Dass aber der Kunde seine Zufriedenheit auch darüber definiert, ob er sich vom Händler gut betreut fühlt, wird immer wichtiger. Besonders dann, wenn Probleme auftreten und schnelle unkomplizierte Lösungen hermüssen. Jedes Unternehmen, jeder Händler und jeder Anbieter von Dienstleistungen befindet sich inzwischen in einem globalen Wettbewerb. Behaupten können sich nur diejenigen, die ihre Kunden nach dem Kauf nicht allein lassen. In der Industrie z.B. stehen über die Anschaffung hinaus auch Wartungsfragen im Raum.“

Profitable After-Sales-Services

Erfolgreiche und vor allem profitable After-Sales-Services zeichnen sich durch effiziente Prozesse, agile, lösungsorientierte Serviceorganisationen sowie ein maßgeschneidertes und marktgerechtes Portfolio an Dienstleistungen aus. Studien bestätigen bis zu einem Drittel Mehrumsatz, wenn Unternehmen es schaffen, ein kundenorientiertes Servicegeschäft zu etablieren. Nun hat insbesondere die weltweite Pandemielage dazu geführt, dass der Onlinehandel einen enormen Schub erhalten hat. Gleichzeitig ist die Erwartungshaltung der Kunden an die Servicebereitschaft der Händler gestiegen.

Dieser Digitalisierungsschub war im Grunde genommen längst überfällig und hat jetzt auch die die Industrie erreicht – beispielsweise beim Anlagenbau. Wartung, Instandhaltung immer komplexerer Anlagen und die umfassende Kundenbetreuung sind auch hier elementarer Bestandteil des Produktlebenszyklus. Wenig zielführend ist es, die Verwaltung von Tätigkeiten wie der Ersatzteilbestellung, Wartung oder Aufnahme einer Reklamation, manuell zu erfassen.

„Die Zeiten, in denen der Kundendienst mit Kugelschreiber und Klemmbrett Störungen aufgenommen hat, sind so gut wie Geschichte. Einhergegangen ist die Digitalisierung mit neuen Herausforderungen an Technik und IT. Wir als Softwareanbieter haben uns diesen gestellt, damit wir unsere Kunden erfolgreich machen können. Gerade Cloud-Lösungen sind hier ein praktisches Mittel der Wahl: schnell am Start und im Einsatz. Das ist Lösungsorientierung, wie wir gerade seit der Corona Pandemie verstärkt feststellen“, erklärt Thau, „Cloud Lösungen bieten den Vorteil, dass langwierige Installationen, Wartungen und Upgrades entfallen und die IT Abteilungen sich um ihre Kernaufgaben kümmern können. Die Bereitstellung der Software in einer Cloud erfolgt flexibel und angepasst an die Bedürfnisse der jeweiligen Organisation.“

Ob Software Lösungen nun wirklich in einer Cloud zum Einsatz kommen oder aber on premise installiert sind, spielt im Grunde nur eine Nebenrolle. Zentrale Vorteile moderner IT-Software-Lösungen im After Sales sind, dass beispielsweise die Abwicklung einer Reklamation oder auch eine turnusmäßige Wartung mit all ihren Nebenprozessen wie Terminüberwachung und Ersatzteilbestellung, komplett automatisiert geplant und durchgeführt werden können.

Das A und O – Automatisierung und Open Source

Die effiziente und zufriedenstellende Abwicklung eines Servicefalls ist das A und O, wenn der Kunde sich vor dem nächsten Kauf an diese positiven Effekte erinnern soll. Für den Serviceprovider ist ein aufwands- und kostenoptimiertes Vorgehen wichtig. Automatisierung bietet dazu einen großen Hebel. So kann nach Kauf einer Anlage, diese automatisch in eine Wartungsplanung integriert werden. Führt man diesen Ansatz fort, wird jede Tätigkeit an dieser Anlage als Archiv um den ursprünglichen Kauf herum gebaut – einsehbar für jeden Servicetechniker, da alles zentral hinterlegt wird. Die Anlage erhält ein individuelles Logbuch und jeder Techniker hat diese Informationen zur Hand ohne die Anlage „persönlich“ zu kennen.

Die Open Source Software KIX bietet die Möglichkeit, ERP- und andere Workflow-Systeme zu integrieren. Dadurch werden beispielsweise Lizenzen, technisches Equipment, aber auch Wartungsplanungen miteinander vernetzt und können automatisiert verwaltet werden. Das geht weit über den Einsatz bloßer ERM oder ERP-Systeme hinaus. Störungsmeldungen sind durch den Einsatz der Software effizient und kostensparend zu lösen. Dabei kann das Service Team mit Textbausteinen und dem integrierten Kanban-Board agieren, was eine enorme Zeitersparnis bringt und Transparenz schafft. Denn die meisten Anfragen sind kein singulär auftretendes Ereignis, sondern kommen in einer gewissen Regelmäßigkeit vor. Somit können alle Bearbeiter den Status des jeweiligen Tickets nachverfolgen.

Torsten Thau: „Im Grunde war Corona gerade für Deutschland ein Weckruf. Zwar sind wir für unsere Zuverlässigkeit und hohe Qualitätsansprüche berühmt, aber was nützt das, wenn darüber die Digitalisierung verschlafen wird. Ich hoffe, dass KIX dazu beitragen kann, Deutschland und sein ‚Made in Germany‘ auch global wieder ganz nach vorn zu bringen.“

Weitere Informationen:
kixdesk.com

Kontakt zum Unternehmen:

c.a.p.e. IT® GmbH
Schönherrstr. 8
09113 Chemnitz
Telefon: +49 (371) 27095620
Telefax: +49 (371) 27095625
http://www.cape-it.de

Aufmacherbild / Quelle / Lizenz
Photo by Carl Heyerdahl on Unsplash

Global abgesichert

Um auch jenseits der eigenen Landesgrenzen handlungsfähig zu bleiben, benötigen Unternehmen Policen für eine weltweite Absicherung.