Gute Musik braucht nicht immer das ganze Orchester

Von Thomas Golatta, Managing Director Macaw Germany

Thomas Golatta vergleicht Marketing mit einer Oper, bei der auch nicht immer alle Musiker gleichzeitig spielen.

Immer bessere digitale Produkte auf den Markt bringen, personalisierte Kundenerlebnisse mit Mehrwert bieten, nahtlose Customer Journeys schaffen, digitale Exzellenz anstreben, Omnichannel statt Multichannel kommunizieren – Marketingabteilungen stehen heute angesichts der hohen Anforderungen ganz schön unter Druck.

Wie ist das alles zu schaffen? Zwar haben viele Unternehmen inzwischen teure Digital-Experience-Plattformen (DXP) angeschafft und ihre Mitarbeitenden geschult, optimale Resultate bleiben aber trotzdem aus. Die ersehnte perfekte Customer Journey ist in weiter Ferne.

Warum das so ist, lässt sich gut erklären. Für ein ansprechendes und nahtloses digitales Kundenerlebnis müssten die Instrumente der DXP immer wieder passend zusammengestellt und an neue Anforderungen angepasst werden. Das Austauschen und Hinzufügen einzelner Komponenten erlauben monolithische All-in-One-DXP aber nicht, weil dafür immer gleich das Gesamtsystem geändert werden muss. Das Gleiche gilt häufig auch für notwendige Anpassungen am Frontend, da diese Lösungen meistens noch die Flexibilität eines Headless-Ansatzes mit gesondertem Frontend vermissen lassen. Diese Behäbigkeit macht Marketingaktionen unnötig langsam und teuer.

Aber es braucht nicht immer ein ganzes Orchester, um stimmige Musik zu machen. Beethoven hat seine neunte Sinfonie schließlich auch nicht für alle verfügbaren Instrumente komponiert. Beim digitalen Marketing ist es nicht anders.

Deshalb sind composable DXP (cDXP) die Zukunft. Die technologischen Komponenten, die für eine nahtlose Customer Journey erforderlich sind, können flexibel und einfach zusammengesetzt werden. Durch die zugrunde liegende Software-as-a-Service-Technologie muss sich die IT gar nicht mit komplexen Integrationsaufgaben beschäftigen. Der modulare Ansatz erlaubt, dass notwendige Anpassungen rasch realisiert werden. Neue Ideen werden somit schneller marktfähig.

Die folgenden Eigenschaften machen cDXP so effizient:

  • Sie basieren auf einer MACH-Architektur. Diese Struktur steht für größte Flexibilität. Microservices und eine API-first Philosophie sorgen dafür, dass Änderungen und Aktualisierungen an den einzelnen Bestandteilen leicht umgesetzt werden können.
  • Sie laufen als SaaS-Lösung komplett in der Cloud, so dass alle Komponenten leicht und bedarfsgerecht skaliert werden können.
  • Sie sind zudem headless, das heißt Frontend ist vom Backend getrennt und somit noch flexibler.

Digital Experience Lösungen mit einem composable Ansatz sind besonders zukunftsfähig. Durch die geringere Abhängigkeit von einem Hersteller sind Marketingabteilungen insbesondere beim Ergänzen spezieller Lösungen hochflexibel. Anders ausgedrückt: Der Weg ist frei, um eine perfekte Customer Journey zu gestalten; insbesondere durch einen niedrigen Vendor-Lock-in-Effekt.


Der composable-Ansatz ist übrigens nicht nur für das digitale Marketing zu empfehlen. Wenn die komplette IT dieser Philosophie folgt, entsteht ein kundenorientiertes und schnelles Business, mit dem Unternehmen die Konkurrenz bei der Geschwindigkeit von Implementierungen überholen werden.


In der Praxis können Marketingabteilungen durch die flexible Struktur zusätzliche Bausteine einfach hinzufügen und so eine neue Experience schaffen. Ob Self-Services mit integriertem Contact Center, das Verbinden von Content und Commerce, die Integration von Marktplätzen oder das Einbinden von Geschäftspartnern in die Digital Experience – all das ist mit einer composable DXP deutlich einfacher und kostensparender möglich.

Mal ehrlich, wer nutzt schon die endlose Liste an Funktionen der monolithischen DXPs? In der composable Variante können Marketingteams nur die Funktionen aktivieren und bezahlen, die sie wirklich verwenden. Diese gezielte Nutzung hilft, Kosten und Investitionen zu optimieren; auch, weil die neue Technik die IT entlastet.

Technologie sollte die Arbeit von Marketing-Teams unterstützen. Genau das leistet cDXP. Dieser zentrale Zugangspunkt führt den kompletten Mar-Tech-Stack zusammen, einschließlich Content-Management, Marketing-Automatisierung, E-Commerce, Personalisierung und Analysen. Mit cDXP können Marketingexperten eine wirklich nahtlose Customer Journey viel leichter erreichen und Verbraucher in allen Phasen des Customer Lifecycle bestmöglich unterstützten

Der composable-Ansatz ist übrigens nicht nur für das digitale Marketing zu empfehlen. Wenn die komplette IT dieser Philosophie folgt, entsteht ein kundenorientiertes und schnelles Business, mit dem Unternehmen die Konkurrenz bei der Geschwindigkeit von Implementierungen überholen werden und gleichzeitig auf alle unvorhergesehenen Ereignisse besser und flexibler reagieren können.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

IT-Schwachstellen beseitigen: technische Mittel sind nicht genug

Der Druck, der auf der Softwareentwicklungsabteilung lastet, ist hoch. Daher wird gerne nach probaten „schnellen Mitteln“ Ausschau gehalten. Warum das zwar verständlich, im Grunde aber keine gute Idee aus Sicht der Sicherheit ist, erläutert Laurie Mercer, Security Engineer bei HackerOne.

„Hacker sind letztlich eine zusätzliche Ressource für Unternehmen, um Lücken in ihrem Wissen über Cybersicherheit und Angriffsflächen zu identifizieren“, erläutert Laurie Mercer.

Beinahe täglich kann man über Cyberattacken lesen, die ganze Unternehmen oder Verwaltungen lahmlegen. Insbesondere Ransomware erfreut sich wachsender Beliebtheit unter Cyberkriminellen, weil eine gelungene Attacke sehr häufig zu kommerziellem Gewinn führt. Darüber hinaus bleiben staatlich geförderte Gruppen von Cyberkriminellen gefährlich, die sich insbesondere auf Industriespionage kaprizieren. Während sie mit einer erfolgreichen Sensibilisierung der Belegschaft bereits einen Sicherheitsgewinn erzielen können, dürfen Organisationen die Absicherung der IT-Infrastruktur nicht vernachlässigen. Insbesondere staatlich geförderte Cyberkriminelle sind häufig technisch versiert und verfügen über geeignete Tools, Sicherheitslücken zu finden und auszunutzen.

Standardlösungen sind gefährlich

Eine besondere Herausforderung für die IT-Sicherheit stellt der zunehmende Einsatz von weit verbreiteten Softwarebibliotheken dar. Viele Organisationen wollen das Rad nicht neu erfinden und greifen darum auf verbreitete Softwarebibliotheken zurück, mit deren Hilfe sich Funktionen realisieren lassen, die nicht spezifisch für eine bestimmte Organisation sind. So verständlich es ist, dass Organisationen verstärkt auf diese Bibliotheken zurückgreifen, so viel Vorsicht ist bei ihrer Nutzung geboten. Die besondere Gefahr dieser Bibliotheken besteht nicht nur darin, dass sich eventuelle enthaltene Sicherheitslücken sehr weit verbreiten, sondern auch darin, dass es sich im Falle von Schwachstellen nicht selten um Zero-Day-Lücken handelt, für die es bei Bekanntwerden keine Lösung gibt. Folglich fokussiert sich ein großer Teil der Cyberkriminellen auf genau diese Lücke, wie es beispielsweise bei der „Log4J“ genannten Sicherheitslücke der Fall war.

Umsicht bei der Implementierung

Die Nutzung dieser Bibliotheken sollte darum mit besonderer Umsicht erfolgen. Es gilt, die Bibliotheken im Vorfeld auf Herz und Nieren zu prüfen. Eine Code-Review durch nicht an der Entwicklung beteiligte Kollegen sollte ebenso zum Repertoire gehören wie der Einsatz entsprechender automatisierter Werkzeuge. Auf diese Weise lassen sich einige Schwachstellen identifizieren. Je umfangreicher und komplexer eine Software-Komponente allerdings wird, desto schwieriger und langwieriger wird es, potenzielle Sicherheitslücken zu finden. Und je später dies im Entwicklungsprozess passiert, desto aufwändiger wird die Beseitigung.

Zudem hat sich durch die moderne, agile Software-Entwicklung mit Continuous Development (CD) und Continuous Integration (CI) die Bereitstellung neuer Komponenten erheblich beschleunigt. Das lässt keine Zeit mehr für lange Prüfzyklen neuer Software.

Tools zur Kontrolle

IT-Sicherheitsverantwortliche können auf eine Reihe von Tools zurückgreifen, die Ihnen helfen Sicherheitslücken zu entdecken und zu patchen. Schwachstellen-Scanner erkennen und klassifizieren Schwachstellen, sodass die IT-Sicherheitsverantwortlichen ihre Behebung entsprechend priorisieren können. Einige Tools können auch helfen, die Wirksamkeit von Gegenmaßnahmen einzuschätzen. In der Regel vergleichen diese Tools die Details der Infrastruktur und Software einer Organisation mit einer Datenbank, die Informationen über bekannte Sicherheitslücken in Diensten und Ports sowie Anomalien im Paketaufbau und Pfade zu ausnutzbaren Programmen oder Skripten enthält. Organisationen können sich auch entschließen, die Sicherheitskontrolle teilweise auszulagern und einen Anbieter mit einem klassischen Penetrationstest zu beauftragen. Die Anbieter dieser Penetrationstest nutzen in der Regel Standardverfahren und ihre eigenen Tools für die Tests, die in ihrer Funktionsweise kaum von den Schwachstellen-Scannern abweichen, mit denen Organisationen selbst Sicherheitslücken auffinden können.

Dein Freund der Hacker

Schwachstellen-Scanner und Penetrationstests haben allerdings einen entscheidenden Nachteil: Sie folgen einem weitgehend standardisierten Verfahren und verfügen nicht über die Kreativität und kriminelle Energie eines Cyberkriminellen. Idealerweise sollten Menschen mit der Kreativität eines Cyberkriminellen die Suche nach Schwachstellen übernehmen. Das scheinen aber per Definition Menschen zu sein, denen man nicht vertrauen kann. Tatsächlich gibt es aber ethische Hacker, deren Know-how und Kreativität beim Aufspüren von Sicherheitslücken für Organisationen einen wertvollen Beitrag leisten können.

Organisationen fehlen oft die Ressourcen und Fähigkeiten, um ihre Angriffsfläche vollständig zu überwachen. Hacker sind letztlich eine zusätzliche Ressource für Unternehmen, um Lücken in ihrem Wissen über Cybersicherheit und Angriffsflächen zu identifizieren und so ihr Risiko zu minimieren. Sie helfen Unternehmen, die potenziellen Einfallstore für Cyberkriminelle in ihrer IT-Infrastruktur zu finden, die ihnen bisher entgangen sind.

Zu finden sind diese ethischen Hacker über Bug-Bounty-Plattformen wie HackerOne, die als Mittler zwischen Organisationen und diesen Hackern fungieren. Zudem tragen sie dafür Sorge, dass alle Beteiligten aus der gemeinsamen Arbeit einen Nutzen ziehen, indem sie als Berater fungieren, die den Erfolg des Programms und die Kommunikation der Beteiligten optimieren. Haben sich die Verantwortlichen einer Organisation für eine Zusammenarbeit mit Hackern entschieden, wird letzteren erlaubt – abhängig von der jeweiligen Vereinbarung und den Zielen – z.B. in Konfigurationen von Anwendungen, Webseiten, Apps oder Infrastrukturen nach Sicherheitslücken zu suchen.

Unternehmen benötigen im Prinzip jemanden „mit krimineller Energie“.

Die Bezahlung der Hacker basiert auf einem zuvor vereinbarten Prämienmodell. Kosten entstehen dem Unternehmen also nur dann, wenn die Hacker Sicherheitslücken finden und die für den Prozess vorgesehenen Verfahrensweisen einhalten. Gewöhnlich unterscheidet sich die Höhe der Prämie je nachdem, wie gravierend die gefundene Schwachstelle ist. Je schwerwiegender eine Sicherheitslücke ist, desto höher fällt die Prämie aus.

Organisationen profitieren dabei von einem skalierbaren Prozess, um Ausgaben und Kosten immer nachvollziehen und überblicken zu können. Darüber hinaus besteht keine Notwendigkeit, zusätzliche Mitarbeiter einzustellen, sondern externe Sicherheitsprofis kümmern sich um das Auffinden von Schwachstellen.

Da jedoch das Vorgehen der Hacker, also das Eindringen in fremde Systeme, im Grunde illegal ist, müssen sich beide Seiten zunächst rechtlich absichern und vereinbaren, was zulässig ist und was nicht. Dies geschieht mittels sogenannter VDPs (Vulnerability Disclosure Program), die ein zentrales Element des Vertrags zwischen den Hackern und der Organisation darstellen. Auf diese Weise sparen sich die Unternehmen die Zeit, einen solchen Vertrag mit jedem Hacker einzeln abzuschließen. Darum kümmert sich an ihrer Stelle die Bug-Bounty-Plattform.

Fazit

Cybergefahren kennen auch künftig nur eine Entwicklung: ihre Anzahl und ihre Bedrohlichkeit werden weiter zunehmen. Für Organisationen ist es wichtig, den richtigen Mix aus Sensibilisierung ihrer Belegschaft, technischen Mitteln wie Schwachstellen-Scannern und dem Know-how und der Kreativität ethischer Hacker zu finden. Letztlich kann nur der menschliche Faktor den menschlichen Faktoren kriminelle Energie (der kriminellen Hacker) und Verführbarkeit (der Belegschaft) genug entgegensetzen, um die Sicherheit der Unternehmensressourcen zu gewährleisten.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Warum Bluechips nachhaltiger sind als ihre kleineren Pendants

Daniel Feix, Geschäftsführer und Head of Portfolio Management bei I-AM Impact Asset Management GmbH führt aus, warum nachhaltig orientierte Investoren große Unternehmen vorziehen (sollten).

Die Krisen der vergangenen Jahre haben ihre Spuren bei vielen Menschen hinterlassen. So haben die Coronapandemie und der Ukraine-Krieg und die daraus folgenden Entwicklungen wie beispielsweise eine hohe Inflation die Sorgen der Menschen verstärkt. Eine regelmäßig erhobene Umfrage in 28 Ländern durch das Meinungsforschungsunternehmen Ipsos offenbart die größten Ängste. So wurden in der Umfrage von August 2022 die Inflation mit durchschnittlich 39 Prozent als wichtigster Faktor genannt, gefolgt von Armut und sozialer Ungleichheit mit einem Anteil von 31 Prozent und Arbeitslosigkeit mit 27 Prozent. Auch der Klimawandel findet sich mit 17 Prozent auf den vorderen Rängen. Vor allem in Westeuropa hat die Sorge vor dem Klimawandel durch den Hitzesommer 2022 stark zugenommen.

Die Corona-Krise und der Ukraine-Krieg haben die Notwendigkeit einer nachhaltigen Transformation der Wirtschaft, aber auch den großen Rückstand bei der nachhaltigen Energiewende schonungslos offengelegt. Gleichzeitig kam es zu einem kurzfristigen Rückschlag bei der Dekarbonisierung der Energieerzeugung. Intensiv wird darüber diskutiert, längst tot geglaubte Energieformen wie Atomkraft und Kohleabbau wiederzubeleben. Dieser Rückschritt in der nachhaltigen Ausrichtung der Wirtschaft kann aber nicht darüber hinwegtäuschen, dass die Produktion mittel- und langfristig auf saubere Energien umgestellt werden muss, um nicht weiter am Tropf autokratischer Regierungen zu hängen und künftigen Generationen eine Hypothek von Umweltschäden aufzubürden.

„Gemäß des Sorgen-Barometers von Ipsos fürchten sich unter anderem die Menschen weltweit vor den Folgen des Klimawandels. Jedoch beschäftigen aktuell die Auswirkungen der hohen Inflation und die Sorge vor Armut die Menschen noch stärker. ESG-Fonds sollten also nicht nur möglichst nachhaltig sein, sondern auch eine auskömmliche Rendite generieren“, führt Daniel Feix aus.

Die Entschlossenheit in der Gesellschaft, die Wirtschaft nachhaltig zu gestalten, manifestiert sich wiederum in der Geldanlage. So verzeichnen nachhaltige Fonds vor allem in Europa eine hohe Nachfrage. Laut Morningstar nahmen bei europäischen Fonds die Nettomittelzuflüsse im zweiten Quartal 2022 um knapp 31 Mrd. USD zu. Damit lagen die Nettomittelzuflüsse zwar 57 Prozent unter dem Wert aus dem Vorquartal, aber konnten trotz eines schwierigen Marktumfelds noch ein zweistelliges Plus verbuchen. Auf Jahressicht stiegen laut dem Forum für nachhaltige Geldanlagen die nachhaltig angelegten Fondsvolumen auf neue Rekordwerte. In Deutschland nahmen nachhaltige Geldanlagen um 50 Prozent auf 501,4 Mrd. Euro zu. Besonders das Anlagevolumen privater Anleger in entsprechende Produkte stieg stark an und verdreifachte sich auf 131,2 Mrd. Euro. In Österreich zeigt sich das gleiche Bild. Hier nahmen nachhaltige Geldanlagen um 62 Prozent auf insgesamt 63 Mrd. Euro zu. Dieser Rekordwert geht ebenso vor allem auf Privatanleger zurück, die ihr Investitionsvolumen in ESG-Produkte 2021 um 164 Prozent gesteigert haben.

Gemäß des Sorgen-Barometers von Ipsos fürchten sich unter anderem die Menschen weltweit vor den Folgen des Klimawandels. Jedoch beschäftigen aktuell die Auswirkungen der hohen Inflation und die Sorge vor Armut die Menschen noch stärker. ESG-Fonds sollten also nicht nur möglichst nachhaltig sein, sondern auch eine auskömmliche Rendite generieren.

Ein hohes Maß an finanzieller Stabilität und Nachhaltigkeit können Anleger vor allem bei Emittenten von Blue Chip-Aktien vorfinden. Bei Blue Chips handelt es sich um umsatzstarke Aktien großer, internationaler Unternehmen mit einem hohen Börsenwert. Letztere verfügen im Gegensatz zu kleineren Unternehmen oftmals über ein etabliertes Geschäftsmodell, das stabiles Ertragswachstum generiert und eine hohe Profitabilität aufweist. Außerdem sind diese Unternehmen typischerweise durch ein hohes Eigenkapital und eine solide Bonität gekennzeichnet. In wirtschaftlich unsicheren Zeiten gelten diese eher als Fels in der Brandung.


Die Entschlossenheit in der Gesellschaft, die Wirtschaft nachhaltig zu gestalten, manifestiert sich wiederum in der Geldanlage.

Daniel Feix

Nachhaltigkeit als zentrales Element der Unternehmensstrategie

Selbst dem rückständigsten Unternehmen sollte durch die gegenwärtige Energiekrise klar geworden sein, dass eine nachhaltig orientierte Geschäftspolitik einen strategischen Wettbewerbsvorteil nicht nur in langfristiger, sondern auch in kurzfristiger Hinsicht darstellt. Nicht nur Investoren bewerten die Risiken bei nachhaltig aufgestellten Unternehmen niedriger. Auch Kunden, Geschäftspartner und Mitarbeiter können sich angesichts der akut hohen Energiepreise und des Materialmangels sicherer wägen, wenn ein Unternehmen ressourcenschonend und in der Produktion auf erneuerbare Energie setzt. Denn nur so können die Kosten für das Unternehmen im Zaum gehalten, die Profitabilität gesteigert und Verträge eingehalten werden. Die stringente Umsetzung einer ESG-Strategie erfordert jedoch nicht nur finanzielle Investitionen und Anstrengungen im ökologischen Bereich, sondern auch die Forcierung sozialer und Governance-bezogener Kriterien. Zum Beispiel haben verschiedene Studien belegt, dass je höher die Diversität in einem Unternehmen ausgeprägt ist, desto stärker dessen Profitabilität ist. Ein Unternehmen, das Nachhaltigkeit in allen drei Bereichen umgesetzt hat, zeigt, dass es in langfristigen Zeiträumen denkt, dynamisch ist und eine positive Einstellung gegenüber Innovation einnimmt. Dies macht es in kritischen Zeiten und konkreten Krisen dank Flexibilität und Anpassungsfähigkeit resilienter.

Große Unternehmen verfügen über ausreichend finanzielle Polster und Stabilität, um Nachhaltigkeit als eigenständige Säule der Unternehmensstrategie zu etablieren und ESG-Maßnahmen umsetzen zu können. Sei es die Umstellung der Energieversorgung auf erneuerbare Energien, die Etablierung nachhaltiger Mobilität, die Förderung von Diversität in Führungspositionen oder die Bekämpfung von Korruption: Es bedarf vielseitiger Anstrengungen und finanzieller Stärke, um ein Unternehmen umfassend nachhaltig aufzustellen. Laut einer Umfrage der Managementberatung Sopra Steria und dem F.A.Z.-Institut von 2022 messen vor allem Konzerne, im Gegensatz zu kleineren Unternehmen, allen drei Nachhaltigkeitsbereichen (E, S und G) die gleiche Bedeutung bei. In der Praxis werden jedoch über alle Unternehmen hinweg bisher vorwiegend Investitionen im Bereich der Ökologie getätigt. Laut der Umfrage spüren vor allem börsennotierte Großunternehmen den Druck vonseiten des Kapitalmarkts, Nachhaltigkeit ganzheitlich zu denken und entsprechend zu implementieren, da diese immer mehr zum entscheidenden Anlagekriterium wird.

Nachhaltigkeit ist für börsennotierte Großunternehmen von einem Nice-to-have- zu einem Must-have-Kriterium geworden. Dabei können Großunternehmen für kleinere Unternehmen eine Leuchtturmfunktion einnehmen. Eine Studie der Unternehmensberatung Staufen von 2022 offenbart beispielsweise, dass lediglich 26 Prozent der Unternehmen in Deutschland eine Nachhaltigkeitsstrategie aufgesetzt haben. Ganz im Gegensatz zu den Unternehmen aus der DAX-Familie: 76 Prozent der im Auftrag des Deutschen Aktieninstituts befragten Entscheider aus diesen Unternehmen gaben an, im Unternehmen eine Nachhaltigkeitsstrategie etabliert zu haben, die bereits praktisch umgesetzt wird.

Bei Blue Chips im Speziellen erweist sich das starke Engagement institutioneller Investoren als Treiber für Nachhaltigkeit. Letztere können durch ihre hohen Besitzanteile gezielt Einfluss auf die Unternehmensstrategie nehmen. Die „European Asset Allocation Insights“-Studie von Mercer offenbart, dass institutionelle Investoren zunehmend Wert auf eine kohlenstoffarme oder klimabezogene Asset Allocation legen. Auch soziale Aspekte rücken stärker in den Fokus. Eine Studie der Boston Consulting Group zum Engagement aktivistischer Investoren zeigt auf, dass ESG zunehmend eine Rolle bei diesen spielt. Aktivistische ESG-Kampagnen werden längst nicht mehr nur von Hedgefonds betrieben, sondern auch von bisher eher passiven Akteuren wie Asset Managern oder Pensionsfonds, die sich Net-Zero-Asset-Manager-Allianzen verschrieben haben.

Blue Chips sind transparenter

Große Unternehmen und Konzerne, die im Durchschnitt mehr als 500 Mitarbeiter aufweisen und kapitalmarktorientiert sind, wurden schon 2017 durch die CSR-Richtlinie der Europäischen Union dazu verpflichtet, zu nichtfinanziellen Themen zu berichten. Dabei müssen Informationen zu Umwelt, Mitarbeiter, Soziales, Menschenrechte, Anti-Korruption/Bestechung sowie unter bestimmten Voraussetzungen zur Diversität geliefert werden. Durch diesen gesetzlichen Rahmen haben große börsennotierte Unternehmen und Konzerne einen zusätzlichen Anreiz bekommen, ESG zentral in der Geschäftsstrategie zu etablieren. Es wurden eigenständige ESG-Abteilungen aufgebaut, die die nachhaltige Transformation strategisch begleiten und Informationen zu den umgesetzten ESG-Maßnahmen sammeln. Diese Informationen werden wiederum von ESG-Ratingagenturen benötigt, um Unternehmen systematisch nach ihrer Nachhaltigkeit bewerten und mit anderen Unternehmen vergleichen zu können.

Eine hohe Datentransparenz hilft wiederum dabei, Greenwashing vorzubeugen. Denn für nachhaltig orientierte Investoren ist es entscheidend, ob ein Unternehmen nur eine grüne Fassade zur Imagepflege und Marketingzwecken aufrechterhält oder Nachhaltigkeit ernsthaft in ihrer Unternehmensstrategie etabliert hat. Hierbei kann ein aktiver Asset Management-Ansatz eine weitere Absicherung bieten. Denn neben den vom Unternehmen bereitgestellten Informationen nutzt ein Fondsmanager den direkten Kontakt zum Unternehmen, um sich ein eigenes Bild von der gelebten Nachhaltigkeit im Unternehmen zu machen.

Ein nachhaltiger, aktiv gemanagter Fonds, der zusätzlich auf die hohe Qualität von Blue Chips setzt, ist der I-AM GreenStars Opportunities (ISIN R-Tranche: AT0000A2GU35) von Impact Asset Management. Dieser Mischfonds investiert in nachhaltige Aktien und Anleihen von Weltklasse-Unternehmen, die eine hohe Profitabilität, ein stabiles Ertragswachstum und eine niedrige Verschuldung aufweisen. Auch in weniger günstigen Wirtschafts- und Zinszyklen sind die Blue Chip-Unternehmen in der Lage, sich flexibel an die jeweilige Marktsituation anzupassen. Neben Ausschlüssen und Best-in-Class-Kriterien setzt das Fondsmanagement auf aktives Engagement und Stimmrechtsausübung. Diese stringente ESG-Anlagestrategie drückt sich in hohen ESG-Ratings aus: neben der höchsten Bewertung von fünf Globen durch Morningstar weist der I-AM GreenStars Opportunities weitere Top-Ratings durch die Nachhaltigkeits-Research-Anbieter MSCI ESG (AAA) und ISS ESG (5 Sterne) auf.

Weltklasse in allen Belangen

Blue Chip-Unternehmen sind nicht nur Weltklasse bei ihrem Produktportfolio und ihrem Geschäftsmodell, sondern auch in puncto Nachhaltigkeit. Ihre etablierte Marktstellung führt zu einer ausgezeichneten finanziellen Lage. Diese ermöglicht wiederum Investitionen in eine umfassende nachhaltige Transformation des Unternehmens. Neben der Regulierung erweist sich auch der Druck von Investoren, Kunden, Geschäftspartnern und Mitarbeitern zunehmend als Treiber für mehr Nachhaltigkeit. Denn Nachhaltigkeit wird immer mehr als selbstverständlich erachtet. Hier haben sich Blue Chips als Vorreiter etabliert.

„Unternehmen brauchen ein neues Betriebssystem“

„Der größte Hemmschuh in Sachen digitale Transformation ist die mangelnde Bereitschaft für eine neue Führungskultur. Es braucht quasi ein neues Betriebssystem bzw. Operating System, damit Digitalisierung nicht nur in einzelnen isolierten Bereichen stattfindet, sondern innerhalb des großen Ganzen“, sagt Helmut Scherer, Managing Director Deutschland bei der Digital- und Innovationsberatung Futurice im Gespräch mit TREND REPORT.

Herr Scherer, wie können Unternehmen durch die digitale Transformation resilienter werden? 
Werfen wir einen Blick auf die letzten Jahre, dann wird klar, dass Unternehmen von dem Selbstverständnis gelebt haben, dass ihre Produkte den entscheidenden Unterschied im Markt machen. Lange Zeit entsprach dies auch der Realität, da die Märkte stabil waren und dieses Vorgehen Gewinn eingebracht hat. Mittlerweile ist es jedoch so, dass es auf dem internationalen Markt ein großes Angebot an sehr ähnlichen Produkten gibt, welches sich nur noch durch den Preis unterscheidet – so entsteht für die Unternehmen ein enormer Preisdruck, um sich vom Wettbewerb abzugrenzen. 
Die digitale Transformation eröffnet Unternehmen zunächst einmal neue Differenzierungsmöglichkeiten. Durch Investitionen in die Konnektivität sowie die digitale Infrastruktur können Unternehmen Daten generieren und dafür nutzen, zielgerichtete und auf die Kundenbedürfnisse zugeschnittene digitale Geschäftsmodelle zu entwickeln. Die Kombination aus analogem Produkt und digitalen Services erzielt weitaus höhere Preise als der Verkauf von rein physischen Produkten. Ein weiterer Vorteil ist: Durch die Verbindung, die durch diese digitalen Lösungen und Dienstleistungen entsteht, findet ein regelmäßiger Austausch mit den Kunden statt. So werden Unternehmen, die bisher lediglich Produktlieferant waren, zu echten Geschäftspartnern. Der Einblick in die Daten ermöglicht außerdem ein tieferes Verständnis der Produktnutzung und der Kundenbedürfnisse. Dies hilft wiederum dabei Services zu verbessern und Trends frühzeitig zu erkennen. Auf dieser Basis lassen sich weitere Lösungen und Dienstleistungen schaffen. 
Kurz gesagt: Die digitale Transformation macht Unternehmen resilienter, da sie Möglichkeiten schafft, sich vom Wettbewerb zu unterscheiden. Zugleich versetzt es sie in die Lage proaktiv auf Bedürfnisse und Trends einzugehen: Statt nur reaktiv Signale aus dem Markt aufzunehmen, ist durch die Vernetzung und die Generierung von Daten ein vorausplanendes und zielgerichtetes Handeln möglich. Zudem können digitale Geschäftsmodelle durch agile Entwicklungsmethoden schneller an veränderte Umstände angepasst werden. 

In der Vergangenheit hat man nahezu perfekte Prozesse für die Entstehung, Vermarktung und den Vertrieb eines Produktes geschaffen, bevor man damit auf Kunden zugegangen ist. Bei der Entwicklung digitaler Innovationen kommt es hingegen auf iterative, agile und schlanke Prozesse und Methoden an. Es geht darum, stetig Mehrwert an den Markt zu bringen und zu evaluieren, wie hoch der Nutzen ist.

Helmut Scherer

Was verbreitet sind Ihrer Meinung nach diese Erkenntnisse? Was sind Ihre persönlichen Erfahrungswerte?
Entgegen der allgemeinen Meinung, dass deutsche Unternehmen komplett im digitalen Mittelalter leben, sehen wir bei Futurice bei unserer täglichen Zusammenarbeit mit Unternehmen, dass das Bewusstsein für die Notwendigkeit zur Digitalisierung durchaus vorhanden ist. Und das über viele Branchen hinweg, wie z.B. im Mobilitätsektor, Gesundheitswesen oder auch in der Industrie. Das liegt zum einen daran, dass Unternehmen nach Möglichkeiten suchen, den Unternehmenswert zu steigern. Zum anderen an dem stetig steigenden Druck durch den internationalen Wettbewerb. Diesen beiden Aspekten begegnet man am besten durch softwarebasierte Services, die einen signifikanten, messbaren Mehrwert für Kunden bieten. 
Wir sehen, dass diese Einsicht mittlerweile weit verbreitet ist und viele Unternehmen bereits die ersten Schritte auf dem Weg der digitalen Transformation gegangen sind. In den vergangenen Jahren wurde viel in die Vernetzung, Konnektivität und den Aufbau digitaler Infrastruktur investiert. Die Herausforderung jetzt sind die weiteren Schritte: Wie können die Daten, die generiert werden, effizient genutzt werden? Wie entwickelt man daraus innovative Geschäftsmodelle? Und wie bringt man das Unternehmen als Ganzes einen Schritt weiter? 

Sie sagen, es braucht eine neue Führungskultur, ein neues Betriebssystem für Unternehmen. Können Sie das genauer erläutern? 
Wie bereits erwähnt, sind Unternehmen die ersten Schritte auf dem Weg der digitalen Transformation bereits gegangen. Viele Firmen verwenden bei der täglichen Arbeit digitale Tools und erzeugen somit Daten. Werden Unternehmensstrukturen aber nicht geöffnet und die verschiedenen Abteilungen nicht miteinander verbunden, dann laufen digitale Prozesse isoliert und nur innerhalb bestimmter Bereiche ab. Hier die Verbindung wiederherzustellen – zwischen den Menschen, den Daten, Prozessen und Bereichen – ist eine große Herausforderung. Es geht also nicht nur um den Ausbau digitaler Fähigkeiten, es ist eine neue Unternehmensstruktur und damit auch Führung gefragt, die auch vor einer Umstellung der operativen Abläufe nicht Halt macht. 
Außerdem funktionieren digitale Innovationen anders als klassische Produktinnovationen. In der Vergangenheit hat man nahezu perfekte Prozesse für die Entstehung, Vermarktung und den Vertrieb eines Produktes geschaffen, bevor man damit auf Kunden zugegangen ist. Bei der Entwicklung digitaler Innovationen kommt es hingegen auf iterative, agile und schlanke Prozesse und Methoden an. Es geht darum, stetig Mehrwert an den Markt zu bringen und zu evaluieren, wie hoch der Nutzen ist. Dinge, die gut funktionieren und hilfreich für die Kunden sind, werden weiterverfolgt. Lösungen, die keinen Zuspruch finden, lässt man schnell wieder fallen. 
All die beschriebenen Aspekte bedeuten für Unternehmen, die sich bisher eher auf klassische, analoge Produkte konzentriert haben, eine große Herausforderung. Denn um diesen zu begegnen, braucht es einen umfassenden Mindset-, Kultur-, und Organisationswandel – kurz: ein neues Betriebssystem. 

„Viele Unternehmer begreifen bisher ihr physisches Produkt als den zentralen Punkt der Kundenbedürfnisse. Einfach gesagt: das Produkt ist die Sonne und der Kunde der Planet, der sich darum dreht. Doch dieses Denken ist nicht mehr zeitgemäß“, erläutert Helmut Scherer.

Was also raten Sie jetzt ganz konkret den Führungskräften? 
Die Führungskräfte müssen sich darüber klar werden, dass die Zeiten, in denen die Informationshoheit und alle Entscheidungsgewalt bei ihnen lagen, vorbei sind. Das Stichwort ist hier: data driven decision making. 
Durch die stetige Generierung, Nutzung und Validierung von Daten, stehen diese jedem im Unternehmen zur Verfügung. Das kommt einer Demokratisierung der Entscheidungsfindung gleich. Das Management sollte diese Transparenz unbedingt zulassen – auch wenn es sich im ersten Moment nach einem Machtverlust anfühlt. Denn dadurch entstehen viele Vorteile: es macht Unternehmen agiler und reaktiver und schafft so einen Wettbewerbsvorteil. Für die Implementierung erfolgreicher digitaler Prozesse und die Entwicklung innovativer Services ist größtmögliche Transparenz unerlässlich. 
Außerdem muss sich der Fokus stärker auf die Customer Experience richten. Viele Unternehmer begreifen bisher ihr physisches Produkt als den zentralen Punkt der Kundenbedürfnisse. Einfach gesagt: das Produkt ist die Sonne und der Kunde der Planet, der sich darum dreht. Doch dieses Denken ist nicht mehr zeitgemäß. Vielmehr ist es heutzutage so, dass der Kunde sich in einem Ökosystem (oder Planetensystem) aus Produkten und Dienstleistungen befindet, die seinen Anforderungen und Bedürfnissen entsprechen. Diejenigen, die in einem solchen System geschickt ihren Platz finden, oder gar ein solches System definieren, zählen zu den Gewinnern. 
Als letzten Punkt raten wir Unternehmen unbedingt, Investitionen in Digitalisierung und Innovation nicht zurückzufahren. Futurice ist in vielen verschiedenen Ländern tätig und diesen Trend sehen wir vor allem in Deutschland. Sobald sich eine Krise zeigt – und momentan müssen wir mit vielen Krisen und Herausforderungen parallel zurechtkommen – werden Investitionen auf das Kernprodukt beschränkt. Investitionen in digitale Dienste oder Produkte, die den Wert des Kernprodukts erhöhen, werden hingegen stark eingeschränkt. In Skandinavien z.B. sehen wir diesen Trend nicht, Investitionen werden in gleichem Maße im analogen als auch digitalen Teil von Produkten fortgeführt. Beide Aspekte sind gleich wichtig – dieses Bewusstsein ist noch nicht komplett in deutschen Führungsebenen angekommen. 

„Der Fisch stinkt immer vom Kopf her!“ – Gibt es Management-Fehler, die sich aus Ihrer Sicht immer wiederholen? 
Für die Digitalisierung gibt es kein Universalrezept – auch wenn viele Manager das glauben mögen. Problematisch ist immer wieder, dass an Probleme vom falschen Ende aus herangegangen wird. Viele denken zuerst an die Lösungsmöglichkeiten: Künstliche Intelligenz, Machine Learning, Security – das alles sind Technologien, die jeder gerne in seinem Unternehmen verwenden möchte, weil sie als der Inbegriff der Digitalisierung gelten. Aber passen diese Technologien auch wirklich zu den Problemen, die es zu lösen gilt? Sich diese Frage zu stellen wird oft vergessen, ist aber essentiell. Nur so kann man die genannten Begriffe mit Leben füllen und die Herangehensweisen, Prozesse und Lösungen definieren, die zu den jeweiligen Unternehmenszielen passen. 
Ein weiterer Fehler, der sich oft wiederholt, ist, dass verkannt wird, dass die digitale Transformation eine langfristige Initiative ist. Wie bereits erwähnt, geht es dabei meist um einen umfassenden Kulturwandel im Unternehmen. Das benötigt viel Zeit – kurzfristige KPIs sind da zu kurz gegriffen. Deshalb wäre es beispielsweise viel besser bei Transformationsprojekten nicht auf Quartalszahlen zu schauen, sondern darauf zu blicken, wie sich der gesamte Unternehmenswert über einen längeren Zyklus entwickelt. 

Wir leben in einer Zeit, in der sich Technologien gegenseitig beschleunigen im Sinne ihrer Weiterentwicklung. Laufen wir Gefahr zu einer „Wirtschaft der zwei Geschwindigkeiten“ zu werden? 
Verpassen es Unternehmen die digitale Transformation mitzugehen und bleiben bei rein analogen Angeboten stehen, dann besteht diese Gefahr durchaus. 
Allerdings ist es doch heute schon so, dass man die digitale von der analogen Welt kaum mehr trennen kann. Beide Zweige sind gleich wichtig und sollten daher auch zusammen gedacht werden. Wenn man hier eine starke Verbindung schafft, dann gibt es auch keine zwei Geschwindigkeiten. 
Hier kommt auch wieder der Ökosystem-Gedanke ins Spiel. Ein Ökosystem ist ein Netzwerk aus unterschiedlichen Komponenten. verschiedenen Akteuren, Dienstleistungen, Plattformen und Produkten, All diese Aspekte bauen aufeinander auf, sind voneinander abhängig und verstärken sich gegenseitig. Findet man als Unternehmen seinen Platz in einem solchen Ökosystem, kann man gemeinsam mit anderen Playern einen Mehrwert für Kunden erschaffen und von der Zusammenarbeit profitieren. 


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Kundendialog entlang der Customer Journey automatisieren

Neue Kundenanforderungen verändern die Customer Journey. Der persönliche Austausch vor Ort war und ist aus Pandemiegründen oft nicht möglich – und unabhängig davon aufwendig. So führt der Wunsch nach Beratung in Echtzeit zu mehr Videokommunikation, aber auch Chat-/Voice- oder Sales-Bots werden immer wichtiger. Durch die gestiegene Zahl digitaler Touchpoints beispielsweise für beratungsintensive Artikel können Unternehmen Kundendaten sammeln, analysieren und dadurch die Customer Experience weiter verbessern und personalisieren. Voraussetzung ist, dass sie die Kundeninteraktion automatisieren und die Touchpoints erfolgreich verwalten. Bernhard Egger vom Softwarehersteller BSI fasst wichtige Merkmale zusammen, mit denen der Trend zum automatisierten Kundendialog unter dem Begriff „Conversational Automation“ beschrieben wird.

Der CEX Trendradar 2022, definiert Conversational Automation als „die digitalen und teilweise automatisierten Dialogmöglichkeiten eines Unternehmens, die mithilfe menschlicher und nichtmenschlicher Unterstützung […] stattfinden.“ Der Austausch zwischen Unternehmen und Kundschaft kann dabei text-, sprach- oder videobasiert sein und über Instant-Messenger, Live-Chat, Chatbots, Voicebots, Voice Assistants, Smart Speaker sowie Video erfolgen. Messenger-Dienste nutzen viele bereits privat, so dass sie mit ihnen vertraut sind. Der Vorteil von Bots ist, dass sie Kunden 24 Stunden täglich, also auch außerhalb der regulären Geschäftszeiten, zur Verfügung stehen.

Bernhard Egger: „Conversational Automation eignet sich auch, um proaktiv auf (potenzielle) Kunden zuzugehen.“

Die verschiedenen digitalen Assistenten übernehmen dabei heute auch komplexere Anfragen. Sie entwickeln sich kontinuierlich weiter und verbessern ihre Fähigkeiten mithilfe Künstlicher Intelligenz (KI), Sprache zu erkennen und sogar Absichten zu entschlüsseln. Damit die Bots personalisierte Anliegen bearbeiten können, benötigen sie Zugriff auf unternehmensinterne Informationsquellen – genauso wie ihre menschlichen Kollegen. Im Optimalfall liegen die benötigten Daten nicht verteilt über mehrere Datensilos ab, sondern in einem zentralen Customer-Relationship-Management (CRM)-System. Dann können die Bots Liefertermine mitteilen und Adressänderungen vornehmen, ohne dass menschliche Kolleginnen in den Vorgang eingreifen müssen. Hier gilt allerdings, je unklarer das Anliegen und je stärker dabei kritische Emotionen involviert sind, desto wichtiger ist es, dass ein Mitarbeiter den Prozess kontrolliert. Auf keinen Fall sollte eine Kundin in einem Prozess eine Frage mehrfach stellen oder sogar einem Mitarbeiter erklären müssen, was der vorige Ansprechpartner – Mensch oder Maschine – geäußert hat.

Menschen und Maschinen vernetzen

Der Austausch zwischen Bot und Informationsquelle ist deshalb auch in die andere Richtung unerlässlich, damit die Interaktion zwischen Kunde und Bot dort erfasst wird. Geht es um eine Adressänderung, kann ein Chatbot diese beispielsweise an das CRM-System des Unternehmens weiterleiten. Meldet sich derselbe Kunde nach dem Chat mit dem digitalen Assistenten telefonisch bei einer Mitarbeiterin, kann diese im Gespräch an den vorangegangenen Austausch anknüpfen, indem sie die Informationen aus dem CRM-System zu Rate zieht. Neben Kommunikation mit Bots oder Beschäftigten, gehören auch Webseitenbesuche und Social-Media-Interaktionen weiterhin zu den Touchpoints, die es zu tracken gilt, um ein möglichst umfassendes Bild des Kunden zu haben. Hier setzen Unternehmen häufig auf sogenannte Customer-Data-Plattformen (CDP) als End-to-End-Systeme, die eine dauerhafte, einheitliche Kundendatenbank in Echtzeit erstellen.

Das Beispiel zeigt auch, dass es nicht reicht, nur die Daten aus den digitalen Touchpoints in die Datenbasis eines Unternehmens einzuspeisen. Auch Telefonate und persönliche Gespräche mit Beschäftigten sind zu erfassen, damit alle Informationen zum Kunden an einem Punkt zusammenlaufen und allen Ansprechpartnern – Menschen und Maschinen – zur Verfügung stehen.

Bei den oben genannten Dialogen handelt es sich um Beispiele aus dem Kundenservice, aber Conversational Automation eignet sich auch, um proaktiv auf (potenzielle) Kunden zuzugehen. So interessieren sich laut CEX Trendradar 2022 auch Marketing und Vertrieb mehr und mehr dafür. Die Autoren schreiben dem Trend Potenzial für die Such-, Kauf- und Bestellphase der Customer Journey zu.

Mit Conversational Automation die Customer Experience verbessern

Die gesammelten Informationen aus den Interaktionen einer Kundin mit dem Unternehmen können Marketing und Vertrieb nutzen, um die Customer Journey besser auf sie zuzuschneiden. Kommuniziert sie per Video, chattet sie über die Website oder meldet sie sich im Instant Messenger? Und zu welcher Tageszeit beschäftigt sie sich mit dem Angebot eines Unternehmens? Welche Informationen hat sie auf der Website gesucht und zu welchem Thema persönlich mit ihrem Kundenberater gesprochen?

Laufen die Informationen aller Touchpoints – nicht nur die der Conversational-Automation-Tools – in einer Lösung zusammen, lassen sie sich analysieren, um diese Fragen zu beantworten. Kundenberater, Marketing oder Vertrieb können anschließend mit relevanten Inhalten zum passenden Zeitpunkt über den bevorzugten Kommunikationskanal der Kundin an sie herantreten. Verfügt das Unternehmen über eine Marketing-Automation-Lösung, lässt sich auch dieser Schritt automatisieren. Das verbessert mit wenig Personaleinsatz die Kundenerfahrung und erhöht die Erfolgschancen, die Customer Journey voranzutreiben.

Conversational Automation in der Praxis bei Versicherern

In der „IFZ Conversational Insurance Studie 2022“ geht es um Kommunikationskanäle von Versicherungen. Sie nennt auch Beispiele für den Einsatz von Chatbots selbst in dieser eher konservativen Branche. HDI-Kunden können in Deutschland bereits seit 2019 mit dem Chatbot Lizzy kommunizieren. Lizzy sollte es Kundinnen anfangs hauptsächlich ermöglichen, rund um die Uhr zusätzliche Mitfahrer zu versichern. Mittlerweile hat sich ihr Portfolio stark erweitert und sie führt nach Angaben der Versicherung täglich rund 500 automatisierte Unterhaltungen im Kundenportal.

Das erfolgreiche Beispiel zeig: Ein Chatbot kann Beschäftigten Arbeit abnehmen, ein großer Vorteil in Zeiten mit Fachkräftemangel. Außerdem können Unternehmen Bots zunächst für eine konkrete Aufgabe einsetzen und seine Fähigkeiten nach und nach ausbauen.

Auch der BSI-Kunde Arvato Supply Chain Solutions, ein Anbieter von Order-to-Cash-Lösungen für endkundenorientierte Industrien, setzt für E-Commerce-Kunden aus der Mode-, Beauty- und Lifestyle-Branche einen Chatbot ein. Er ist komplett in das BSI CRM eingebunden, das sorgt für einen nahtlosen Informationstransfer zwischen dem virtuellen Agenten und den Mitarbeiter im Customer Service über alle Kontaktkanäle hinweg. Durch Künstliche Intelligenz kann der Chatbot teil- und vollautomatisierte Prozesse in BSI starten, entsprechende Fragen an den Kunden richten und passende Antworten zur Verfügung stellen. Dabei kann der digitale Assistent den Chat mit dem Kunden jederzeit nahtlos an einen Agenten im Customer Service übergeben.

Conversational Automation – vom Trend zum Alltag

Conversational Automation als Überbegriff für dialogbasierte Kommunikation zwischen Unternehmen und Kunden umfasst ein breites Feld. Verantwortliche, die diesen Trend umsetzen möchten, können mit einer Komponente beginnen und Kunden per Instant Messaging oder Bot zunächst auch nur einzelne Funktionen anbieten. Darauf können sie anschließend aufbauen, um die Customer Experience Schritt für Schritt zu verbessern. Dabei dürfen sie klassische Kommunikationskanäle jedoch nicht aus den Augen verlieren. Menschen kommunizieren gerne mit Menschen. Diese Option sollte deshalb weiterhin an zentralen Stellen der Customer Journey verfügbar sein, auch wenn automatisierte Dialoge weiterentwickelt werden, Bots mehr und mehr Aufgaben übernehmen können und vom Zukunftstrend zum alltäglichen Kommunikationspartner werden.

Über den Autor:

Bernhard Egger ist Retail Community Manager beim Softwarehersteller BSI. Sein Herz schlägt für intelligenten und gleichzeitig menschlichen Kundenservice. www.bsi-software.com


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hypebeasts, Pop Culture, and the Sneakerverse: Know Your Audience

Ryan Mullins und Sasha Wallinger warteten die 6. Themenwoche der Web3 Learning Journey mit einigen Tipps auf, wie Brands die Beziehung zu ihren Kund:innen pflegen und fördern können – natürlich mithilfe von Web3-Technologien.

In den zwei Wochen der Web3 Learning Journey, in denen wir uns gemeinsam mit Mark Rolston und Journee auf das Metaverse konzentriert haben, lernten wir vor allem Folgendes:

  • Durch das Metaverse schaffen wir neue Wege, um miteinander zu interagieren
  • Wir werden neue Verhaltensweisen entwickeln – sowohl virtuell als auch analog

Da stellt sich automatisch die Frage: Wie können Brands die Welt des Web3 nutzen, um in Sachen Kundenbeziehungen und -interaktionen neue Maßstäbe zu setzen? Dafür haben wir Ryan Mullins, Gründer von Aglet, und Sasha Wallinger, Head of Web3 and Metaverse Strategy bei Journey, eingeladen. Sie haben uns genau erklärt, wo die Potenziale liegen und wie Brands diese ausschöpfen können und sollten.

Die Brücke zwischen Brand und Verbraucher

Ryan und Sasha betrachten sich selbst als Brückenbauer, die die Verbindung zwischen modernen und neuartigen Brand Experiences und Verbraucher:innen herstellen. Ryan dazu: „Im Web2 liefern Brands den Verbraucher:innen lediglich statische Informationen. Im Web3 entfernen wir uns davon und bewegen uns mehr in Richtung direkte und interaktive Brand-Kommunikation.“

Sasha vergleicht die Beziehung zwischen Brands und Verbraucher:innen mit einer Art Tanz: „Es entstehen so viele Bereiche, in denen man mit Zielgruppen kommunizieren und sich mit ihnen vernetzen kann. Das Ziel einer Brand sollte es sein, bedeutungsvolle und intime Interaktionen mit und individuelle Erfahrungen für Verbraucher:innen zu schaffen.“

Gamification im Web3

Wo User heute lediglich durch den Instagram Feed einer Brand scrollen, sehen viele in Zukunft stärkere Interaktionen zwischen User und Brand durch Bewegung, virtuelle Präsenz und Gamification. Genau diese Vision verfolgt Aglet: Die App nutzt sowohl Web2- als auch Web3-Features, um eine Community aufzubauen. Diese soll die Brand erleben und „spielen“. Das ergibt Sinn, denn mittlerweile sind viele Digital Natives mit dem Begriff „Gamification“ vertraut.

Sasha ist überzeugt davon, man müsse tief in das Mindset von Verbraucher:innen eintauchen und die neue Generation verstehen: „Warum bedeutet ihnen das Konzept der Gegenkultur so viel? Und wie übersetzen wir diesen Insight für die jeweilige Brand?“ Er sieht ein enormes Potenzial in Gamification. Es platziert Spielszenarien in ein Unternehmensumfeld – inmitten von Menschen, die über ausreichende Mittel verfügen, um Systeme zu verändern und einen Wandel voranzutreiben.

Web 2.5: Ein bisschen liegt noch vor uns

Sasha glaubt, dass wir uns derzeit in einer Zwischen- oder vielmehr einer Brückenbauphase befinden, und bezeichnet den aktuellen Status quo des Internets als „Web 2.5“. Den größten Einfluss, den Verbraucher:innen (und Brands) in diesem Zustand haben: Sie können spannende virtuelle Realitäten schaffen, die interaktiv und für viele User interessant sind.

„Es handelt sich dabei um eine Welt voller Baumeister und Ideenschöpfer“, sagt sie. „Das Web3 soll auch Spaß machen. Es schafft verschiedene Ebenen und Räume für Spielereien und Intimität.“

„Beim Wandel von Web2 und Web3 geht es weniger darum, das Web2 vollkommen hinter sich zu lassen.“ Für Ryan entsteht in Zukunft ein hybrider Raum mit Eigenschaften aus beiden Welten. Brands müssen Kund:innen hier die Wahl lassen, welche Tools sie nutzen wollen – so, wie es Aglet auch macht. In der App können User entweder NFTs sammeln oder aber auch die Sneakerverse-Erfahrung aus der Ferne genießen. „Vielleicht haben dich die NFTs zu uns gelockt, doch die Community und das Spiel sind es, die dich zum Bleiben bewegen.“


In die Keynotes reinhören:


Lesen Sie mehr zum Thema


Bildquelle / Lizenz Aufmacher:

Photo by Peri Stojnic on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Inflation, Lieferengpässe, Gasnotstand: Diese Maßnahmen sollten Unternehmen jetzt ergreifen

Karsten Schulze und Dr. Henning Syllwasschy, Vorstand und Partner bei FTI Andersch, haben für uns Faktoren zusammengetragen, mit denen Unternehmen die kommenden Monate wirtschaftlich vernünftig überstehen können.

Kakteen wachsen in unwirtlichen Umgebungen. Eventuell werden die kommenden Monate für Unternehmen auch eher „unwirtlich“. Dazu müssen sie sich jetzt vorbereiten. Unsere Autoren erklären wie.

Zinserhöhungen, restriktivere Kreditvergaben, auslaufenden Staatshilfen und die konjunkturelle Eintrübung haben das Potenzial, selbst robuste Unternehmen zu überfordern. Darüber hinaus stellen weiterhin stark angespannte Lieferketten, eine drohende Gasnotlage und die damit verbundenen inflationären Auswirkungen Unternehmen vor gravierende Herausforderungen. In einer aktuellen Umfrage durch FTI, dem FTI Resilience Barometer, gehen 74% der deutschen Befragten davon aus, dass ihre Lieferketten dauerhaft gestört sind. Nach einem vergleichsweise geringen Niveau der Insolvenzen im ersten Halbjahr 2022 könnte sich dieses Bild kurzfristig ändern.

Das Gros der Unternehmen versucht nach Einschätzung von FTI-Andersch nach wie vor aktiv einen neuen Modus Vivendi nach der Pandemie zu finden – allerdings nun in einer noch viel komplexeren Weltlage. Noch nicht vollumfänglich eingepreist sind hierbei häufig die Auswirkungen von Ukraine-Krieg und Inflation auf das Konsumklima.

Aktuelle Herausforderungen 

Die Probleme in den Lieferketten führen bei vielen Unternehmen zu einer deutlich höheren Kapitalbindung – sowohl durch höhere Bevorratung als auch durch Verzögerungen bei der Auslieferung. Laut Statistischem Bundesamt hat in Folge der Lieferkettenthematik der Auftragsbestand des Verarbeitenden Gewerbes per Juni 2022 einen Höchststand seit Beginn der Erfassung im Jahr 2015 erreicht. Höhere Einkaufspreise und nur sehr restriktive Erhöhungen der Limite durch die Warenkreditversicherer tragen zusätzlich zum Liquiditätsbedarf bei.

74 Prozent der befragten Unternehmen sagen, dass ihre Lieferketten auf Dauer gestört sind. Quelle: Disruption der Lieferketten: FTI Resilience Barometer 2022

Verlässliche Prognosen, bis wann sich bestimmte Tendenzen wieder normalisiert haben sollten, sind derzeit oft nicht möglich. Vor diesem Hintergrund sind klassische Planungsansätze wie z.B. historische Working Capital Laufzeiten (DSO, DIO, etc.) nur sehr eingeschränkt zur Vorschau und Ableitung von Liquiditätsbedarfen geeignet.

Maßnahmen für ein aktives Liquiditätsmanagement

Aufgrund der beschriebenen Unsicherheitsfaktoren sollten Unternehmen sicherstellen, dass Sie selbst bei ungünstigen Entwicklungen über ausreichende Liquiditätsreserven verfügen. Neben engmaschigem Liquiditätsmonitoring ist es wichtig, Szenarioanalysen in der Liquiditätsvorschau zu inkludieren. Auf dieser Basis können dann potenzielle Finanzierungsbedarfe abgleitet und möglichst frühzeitig bei den Finanzierungspartnern adressiert werden.



Darüber hinaus kann ein aktives Cash-Management bisher ungenutzte Liquiditätspotenziale heben. Ungeeignete Tools in uneinheitlichen IT-Landschaften und geringe Erfahrung mit der Implementierung geeigneter Prozesse bremsen die Bemühungen häufig ein. Eine zeitgemäße Working-Capital-Optimierung lässt sich unabhängig von der Unternehmensgröße nur mit digitalen Technologien realisieren. Diese ermöglichen es, Bewegungs- und Bewertungsdaten auf Einzelbelegebene zu erfassen, auszuwerten und zu interpretieren. So kann beispielsweise Process Mining Ablaufprozesse in einem Unternehmen hochgradig automatisiert analysieren und in Echtzeit überwachen. Auf dieser Grundlage lassen sich anschließend Stellschrauben und Maßnahmen zur Optimierung zuverlässig identifizieren und „Jo-Jo-Effekte“ nachhaltig vermeiden.

Einbruch der Verbraucherstimmung: das HDE Konsumbarometer und der GfK Konsumklimaindex sind eindeutig. Quelle: HDE und GfK

Bei der Umsetzung optimaler Cash-Management-Prozesse ist es entscheidend, die wesentlichen Steuerungselemente nicht isoliert umzusetzen, sondern individuell auf die Unternehmenssituation zuzuschneiden und eng miteinander zu verzahnen. Nur dann bedeutet Cash-Management auch nachhaltig mehr Liquidität, mehr Handlungsspielraum und mehr Rechtssicherheit für die handelnden Organe.


Über die Autoren:

Karsten Schulze verantwortet bei FTI-Andersch insbesondere Transformationsprozesse und umsetzungsorientierte Projekte. In ausgewählten Projekten hat er interimistisch Führungspositionen besetzt. Seine Branchenschwerpunkte liegen im Maschinen- und Anlagenbau sowie im Bereich der Erneuerbaren Energien.

Henning Syllwasschy verantwortet bei FTI-Andersch den Bereich Cash-Management/kurzfristige Liquiditätsplanungen. Seine Branchenschwerpunkte sind der Maschinen- und Anlagenbau, Logistik und Handel.


Bildquelle / Lizenz Aufmacher:

Photo by Elena Ramseier on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Crypto, Crypto, Who Will Regulate You After All?

300 Millionen Menschen auf der Welt besitzen und handeln mit Kryptowährung. Dennoch erfährt der Markt – und folglich auch die Besitzer von Krypto-Geld – zurzeit schwere Verluste. Es stellt sich also unweigerlich die Frage: Braucht es sowohl auf regionaler als auch globaler Ebene strengere gesetzliche Vorgaben, um den Kryptomarkt zu regulieren? Wie steht es aktuell überhaupt um die Regulierung? Und was bedeutet der aktuelle Werteverlust von Kryptowährung?

Über diese Fragen und mehr hat Monika Jiang auf der Web3 Learning Journey mit Luiza Castro gesprochen. Luiza ist Anwältin mit ihrer eigenen Kanzlei in Portugal. Kryptowährungen und Web3-Themen gehören zu ihren Schwerpunkten. Zudem ist sie in den Bereichen Immobilien-, Einwanderungs-, Arbeits-, Steuer- und Unternehmensrecht tätig.

Quo vadis Kryptomarkt: Interview mit der Kryptoexpertin Luiza Castro

Monika Jiang: Luiza, wo stehen wir derzeit in Sachen Crypto-Regulierungen?

Luiza Castro: Der Markt macht eine turbulente Phase durch, doch das Thema Regulierung rückt zunehmend in den Fokus. Zwar versuchen Regierungen weltweit mit dem Tempo mitzuhalten, das das Web3 vorlegt – aber wir wissen ja aus Erfahrung, dass gesetzliche Institutionen ihre Zeit brauchen.

In der Regel erregt ein Hot Topic ihre Aufmerksamkeit, was sie dazu veranlasst, sich einzig und allein auf dieses zu konzentrieren und eine gesetzliche Lösung zu finden. Anstatt sich einzelnen Fällen zu widmen, sollte die Politik abwarten, bis sich vollständige Konzepte etablieren und diese „durchregulieren“. Ansonsten läuft sie Gefahr, dass ihre Entwürfe anfangs zwar Sinn ergeben, nach wenigen Monaten aber nicht mehr, weil sich der Markt viel zu schnell verändert.

Monika Jiang: Was hältst du von MiCA (Market in Crypto Asset) – dem EU-Vorschlag zur Regulierung von Märkten mit Kryptowerten? Kannst du Licht für uns ins Dunkel bringen?

Luiza Castro: Der erste wichtige Punkt: MiCA soll einen Standard setzen für die Anforderung sämtlicher Dokumente, sobald ein Projekt auf den Markt gebracht wird – ein erster Filter also.

Tokens, die als Zahlungs- und Finanzmittel verwendet werden, berücksichtigt MiCA nicht – dies übernimmt die MiFID (Markets in Financial Instruments Directive). Stattdessen schlüsselt MiCA Tokens in verschiedene Kategorien auf und versucht sie dadurch mit den jeweiligen rechtlichen Folgen abzugleichen.

Ein kleines Beispiel zur Erklärung: Im Krypto-Gaming – oder auch Play-to-Earn – gibt es die sogenannten Utility Tokens. Man spielt das Spiel und erhält auf Basis seiner Skills diese Tokens. Bei Utility Tokens handelt es sich um eine Währung, die dann nur innerhalb dieses Settings – also des Spiels – eingesetzt werden kann, zum Beispiel um In-Game bestimmte Gegenstände zu kaufen. Kann der Spieler mit diesen Tokens jedoch „echte“ Kryptowährung erwerben, wird das ganz schnell zu einem Finanzinstrument, was einer Regulierung bedarf. Gleiches gilt, wenn mit diesen Tokens an der Krypto-Börse gehandelt werden darf.

Monika Jiang: Die ursprüngliche Idee war schon immer, dass der Kryptomarkt ein autonomer, sich selbst regulierender, dezentraler Markt ist – anders als der traditionelle Finanzsektor. Jedoch gibt es bereits einige große Player in diesem Bereich, die sich zu Krypto-Monopolen mit sehr hohem Einfluss entwickeln könnten. Wie unterscheidet sich also der Kryptomarkt vom bisherigen Finanzsystem? Und wie stark sollte die Politik wirklich involviert sein?

Monika Jiang

Luiza Castro: Wir haben sowohl die Big Player als auch verschiedene, verstreute Communities, die gerne weltweit geltende, homogene Standards sehen würden. Natürlich wirft das Fragen auf: Sollte der Markt überhaupt reguliert werden? Wie viele Gesetze braucht der Markt wirklich? Für viele spricht eine Regulierung ganz klar gegen die Idee des Web3, nämlich einer dezentralen Struktur, die jenseits von Banken und Regierungen funktioniert. Gleichzeitig wollen sie sich und ihre Unternehmen im Web3 vor steuerlichen Maßnahmen und Regierungseingriffen schützen.

Ich glaube, dass die Regulierungen für das Web3 anders aussehen werden als jene für traditionelle Märkte, denn derzeit besteht keine Möglichkeit für Regierungen, den Kryptomarkt wirklich umfänglich zu regulieren. Denn sie können weder wirklich einsehen, wer wieviel in seinen Wallets sammelt, wie viele Wallets eine Person überhaupt besitzt und wo sie sich befinden. Trotzdem wird die Politik es weiterhin versuchen – schließlich ist Geld im Spiel, und es handelt sich um einen wachsenden, vielversprechenden Markt.

Der Markt wird sich weiterentwickeln und vielleicht sind sich die Experten in ein paar Jahren einig darüber, wie wir vorgehen müssen oder wie es weitergehen soll. Und wenn wir das erreicht haben, dann können wir vielleicht mit der Politik darüber diskutieren, wie wir den Markt besser regulieren können, oder ob er sogar besser gar nicht reguliert werden sollten.

Das Interview wurde für ein besseres Verständnis editiert.


Lesen Sie dazu auch


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Nachhaltigkeit – kleine Optimierung mit großer Wirkung

Von Sebastian Zoll*

Nachhaltiges Handeln ist für viele Unternehmen inzwischen eine Selbstverständlichkeit und fest in den Firmenwerten verankert. Damit werden sie einerseits ihrer Verantwortung gegenüber der Umwelt und zukünftigen Generationen gerecht, was Kunden, Mitarbeiter, Partner und Investoren zunehmend einfordern. Andererseits ergeben sich aus den Nachhaltigkeitsbemühungen oft erhebliche Einsparpotenziale, etwa bei den Energiekosten, die angesichts steigender Strom- und Gaspreise zu explodieren drohen. Beim Kauf neuer IT-Hardware achten Unternehmen deshalb auf Energieeffizienz oder sie versuchen, ihre Systeme durch den Aufbau Cloud-basierter Umgebungen optimal auszulasten.

Darüber hinaus sind sie intensiv auf der Suche nach weiteren Stellschrauben, um Systeme effizienter zu nutzen, aber auch um IT-bezogene Prozesse zu beschleunigen und IT-Personal zu entlasten. Eine Möglichkeit, diese Dinge geschickt zu verknüpfen, ist eine Optimierung des Bereitstellungsprozesses von Betriebssystem-Images. Im ersten Moment mag sich das nicht besonders spektakulär anhören, doch in einer solch kleinen Verbesserung steckt einiges an Potenzial. Immerhin stellen wir in Gesprächen mit Kunden regelmäßig fest, dass sie neue Rechner oder virtuelle Maschinen mit einem vorbereiteten Master Image aufsetzen, das nicht sehr aktuell ist. Dadurch müssen sie die einzelnen Systeme anschließend immer noch auf den neuesten Stand bringen, sprich: Updates und Patches herunterladen und installieren, was Arbeits- und Rechenzeit kostet. Je nachdem wie häufig neue Systeme bereitgestellt werden, kommen da schnell einige Stunden zusammen.

Sebastian Zoll erläutert Möglichkeiten, wie Energieeinsparungen gerade aktuell umsetzbar sind.

Wir selbst haben das in unserem SVA-Labor lange so gemacht und vor Schulungen die Rechner der Teilnehmer nach Einspielen unseres Master Images von Red Hat Enterprise Linux manuell aktualisiert. Den Aufwand wollten wir gerne reduzieren, weil er kontinuierlich größer wurde – schließlich kommen bei einem gut gepflegten Betriebssystem im Laufe der Zeit immer mehr Updates hinzu. Zudem ist es für die Mitarbeiter auch nicht allzu spannend, die gleiche Tätigkeit zehn oder fünfzehn Mal hintereinander durchzuführen. Daher aktualisieren wir das Master Image mittlerweile regelmäßig automatisch und haben nach dessen Installation stets ein aktuelles Schulungssystem, das keiner Nacharbeiten mehr bedarf. Das dafür notwendige Werkzeug bringt Red Hat Enterprise Linux mit dem „Image Builder“ bereits mit.

Interessant ist ein solcher Bereitstellungsprozess auch für die Rechner neuer Mitarbeiter, bei denen das Master Image neben dem Betriebssystem alle benötigten Anwendungen inklusive aller Updates umfassen sollte. Oder für virtuelle Maschinen, von denen selbst kleinere Hoster und Service-Provider oft mehrere täglich aufsetzen müssen. Dass es weniger Arbeit macht, ein einzelnes Image zu aktualisieren statt unzähliger Rechner oder VMs, ist offensichtlich. Dass sich überdies signifikant Energie sparen und der CO2-Fußabdruck des Unternehmens reduzieren lässt, verdeutlicht ein Rechenbeispiel.

Angenommen ein Unternehmen stellt täglich 15 VMs bereit und nutzt einen Server mit zwei Intel-CPUs vom Typ Xeon Gold 5218, der eine maximale Leistungsaufnahme von 560 Watt hat. Dann bedeutet das bei 200 Arbeitstagen und einer Bereitstellungszeit von 15 Minuten pro VM: 200 Arbeitstage x 15 VMs x 15 Minuten = 49.500 Minuten beziehungsweise 825 Stunden, in denen der Server arbeiten muss. Bei einer Leistung von 560 Watt ist das ein Stromverbrauch von 462 kWh pro Jahr. Sinkt die Bereitstellungszeit durch das stets aktuelle Master Image auf eine Minute, sieht die Rechnung so aus: 200 Arbeitstage x 15 VMs x 1 Minute = 3.300 Minuten beziehungsweise 55 Stunden, und damit einen Stromverbrauch von 30,8 kWh pro Jahr. Die Einsparung liegt also bei 431,2 kWh. Einen Kühlschrank, der 75 kWh pro Jahr verbraucht, könnte man damit fast sechs Jahre lang betreiben, oder mit einem Elektroauto – durchschnittlicher Verbrauch etwa 15 kWh pro 100 Kilometer – mehr als 2.800 Kilometer zurücklegen.

Zugegebenermaßen vereinfacht diese Rechnung den Sachverhalt ein wenig – schließlich läuft der Server nicht unter Volllast und die regelmäßige Aktualisierung des Master Images verbraucht ebenfalls Strom. Allerdings brauchen Unternehmen für das Master Image nur einmalig die seit der letzten Aktualisierung hinzugekommenen Updates herunterladen und ergänzen. Das geht deutlich schneller und erfordert weniger Rechenleistung sowie Bandbreite als der Download recht umfangreicher Pakete mit Updates, die sich über Monate oder Jahre angesammelt haben, für jede einzelne VM. Dass sich viel Arbeitszeit und Energie sparen lässt, sollte deshalb klargeworden sein.

Letztlich zeigt dieses Beispiel, wie Unternehmen auch mit kleinen Verbesserungen etwas für die Umwelt tun können und zugleich ihre Mitarbeiter und Budgets entlasten – ganz ohne große Investitionen oder langwierige Projekte. Es lohnt definitiv, bestehende Prozesse infrage zu stellen und gezielt nach Optimierungsmöglichkeiten zu suchen, selbst wenn sie auf den ersten Blick eher unscheinbar wirken.

* Sebastian Zoll ist System Engineer bei SVA System Vertrieb Alexander


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Effizienzoffensive durch digitale Transformation

Geopolitische Krisen und gesellschaftlicher Wandel prägen die aktuell turbulenten Zeiten und das hohe Maß an Unsicherheit erschwert zukünftige Entscheidungsfindungen bei Unternehmen. Es scheint, als sei der Dauerkrisenmodus zur neuen Realität geworden. Effizienzsteigerungen und Kosteneinsparungen müssen nun in den Fokus rücken. Die digitale Transformation ist hierbei ein Schlüsselelement, schreibt Markus Fost.

Geopolitische Krisen und gesellschaftlicher Wandel – Unternehmen in turbulenten Zeiten mit hoher Unsicherheit

Der Krisenmodus wird zur neuen Realität. Ukraine-Krieg, Energie-Krise, Supply-Chain-Krise, Inflation und der Klimawandel sind die derzeit prägenden Schlagworte. Kein hoffnungsvoller Zustand, hatte man sich doch nach der Corona-Pandemie und den verordneten Lockdowns auf eine Erholungsphase eingestellt. Nicht nur die aktuellen Krisenherde sind eine Herausforderung, auch die Gesellschaft befindet sich im Zeitgeist des Wandels und bürgt Unternehmen weitere Ansprüche auf. Neue Arbeitsformen und New Work setzen sich durch, der Fachkräftemangel weitet sich aus und der Nachhaltigkeitsanspruch der Konsumenten fordert Unternehmen zu teils starken Veränderungen in der Wertschöpfungskette.

Abbildung 1: Turbulente Zeiten – Unternehmen in Unsicherheit

Die globale Wirtschaftslage kühlt sich ab – Implikationen für Unternehmen und Verbraucher

Die Wachstumsaussichten sind flächendeckend negativ. Kontinuierlich passen Wirtschaftsinstitute ihre Prognosen nach unten an. Getrieben von steigenden Energiekosten und einem verknappten Angebot an Vorprodukten und Gütern durch gestörte Lieferketten, erreicht die Inflation immer neue Höchststände. Vor dem Hintergrund von mehr als zwei Jahren Corona und eingeschränkten Möglichkeiten für Konsum, Freizeit und Reisen, entlädt sich nun die aufgestaute Nachfrage, die nur schwer bedient werden kann. Steigende Energiekosten und die zunehmende Gefahr eines Gaslieferstopps durch Russland zwingen Unternehmen auf alternative Energieformen zu wechseln, was kurzfristig Investitionskapital bedarf.

Abbildung 2: IMF Wachstumsprognosen für das Jahr 2022

Das Inflationsthema treibt auch das Zinsniveau. Zentralbanken versuchen mit dem Instrument erhöhter Zinsen die Inflation einzudämmen. Auf europäischer Ebene ist kürzlich der erste Zinsschritt erfolgt und auch die US-amerikanische Federal Reserve hat bereits deutliche Zinserhöhungen vorgenommen. Allein die Ankündigung einer Trendumkehr hat die Aktienmarktkurse von wachstumsorientierten Aktien um mehr als 30% einbrechen lassen. Auch Bauinvestitionen haben stark abgenommen. Kapital kostet nun wieder Geld und die Zeit der irrationalen Übertreibungen ist vorbei. Vergessen werden darf dabei nicht, dass die Corona-Pandemie noch nicht ausgestanden ist und die Verbreitung sowie das Aufkommen von Mutationen die Gefahr neuer restriktiver Maßnahmen auslösen können, die das gesellschaftliche Leben wieder stark ausbremsen können.

Abbildung 3: Implikationen für Unternehmen durch Krisen und Wandel

Die Notwendigkeit – Effizienz und Wachstum durch digitale Transformation

Effizienzsteigerungen und Kosteneinsparungen müssen nun in den Fokus rücken, um die aktuelle Krisenphase zu überstehen und gestärkt in die hoffentlich bald aufkommende Wachstumsphase zu starten. Digitalisierung ist dabei ein Schlüsselelement und darf keineswegs als Luxusgut für Zeiten des Wachstums angesehen werden. Digitalisierung kann maßgeblich dabei helfen, die gesamte Wertschöpfungskette eines Unternehmens deutlich zu automatisieren, effizienter und transparenter zu machen. Eine Vielzahl an Tools kann analoge und zeitintensive Tätigkeiten automatisieren und dies ist in nahezu allen Wertschöpfungsphasen möglich.

Die Frage ist, wie man am sinnvollsten dabei vorgeht. Ausgangspunkt für eine Effizienzoffensive durch digitale Transformation ist ein Digital Health Check, um in kurzer Zeit einen Einblick in den digitalen Reifegrad zu erhalten und Quick Wins zur sofortigen Umsetzung abzuleiten. In einem zweiten Schritt werden einzelne Prozesse der Wertschöpfungskette intensiv analysiert und Optimierungen ausgearbeitet. Ist die Effizienzoffensive als Basis gelegt, kann der Fokus auf Wachstumsinitiativen gelegt werden. Die Neuausrichtung bzw. Ergänzung des bisherigen Geschäftsmodells in Richtung Plattform-Geschäftsmodell ist dabei eine Option. Ergänzend besichert und stärkt eine E-Commerce Distributionsstrategie die Position im Gesamtmarkt. Erforderlich ist dies aufgrund der kontinuierlichen Verschiebung des Marktvolumens von Offline- hinzu Online-Kanälen. Neue agile Online-Spieler nehmen dabei etablierten Anbietern kontinuierlich Marktanteile ab. Um Kunden optimaler zu bedienen – sowohl im B2C als auch B2B Segment – eignet sich die Etablierung eines Digital Sales Center.

Abbildung 4: Effizienzimpulse durch digitale Transformation

Sowohl Effizienz- als auch Wachstumsinitiativen leiten starke Veränderungen im Unternehmen ein, die durch Projekte umgesetzt werden. Projekte stehen dabei immer im Zielkonflikt von Zeit, Geld und Qualität. Zusätzlich unterliegen sie zahlreichen Gefährdungsfaktoren, worunter auch ein schlechtes oder mangelndes Projektmanagement anzutreffen ist. Besonders vor diesem Hintergrund und der Tatsache, dass weltweit nur 35% aller Projekte erfolgreich sind, sollte der Fokus auf ein qualifiziertes und strukturiertes Projektmanagement gelegt werden. Ein qualifiziertes Projektmanagement stellt sicher, dass das Ergebnis einen Mehrwert für das Unternehmen liefert und zur Besicherung der Zukunft beiträgt.

Abbildung 5: Bedeutung von Projektmanagement

Über den Autor:

Markus Fost, MBA, ist Experte für E-Commerce, Online Geschäftsmodelle und Digitale Transformation mit einer breiten Erfahrung in den Feldern Strategie, Organisation, Corporate Finance und der operativen Restrukturierung. Seine Projektthemen erstrecken sich von der Entwicklung bis hin zur Umsetzung von E-Commerce Strategien für Markenhersteller und den Handel. Zu seinen Kunden zählen multinationale Konzerne und mittelständische Unternehmen mit einem breiten Branchenumfeld: Automotive, Bauwirtschaft, Fashion, Industrie- und Konsumgüter, Handel und Medien.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

FuckUp Nights: Mut zur neuen Fehlerkultur

Michael Henninger hat bei Sulzer zu den FuckUp Nights eingeladen. Welche Motivation dahinter steckt und wie eine neue Kultur des Scheiterns etabliert werden kann, beschreibt er im folgenden Gastbeitrag. Die dabei gewonnenen Learnings werden aktiv genutzt, um das Unternehmen voran zu bringen.

Wir bei Sulzer haben uns aktiv für eine offene und transparente Fehlerkultur entschieden. Das hat ganz praktische Gründe. Um es einmal plakativ auszudrücken: „Der Deutsche hat Angst vor Fehlern!“ Tief sitzt die Angst, etwas falsch zu machen. Da kommen ganz schnell Erinnerungen aus der Schule, bei der jedes Abweichen Punktabzug bedeutete. Mit der daraus gelernten Anpassung an „richtig“ und „falsch“ lässt sich zwar sehr gut mit dem Strom schwimmen. Was damit nicht so gut gelingt, ist das Lösen von bisher nicht gekannten Problemen. Dafür braucht es etwa Experimentierfreudigkeit und eine gewisse Gelassenheit, wenn etwas mal nicht sofort funktioniert.

Da viele von uns mit diesem Gefühl der Gelassenheit im Umgang mit Fehlern nicht aufgewachsen sind, beleben und trainieren wir ihn aktiv bei Sulzer jeden Tag in unseren Projekten. Und um das Bewusstsein für diesen positiven Umgang unternehmensweit weiter zu etablieren, tauschen wir uns regelmäßig dazu aus – im Rahmen einer so genannten FuckUp Night in unserer agilen Community.

Was ist eine FuckUp Night?

  

FuckUp Nights sind seit einigen Jahren ein populäres Phänomen und sie werden in entsprechenden Events regelrecht zelebriert. Das Sprechen über (unternehmerische) Fehler für eine neue Kultur des Scheiterns, ist in Mode gekommen. Aber gerade in Deutschland tut man sich oft noch immer noch schwer im Umgang mit Fehlern und Rückschlägen.

Oberstes Ziel einer FuckUp Night ist das Lernen aus den Fehlern anderer und das Akzeptieren der eigenen. Dabei soll das Ganze in einer bewusst lockeren und humorvollen Atmosphäre geschehen. Mit diesem Vorbild haben wir unsere Agile Community zu einer firmeninternen FuckUp Night eingeladen und dabei gelacht, spannende Fragen gestellt und interessante Erkenntnisse gewonnen.

Was haben wir dabei erlebt?

Scheitern tut weh und kann Angst machen: Das zu akzeptieren, kann zu einer gleichzeitigen Gelassenheit auf einer tieferen Ebene führen.

Übers Scheitern kann man häufig erst im Nachhinein lachen: Jeder von uns lacht heutzutage über Anekdoten aus seiner Kindheit. Wir können drüber lachen, weil es vorbei ist. Wenn wir uns in aktuellen Schwierigkeiten befinden, können wir uns bewusst machen: „Kannst du noch nicht drüber lachen, ist das Thema noch nicht abgeschlossen.“


„Blaupausen über Bord werfen und stattdessen experimentieren – das öffnet neue Horizonte: Mal etwas Neues zu versuchen an Stellen, wo es noch nicht so gut klappt.“

– Michael Henninger

Beim Scheitern stellen wir uns selbst in Frage: Das hilft uns dabei, persönlich zu wachsen. Scheitern bedeutet einen Weg gefunden zu haben, wie etwas nicht funktioniert. Wir brauchen noch einen weiteren oder mehrere Versuche.

Mein Scheitern beeinflusst in der Regel auch mein Umfeld: Wenn ich aktiv mit meinen Fehlern und Irrtümern umgehe, kann das als Vorbild für meine Kollegen dienen.

Das klingt nun erstmal gar nicht sehr positiv, jedoch ist es ein zentraler Bestandteil für das Scheitern und dessen Akzeptanz. Wir bei Sulzer haben bereits einige Erkenntnisse aus unseren Fehlern und Irrtümern gezogen. Diese stellen wir im Folgenden vor:

Aus Fehlern gemeinsam lernen

Fehler sind ein wichtiger Impuls für positive Entwicklungen: Viele Wege zu kennen, wie etwas nicht funktioniert – das nennt man Erfahrung. Die wird im Berufsleben geschätzt. Wenn von ihnen berichtet und gelernt wird, können andere sich davon inspirieren lassen.

Blaupausen über Bord werfen und stattdessen experimentieren – das öffnet neue Horizonte: Mal etwas Neues zu versuchen an Stellen, wo es noch nicht so gut klappt. Das hilft dabei, das eigentliche Problem besser zu verstehen. Selbst wenn das Experiment nicht sofort Früchte trägt. Man gewinnt zumindest eine Erfahrung.

Fehler macht man nur auf bekannten Wegen. Wer Neues ausprobiert und wagt, begeht nur Irrtümer. Für uns war eine wichtige Erkenntnis die Unterscheidung zwischen Fehler und Irrtum. Denn nicht alles, was schiefläuft, ist ein Fehler. Stellen wir uns bisher unbekannten Situationen, sind wir darauf angewiesen uns vorzutasten. Das zu verstehen, bringt Gelassenheit im Umgang mit Neuem.

Irrtümer von anderen haben wir alle in ähnlicher Form erlebt – wir sind mit unserem Scheitern also in guter Gesellschaft: Dies ist ein zentraler Punkt von FuckUp Nights. Zu verstehen, dass man mit seinen Fehlern und Irrtümern nicht allein ist und dass andere, auch wenn es vielleicht im Alltag nicht so aussehen mag, ebenfalls auf Irrwegen unterwegs sind.

Schenke der Stimme in deinem Kopf nicht so viel Glauben: Unser Gedankengenerator produziert meist viel schlimmere Bilder als es dann in Wirklichkeit ist: Zu verstehen, dass unser Gedankengenerator automatisierte Gedanken produziert, kann uns helfen, entspannter mit diesen Phantasien umzugehen. Es sind nicht wir als Personen, die diese Gedanken produzieren. Es ist ein Automatismus. Genauso wie wir es nicht sind, die unser Herz schlagen lassen. Es passiert auch einfach.

Wer sich häufiger etwas traut, um sich zu verbessern, wird mit der Zeit mutiger: Wer mit kleinen Experimenten beginnt: „Heute probiere ich mal einen neuen Weg nach Hause“ und sich mit der Zeit steigert, setzt eine mentale Positivspirale in Gang. Auf diesem Weg passieren auch Irrtümer. Doch man bekommt Erfahrung im Umgang damit. So gelangt man zu gelasseneren Reaktionen auf negatives Feedback.

Verbesserungen aus dem Feedback sind Gold wert: Sich Rückmeldungen anzunehmen und daraus zu lernen kann nur gelingen, wenn man diese auch bekommt. Es ist Teil der Kultur bei Sulzer, nach Feedback zu fragen.

All dies sind Learnings aus individuellen Erkenntnissen. Doch es gibt noch mehr…

Die Experimentierfreudigkeit der Organisation weiter stärken

Je mehr Menschen aktiv eine neue Fehlerkultur bei Sulzer leben, desto mehr verändert sich auch die Unternehmenskultur – also das Habitat der Mitarbeitenden.

Neue Mitarbeitende werden automatisch von der neuen Fehlerkultur „beeinflusst“ und merken, dass sie durch ihr Umfeld weitergehende Freiheiten haben, sich auszuprobieren. Das erfordert weniger Mut des Einzelnen, weil ja auch alle anderen experimentieren. Die ganze Organisation wird mutiger und experimentierfreudiger. Wir bei Sulzer wollen diese Entwicklung weiter stärken.

Denn wir glauben, dass viele kleine Fehler und Irrtümer wesentlich kostengünstiger und leichter zu korrigieren sind, als die großen Fehler. Viele Experimente der Mitarbeitenden und daraus resultierendes Feedback ermöglicht Sulzer, seine Position am Markt ständig zu überprüfen und sich schnell an Kundenwünsche und Marktveränderungen anzupassen.


Über den Autor:

Michael Henninger ist seit fast 4 Jahren bei Sulzer und Leiter der Delivery Unit Project Management & Agile. Nach dem Informatik-Studium hat der 49-jährige über unterschiedliche Stationen seine Passion für Projektmanagement und Agilität entdeckt und über die Branchen Medien, Retail bis hin zu Automotive weiterentwickelt. Hierdurch ist auch der Antrieb für Veränderungsprozesse und das stetige Arbeiten an Verbesserung, Teil seiner Überzeugung geworden. Hier finden Sie weitere Informationen


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

KI-Sprachmodelle

Gastbeitrag von Martin Möller-Wettingfeld

KI-Sprachmodelle revolutionieren die Welt des digitalen Contents

Wenn Sie sich gelegentlich mit digitalen Innovationen, mit künstlicher Intelligenz bzw. Machine Learning, oder auch nur mit digitalem Content auseinandersetzen, werden Sie immer häufiger auf Begriffe wie „KI-Sprachmodelle“, „NLG“ „OpenAI“, „GPT-3“ oder „GPT-X“ stoßen. Wir alle registrieren, dass dabei immer von etwas ganz Großem die Rede ist. Dieser Artikel soll Ihnen helfen zu erahnen, was das „Große“ an den KI-Sprachmodellen ist und warum Sie sich nicht früh genug damit befassen können.

Von künstlicher Intelligenz und natürlicher Sprachgenerierung

Artificial Intelligence (AI) bzw. Künstliche Intelligenz (KI), gibt es nicht. Keine Software der Welt hat Urteilsfähigkeit, Verstand oder gar Vernunft und kann deswegen auch nicht intelligent sein. Trotzdem begleiten uns die beiden Kürzel AI bzw. KI permanent, weil sie seit vielen Jahren das gesamte Forschungsfeld beschreiben, irgendwie gut klingen und es sich eingebürgert hat lernfähige Algorithmen als KI zu bezeichnen.

Bei der Erforschung und der Suche nach künstlicher Intelligenz hat man nämlich festgestellt, dass „Maschinen“, oder besser Algorithmen, in gewisser Weise lernen können. Sie kommen bei der Analyse von Daten durch Mustererkennung und Trial-and-Error zu immer besseren Ergebnissen und verbessern sich dabei selbst. Das nennt man Machine Learning (ML) und es ist ein Teilbereich der Künstlichen Intelligenz.

Es liegt in der Natur digitaler Prozesse, dass man sie praktisch unendlich skalieren kann – so auch beim Machine Learning: Die Lern-Schleifen können in Sekunden millionenfach durchlaufen werden, wenn der Rechner bzw. das Rechenzentrum oder der Rechenzentrumsverbund genug Leistung hat. Denn das Internet besteht aus Billionen von Texten, die sich gut durchsuchen und analysieren lassen. Die KI (also der lernfähige Algorithmus) versteht dadurch, dass es sich z.B. bei „Golf“ um eine Küstenform, einen Sport oder um ein Auto handeln kann. Der Kontext, z.B. eines Sportportals, gibt der KI Auskunft darüber, dass es mit hoher Wahrscheinlichkeit um die Sportart geht. Das ist Machine Learning auf der Basis von Texten und der Output dieses ML Prozesses ist ein natürlichsprachlicher Text. Dessen Generierung bezeichnet man als Natural Language Generation (NLG). Dafür gibt es verschiedene Verfahren (s.u.).

Die KI produziert also automatisch Text bzw. Content. Und das in Sekundenbruchteilen und unter Berücksichtigung unfassbar vieler Quellen. Nimmt man nun ein riesiges Rechenzentrum und lässt darin solch eine lernfähige Software unendlich viele Texte analysieren und bringt ihr bei, wie diese Informationen miteinander verknüpft werden, um zu einem Thema Fragen beantworten zu können oder gleich ganze Texte zu formulieren, hat man ein KI-Sprachmodell.


Unser Autor

Martin Möller-Wettingfeld,
Director Business Development bei Valtech Germany


Das (und anderes) wollten Elon Musk, Peter Thiel und Co. im großen Maßstab machen und haben OpenAI finanziert. Das Unternehmen hat den Generative Pre-trained Transformer (GPT-3) entwickelt und letztes Jahr für die kommerzielle, kostenpflichtige Nutzung via Schnittstelle freigegeben. Heute können KI-Sprachmodelle im Allgemeinen und GPT-3 im Besonderen plötzlich viel mehr, als man ursprünglich beabsichtigt hatte. So viel, dass die Beherrschung dieser Technologien in den nächsten Jahren entscheidend werden könnte. Deswegen gibt es auch in Europa bzw. Deutschland ambitionierte Pläne, sich mit einem eigenen KI-Sprachmodell – Arbeitsname GPT-X – zu positionieren, um nicht wieder einen Teil der digitalen Souveränität aus der Hand zu geben.

Die 1. Generation der automatischen Textgenerierung – eigentlich noch ein Workaround

Die erste Generation der automatischen Textgenerierung hat nicht wirklich komplette Texte generiert, sondern Text-Templates, also von Menschen geschriebene Teilsätze, regelbasiert zusammengesetzt und ggf. modifiziert oder angepasst. Es ist leicht nachzuvollziehen, dass dadurch ein relativ großer initialer Aufwand entsteht und nicht alles damit machbar ist.

Aber für bestimmte Szenarien hat sich dieser Aufwand gelohnt bzw. lohnt sich noch. Zum Beispiel für Wetter- oder Sportmeldungen, bestimmte Arten von Beschreibungen (z.B. Produktbeschreibungen) oder für kürzere Reports war und ist die automatische Textgenerierung der ersten Generation schon sehr effektiv. Große Medienunternehmen in den USA erstellen z.B. verschiedene Arten von Meldungen (Sport, Wetter, Verkehr, Börsendaten) schon seit Jahren mit solchen Systemen. Allerdings war das Spektrum der Einsatzmöglichkeiten grundsätzlich eher begrenzt.

Die 2. Generation – ein wichtiger evolutionärer Schritt für die automatische Textgenerierung

Das Berliner Startup 2txt hat sehr viel Know-how im Bereich der Computerlinguistik aufgebaut und eine rein algorithmische Textgenerierung entwickelt, die in der Lage ist aus Daten und Begriffen vollautomatisch hochwertige Texte – ohne Verwendung von Templates – zu generieren.

Vereinfacht gesagt hat 2txt die deutsche Sprache teilweise in einen Algorithmus überführt. Templates waren somit Geschichte und dieses erste echte, regelbasierte Sprachmodell war und ist in der Lage völlig neue Use Cases, quasi out-of-the-box, zu realisieren. Jeder einzelne Text wird auf der Basis einer programmierten, allgemeinen Grammatik sowie themenspezifischen Wortsammlungen und Ontologien in Realtime generiert.

Die 3. Generation – KI-Sprachmodelle bringen den Big Bang für die automatische Textgenerierung

Auf der Grundlage von künstlichen, neuronalen Netzen und Machine Learning ist zunächst GPT-2 und später GPT-3 entstanden. GPT-3 ist ein KI-Sprachmodell und kann Unmengen an Textdaten erfassen und analysieren. Es erkennt dabei Strukturen, Zusammenhänge und Kontexte und nimmt Gewichtungen auf statistischer Grundlage vor.

So kann man dem System z.B. die Frage stellen „Wer ist Olaf Scholz?“ und man wird die Antwort erhalten, dass Olaf Scholz ein deutscher Politiker und momentan Bundeskanzler ist. Dass Olaf Scholz 170 cm groß und sein Bruder Arzt ist, kann die KI auch erkennen. Aber es wird seltener in Texten erwähnt und deswegen untergewichtet.

GPT-3 kann aber auch einen begonnenen Satz sinnvoll beenden. Lautet der Input beispielsweise „Olaf Scholz und Angela Merkel…“, so ergänzt das KI-Sprachmodell den Satz in etwa so: „Olaf Scholz und Angela Merkel haben beide das Amt des deutschen Bundeskanzlers ausgeübt. Angela Merkel vom 22. November 2005 bis zum 08. Dezember 2021 und Olaf Scholzvom…“ GPT-3 führt also ein Thema fort und wird bei Bedarf zum automatischen Copywriter, der komplette Beiträge zu einem Thema verfassen kann.

Das ist aber noch lange nicht alles. Frage ich GPT-3 z.B. nach den größten chinesischen Unternehmen, präzisiert die KI zunächst selbständig die Fragestellung („…größte chinesische Unternehmen nach Umsatz…“) und erstellt dann ein Ranking.

Das System kann mit mir aber auch in einen Dialog über chinesische Unternehmen treten oder eine Tabelle über den Umsatz pro Mitarbeiter der größten chinesischen Unternehmen erstellen. Und wenn mir das alles gefällt, kann GPT-3 aus diesen Inhalten auch noch den HTML-Code für eine entsprechende Website ausgeben. Denn Programmiersprachen sind für KI-Sprachmodelle auch nur Sprachen in Textform.

KI-Sprachmodelle wie z.B. GPT-3 verfügen über eine Reihe von Skills. So können sie Texte vereinfachen, zusammenfassen und übersetzen. Darüber hinaus können sie dokumentieren, chatten, Q&A Listen erstellen, Keywords generieren, Bilder beschreiben und wiederum aus Beschreibungen Bilder erzeugen. Sie können zudem Tabellen erstellen, Code analysieren und Code (z.B. XML) in natürliche Sprache umwandeln.

Der Haken an der Sache

Wie bereits erwähnt arbeiten KI-Sprachmodelle mit Statistiken und kommen über statistische Wahrscheinlichkeiten zu ihren Ergebnissen.

Statistik-basierte Algorithmen haben aber weder ethische Leitplanken noch ein Gefühl für Wahrheit, oder für logische Brüche in einem Text. Deswegen kann es passieren, dass ein KI-Sprachmodell Texte erstellt, die unseren Vorstellungen massiv widersprechen, die Ergebnisse gelegentlich nicht ganz „stubenrein“ sind oder manchmal in originelle, aber irritierende Fantasien abgleiten.

Die Entwickler der diversen KIs arbeiten an entsprechenden Verbesserungen, Filtern etc. Das Problem ist aber sehr komplex und es wird sicher noch eine Weile dauern, bis diese Probleme komplett gelöst sind. De facto ist die unkontrollierte Weiterverarbeitung von KI-Texten also ein Risiko. Damit wird der Einsatz in vielen, vor allem kommerziellen Bereichen, schwierig. Der Einbau einer menschlichen Abnahmestufe wäre das Mindeste, um das Risiko beherrschbar zu machen. Der potenziell enorme Effizienzgewinn wird dadurch aber deutlich eingebremst.

Die Lösung

Die ersten beiden Generationen der automatischen Textgenerierung können sehr viel weniger als die KI-Sprachmodelle und das Skills-Gap wird mit steigendem Tempo größer. Dennoch haben diese „alten“ Lösungen einen großen Vorteil: Sie sind berechenbar und machen so gut wie keine inhaltlichen Fehler. Der Sprachstil kann vorgegeben werden, ebenso die Verwendung einer bestimmten Terminologie.

Insbesondere die sehr flexible Lösung der zweiten Generation kann in Verbindung mit einem aktuellen KI-Sprachmodell zu einer extrem leistungsfähigen und inhaltlich sicheren Lösung kombiniert werden. Die Schwächen und Unwägbarkeiten werden gebändigt und damit schon jetzt kommerziell nutzbar gemacht. Die Ergebnisse erster Umsetzungen sind faszinierend. Damit ist eine neue Lösung für die automatisierte Erstellung von digitalem Content in der Welt, an der vielleicht schon bald kein Weg mehr vorbei geht.

https://www.valtech.com/de-de/

„Die Zukunft von HR und Lohnabrechnung liegt in der Cloud“

Die TREND REPORT-Redaktion spricht mit Dr. Alexander Tiedtke, Managing Director bei der vyble GmbH

„Bis zu 70 % des administrativen Aufwands können Unternehmen durch die Digitalisierung ihres Personalwesens einsparen.“


Herr Dr. Tiedtke, vor welchen Herausforderungen stehen heute kleine und mittlere Unternehmen, die noch nicht mit der Digitalisierung ihres Personalmanagements begonnen haben?
Gerade in KMUs ist das Personalwesen oft noch stark durch aufwendige manuelle Routinen geprägt. Ein Paradebeispiel dafür ist die Lohn- und Gehaltsabrechnung (Payroll). Dabei müssen zahlreiche Daten aus verschiedenen Quellen zusammengeführt werden – häufig in Excel-Tabellen. Ein mühsamer und fehleranfälliger Prozess, der für viele Personalmanager zur lästigen Pflicht gehört. Zeitintensive administrative Tätigkeiten wie diese blockieren damit wertvolle personelle Ressourcen. In Anbetracht der aktuellen Kostensteigerungen in allen Bereichen und des auch im Personalwesen herrschenden Fachkräftemangels ist hier ein Umdenken vonnöten.

Was bedeutet heute eigentlich „cloudbasiertes HR- und Payroll-Management“ (SaaS)?
Im Grunde geht es darum, Mitarbeiterdaten nicht mehr lokal auf dem eigenen Server zu speichern (On-Premise), sondern in einer Cloud-Software. Dies bringt zahlreiche Vorteile mit sich, die vielen Unternehmen noch gar nicht bewusst sind. In einer cloudbasierten HR-Plattform befindet sich ein zentraler digitaler Datenpool, der stets aktuell ist und einen flexiblen standortunabhängigen Zugriff ermöglicht. Durch das Outsourcing in die Cloud werden keine eigenen Server, Infrastrukturen oder Software-Administratoren mehr benötigt. Auch Updates, Backups oder Verschlüsselungen werden automatisch vorgenommen und entsprechend Datenschutz sichergestellt.

Welche Möglichkeiten haben Unternehmen und Lohnbüros, um aufwendige manuelle Routinen im Kontext der Lohnabrechnung online zeitgemäß zu lösen?
Die Digitalisierung des Personalwesens birgt deutliche Effizienzpotenziale, da sich viele Prozesse automatisieren lassen. Z. B. bei der Lohnabrechnung: Durch die Nutzung einer HR-Plattform fließen alle abrechnungsrelevanten Daten automatisiert zusammen. So ist die vorbereitende Lohnabrechnung mit wenigen Klicks erledigt. Unsere Lösung kann sogar kollaborativ mit externen Dienstleistern wie einem Steuerberater genutzt werden. Dieser erhält dabei Zugriff auf die Plattform, so dass er sich die benötigten Daten direkt herunter- und Dokumente hochladen kann. Das verschlankt nicht nur alle Prozesse, sondern reduziert auch deutlich den Kommunikationsaufwand und die Fehleranfälligkeit.

Beim Thema DSGVO hat heutzutage kaum noch jemand den Überblick. Der große Vorteil einer entsprechenden cloudbasierten Lösung ist die automatische rechtliche Sicherheit sensibler Personal- und Gehaltsdaten.

Dr. Alexander Tiedtke

Wie viel Zeit kann eingespart werden und welche Vorteile hat die HR-Abteilung davon?
Bis zu 70 % des administrativen Aufwands können Unternehmen durch die Digitalisierung ihres Personalwesens einsparen, in Abhängigkeit ihrer Prozesse. Die HR-Abteilung wird dadurch massiv entlastet und gewinnt deutlich mehr Zeit für andere Aufgaben wie z. B. das Recruiting. Fehler bei der manuellen Datenerfassung und Datenbrüche bei der Übertragung lassen sich so nahezu ausschließen. Zudem wird weniger Payroll-Fachwissen benötigt, was auch die Notwendigkeit, stets mit allen Gesetzesänderungen Schritt zu halten, reduziert. So zeigen Arbeitgeber gleichzeitig mehr Wertschätzung für ihre (HR-)Mitarbeiter und können den Bedürfnissen der neuen Generation besser Rechnung tragen.

Welche Bereiche des digitalen Personalmanagements deckt Ihre Lösung ab?
vyble® ist eine All-in-One-Plattform, mit der Unternehmen alle Schritte ihres Personalmanagements bis hin zur Lohnabrechnung schneller und effizienter abbilden können. Das umfasst z. B. digitale Personalakten inklusive Dokumentenmanagement, Provisions-, Reisekosten- und Spesenabrechnung, Abwesenheitsmanagement, Arbeitszeiterfassung und Schichtplanerstellung. Die Plattform wird zudem durch Apps für den mobilen Zugriff ergänzt. Eine Besonderheit von vyble® ist die Vergütungsoptimierung: Auf Knopfdruck ermittelt die Plattform anhand eines intelligenten Algorithmus, durch welche Steuer- und SV-Potenziale Mitarbeiter auf absolut legale Weise mehr Netto vom Brutto erhalten können.

Inwieweit können Mitarbeitende in das digitale HR-Management mit einbezogen werden?
In vyble® wirken Mitarbeiter wesentlich an der Pflege der Daten in der Plattform mit. Dieses Prinzip nennt man Employee Self Services oder kurz ESS. Dabei erhalten Mitarbeiter Zugriff auf ihre eigenen Personalakten und tragen ihre Stammdaten wie z. B. Adresse oder Sozialversicherungsnummer selbstständig ein. Auch Änderungen nehmen sie dort direkt vor, so dass keine Daten verlorengehen und die HR-Abteilung zusätzlich entlastet wird. Mitarbeiter können zudem Dokumente hochladen, Abwesenheiten wie Urlaub oder die Erstattung von Reisekosten beantragen und natürlich jederzeit den Status der Bearbeitung einsehen. Das verschlankt die internen Prozesse und schafft Transparenz auf allen Seiten.

„Payroll wird hip: Die vorbereitende Lohnabrechnung ist auf Knopfdruck möglich.“

Was muss beim Datenschutz beim Führen digitaler Personalakten beachtet werden?
Beim Thema DSGVO hat heutzutage kaum noch jemand den Überblick. Der große Vorteil einer entsprechenden cloudbasierten Lösung ist die automatische rechtliche Sicherheit sensibler Personal- und Gehaltsdaten. Dies betrifft sowohl die Speicherung als auch die Übertragung. Eine wesentliche Rolle spielt dabei natürlich der Standort der Cloud. vyble® nutzt z. B. ausschließlich Server innerhalb Deutschlands, die die Einhaltung aller gesetzlichen Vorgaben garantieren. Ein granulares Rechte- und Rollensystem sorgt zudem dafür, dass jeder Mitarbeiter nur für seine Position freigegebene Daten einsehen kann.

Wie schnell kann ich mit Ihrer HR- und Payroll-Lösung starten?
Grundsätzlich ist dies von einem Tag auf den anderen möglich, je nachdem wie viel Vorlauf auf Kundenseite nötig ist. Seit Neuestem bieten wir die Einsteigerversion unserer HR-Plattform sogar direkt online zum Kauf an, um flexibel zum 1. oder 15. eines Monats zu starten. Kunden können entscheiden, ob sie die Datenmigration selbst vornehmen oder durch uns vornehmen lassen möchten, und werden durch ein spezialisiertes Onboarding-Team bei der Einrichtung der Plattform unterstützt.

Was würden Sie Unternehmen empfehlen, die sich mit dem Thema Digitalisierung des Personalwesens noch nicht auseinandergesetzt haben?
Der ideale Einstieg ist die Digitalisierung der Personalakten. Die sogenannten E-Files ersetzen Aktenschränke und ermöglichen die papierlose, rechtssichere Verwaltung aller Personaldaten
und -dokumente. Damit sind sie die Basis für die Digitalisierung des gesamten Personalmanagements. Ein großer Vorteil digitaler Personalakten sind zudem umfangreiche Analysemöglichkeiten in einem Dashboard, die Auswertungen vereinfachen, z. B. die Arbeitgebergesamtkosten. Die Geschäftsführung kann jederzeit standortunabhängig darauf zugreifen, ohne auf Rückmeldung aus der Personalabteilung warten zu müssen. Und Mitarbeiter profitieren vom mobilen Zugriff z. B. auf ihre letzte Lohnabrechnung.


Intuitiv und praktisch: Digitale Personalakten mit mobiler Zugriffsmöglichkeit


Können auch Steuerberater und Lohnbüros, die mit DATEV abrechnen, Ihre Software nutzen?
Ja, gerade für Anbieter externer Lohndienstleistungen ist vyble® ideal. Die Plattform ist umfassend DATEV-kompatibel und vereinfacht die Verwaltung mehrerer Mandanten mit einem einzigen Login. Speziell für Professional Services ist vyble® als abgetrennte Systemumgebung für den eigenen Mandantenkreis verfügbar und White Label-fähig, also mit dem eigenen Logo gebrandet. Auf diese Weise punkten Steuerberater und Lohnbüros bei ihren Mandanten mit einer “eigenen” innovativen Möglichkeit zur Abrechnung.

Können Sie bitte am Beispiel der digitalen Lohnabrechnung und Gehaltsabrechnung kurz erklären, wie genau das Zusammenspiel zwischen Unternehmen mit einem externen Dienstleister geregelt ist?
Die Personalabteilung erhält auf Knopfdruck einen Forecast inklusive Probeabrechnungen. Nach Prüfung und Freigabe exportiert der Steuerberater die Daten direkt aus der Plattform und leitet sie an die erforderlichen Stellen weiter. Die fertigen Lohnauswertungen und weitere Dokumente lädt er auf Knopfdruck wieder hoch. Die Plattform legt die Lohn- und Gehaltsabrechnungen automatisiert in den jeweiligen Mitarbeiterakten ab. Das System unterstützt dabei durch Benachrichtigungen z. B. über Freigaben.

 

Lesen Sie mehr zum Thema Digitalisierung des HR-Managements im kostenlosen Whitepaper “Tipps und Tools zur Mitarbeiterbindung, die Sie kennen sollten”.

 


Webinar

Digitale HR- und Lohnabrechnungssoftware in 30 Minuten: vyble® bietet
kostenlose, unverbindliche Demo-Webinare über die Plattform an.
https://vyble.io/webinare/


Über den Interviewpartner

Dr. Alexander Tiedtke ist seit 2019 Geschäftsführer der vyble GmbH. Der promovierte Wirtschaftswissenschaftler war unter anderem Managementberater, in führender Position im Volkswagen-Konzern sowie als Unternehmer in einem mittelständischen Familienunternehmen tätig.

 

 

Aufmacherbild Quelle Lizenz
Image by MORE ON https://melovess.com from Pixabay


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Energieeinkauf: ohne Digitalisierung keine Chance

Das Unternehmen enPORTAL ist ein führender IT-Dienstleister und Portalbetreiber für die digitale Beschaffung von Strom und Gas und ein cloudbasiertes Energiedatenmanagement. Mittelständische Unternehmen aus allen Branchen mit einem Jahresverbrauch ab 100.000 Kilowattstunden im Jahr nutzen das Energieportal für Ihre Energiedatenverwaltung und für Ausschreibungen über den digitalen Marktplatz mit über 650 Energielieferanten. Seit Jahresbeginn 2022 sind bereits 600 Ausschreibungen mit einem Gesamtvolumen von 7,5 Terawattstunden Energie über den digitalen Marktplatz gelaufen. Wir haben den enPORTAL Geschäftsführer Clemens Graf von Wedel zum Interview getroffen.

Herr Graf von Wedel, wie ist die Lage bei den Energieeinkäufern und welche Stimmung nehmen Sie aktuell wahr?
Unsere Kundenbetreuer stehen im täglichen Austausch mit Energieeinkaufsabteilungen und verantwortlichen Energieeinkäuferinnen/-einkäufern und daher erhalten wir ein recht gutes Bild zur Stimmungslage. Wir bemerken aktuell, dass die Lage sehr angespannt und viele Energieverantwortliche recht unsicher sind. Zwischen Vertriebsstopp-Wochen vonseiten der Energieversorger, kurzen Zeitfenstern mit Bindefristen von max. 5 Minuten oder nur Tranchen-Angeboten an einem einzelnen Tag variieren die Optionen täglich. Die Betonung liegt auf täglich. So haben wir jeden Tag neue Herausforderungen, denen wir uns gemeinsam mit unseren Kunden stellen müssen. Daher gilt es permanent neu zu prüfen, welche Optionen die besten für das jeweilige Unternehmen sind. Aber hier sind wir mit unserem digitalen Tool bestens aufgestellt und können das auch für unsere Einkäufer/-innen gewährleisten.

Welche Veränderungen gibt es bei Energieausschreibungen, die über Ihren digitalen Marktplatz laufen?
Ja, tatsächlich nehmen wir eine elementare Veränderung bei den von uns betreuten digitalen Ausschreibungen von Strom und Gas wahr: Früher haben die Unternehmen bzw. Einkäufer diktiert, welche Beschaffungsform, Zahlungsziele oder z. B. Toleranzbänder sie wünschen – heute sind es aufgrund der extremen Preisexplosionen die Lieferanten, die den Ton angeben bzw. auch angeben müssen, weil sie selbst vom volatilen Energiemarkt abhängig sind. Das Blatt hat sich somit um 180 Grad gedreht. So geben Energieversorger derzeit an, wann sie welche Preise machen können oder eben nicht. Verändert hat sich auch die Prüfung der Bonität, die bei einigen Energieversorgern derzeit bis zu 10 Tage dauern kann.

„Die Lage ist wirklich angespannt, aber auch jetzt zeigt sich, dass sich Wettbewerb auszahlt“, stellt Clemens Graf von Wedel fest. (Bildquelle: enPortal)

Wie viele Angebote erhalten Energieeinkäufer denn derzeit, wenn Sie eine Ausschreibung durchführen?
Vielleicht blicken wir kurz zurück: Durch unsere über 650 integrierten Energieversorger auf dem Strom- und Gasmarktplatz hatten wir bis 2021 im Durschnitt zwischen 10—25 Angebote je Ausschreibung, bei attraktiven Unternehmen natürlich deutlich mehr. Heute sind die Einkäufer froh, wenn sie Angebote erhalten und gar noch auswählen können. Die Lage ist wirklich angespannt, aber auch in der jetzigen Situation zeigt sich: ein Wettbewerb zahlt sich aus und wir finden gemeinsam mit dem Kunden eine Lösung und einen passenden Energieliefervertrag. Manchmal wiederholen wir eine Ausschreibung eine Woche später, wenn von den Lieferanten die Information kommt, dass sie dann voraussichtlich wieder anbieten können. Wichtig ist der direkte Draht zum Markt, zu den Vertriebsentscheidern bei den Energieversorgungsunternehmen und die Kenntnis über die Börsenentwicklung – diese Infos haben wir, sodass wir unsere Einkäufer/-innen bestens auf dem Laufenden halten und beraten können.

Gibt es auch Änderungen bei Beschaffungsformen? Kaufen die meisten eher für ein gesamtes Lieferjahr ein oder eher kurzfristig?
Da sprechen Sie einen spannenden Punkt an. Wir bemerken seit Jahresbeginn, dass immer mehr Kunden, die früher selbstverständlich Festpreise vereinbart haben – was für viele sinnvoll war, bei den damals günstigen Preisen! – jetzt auf horizontale oder vertikale Tranchen umsteigen bzw. es auch müssen. Natürlich deshalb, weil die Lieferanten oft nichts anderes anbieten können. Das führt dazu, dass sich viele Unternehmen neu darauf einlassen und sich gleichermaßen das Wissen darüber aneignen müssen, denn nicht jeder Einkäufer ist mit diesen Beschaffungsformen vertraut. Aber auch hier sind digitale Lösungen die beste Möglichkeit, um schnell reagieren und mit dem entsprechenden Beschaffungsmodell an den Markt gehen zu können – die Grundlage sind vollständige und aktuelle Energiedaten – diese kombiniert mit einem Energieexperten, der den Markt kennt, ermöglicht ein schnelles Wechseln zu einer anderen Beschaffungsform.

Haben die meisten Unternehmen ihre Energiemengen für 2023 schon fest vereinbart oder warten diese noch ab?
Viele unserer Kunden hatten die gefallenen Terminmarktpreise im Zuge des 1. Lockdowns Anfang 2020 für Ausschreibungen genutzt und sich langfristig für mehrere Jahre mit Strom und Gas eingedeckt. Die können sich noch etwas zurücklehnen und müssen sich nicht stressen. Diejenigen, die damals noch weiter spekuliert haben, dass die Preise noch weiter sinken würden, sind dann ab dem 2. Halbjahr 2020 auf dem falschen Fuß erwischt worden und haben zu wesentlich höheren Preisen beschaffen müssen. Denn seitdem geht es preislich nur noch nach oben. Unsere Auswertung zeigt, dass viele unser Kunden für 2023 eingedeckt sind. Für alle anderen ist aber das aktuelle Preisniveau für die Belieferung für 2023 ein wahres Horrorszenario.

Der richtige Zeitpunkt zum Energieeinkauf ist immer der, der am besten in die Wirtschaftsplanung passt.

Clemens Graf von Wedel

Was antworten Sie auf die Frage, wann der richtige Einkaufszeitpunkt ist?
Eine Frage, die uns täglich gestellt wird und auf die wir natürlich eine Antwort haben: Der beste Einkaufszeitpunkt ist der, der in die Wirtschaftsplanung passt. Wie erkenne ich das? Indem ich schon vor der Ausschreibung weiß, mit was für Kosten ich für den Lieferzeitraum rechnen muss. Das haben wir mit unserem Onlineportal mittels einer individuell auf das Verbrauchsprofil des Kunden erstellten Energiepreisprognose umgesetzt: das bedeutet, der Kunde sieht jeden Tag auf Basis der Terminmarktkonditionen mit welchen Preisen er für die vertragsfreien Lieferjahre rechnen muss. Wenn das in die Kostenkalkulation passt, wird eingekauft. Alles andere ist unserer Ansicht nach Börsenflüsterei und entzieht sich jeder Grundlage. Keiner kann wissen, wann der beste Zeitpunkt in der Zukunft ist. Es gilt jeden Tag zu wissen, wie sich die Marktlage der Strom- und Gasbörsen auf meine noch zu beschaffenden Lieferzeiträume auswirkt. Wenn Einkäufer/-innen das wissen, können sie auch Entscheidungen fällen. Natürlich gilt es, die Marktentwicklungen zu kennen und zu beobachten, aber auch hier stehen wir mit Marktnews von professionellen Marktredaktionen parat.


Bildquelle / Lizenz Aufmacher:

Photo by Andrey Metelev on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Welche Empfehlungen können Sie Energieeinkäufern abschließend geben?
Wir empfehlen ganz klar: Wer seine Energiedaten noch nicht online managt und mit den aktuellen Börsenentwicklungen verknüpfen kann, sollte dies schnellstmöglich umsetzen. Wer noch offline seine Beschaffung umsetzt und nur mit dem örtlichen Versorger verhandelt oder und seine Energiedaten in Excel-Tabellen verwaltet, hat unserer Ansicht nach keine Chance, das Beste aus der schwierigen Situation herauszuholen und gefährdet im schlimmsten Fall seine Existenz. Es gibt die digitalen Möglichkeiten im Markt und wer nicht erkannt hat, wie elementar wichtig es geworden ist, sich jetzt mit dem Energiemarkt digital zu vernetzen, der braucht im Grund – so hart es klingen mag – auch keine weiteren digitalen Prozesse innerhalb des Unternehmens umzusetzen. Auf ein professionelles Energiedatenmanagement sollte der Fokus gelegt werden, denn ohne Energie zu den bestmöglich günstigen Preisen auch keine erfolgreiche Produktion oder Dienstleistung. Aber wir merken auch, dass diese Einsicht bei vielen Geschäftsführern und Entscheidern von mittelständischen Unternehmen angekommen ist und derzeit aktiv umgesetzt wird.

Neues Lieferkettengesetz nimmt Unternehmen in die Verantwortung

Von Christopher Wojciech, Digital Consultant bei Macaw

Am 11. Juni 2021 wurde vom Deutschen Bundestag das Gesetz über die unternehmerischen Sorgfaltspflichten in Lieferketten beschlossen. Ab dem 1. Januar 2023 tritt das Lieferkettengesetz bereits in Kraft. Das Ziel: Die Rechte der Menschen schützen, die für unmittelbare Zulieferer Waren für den deutschen Markt produzieren. Hat ein Unternehmen Kenntnisse über Menschenrechtsverletzungen, dehnt sich diese Pflicht auch auf diese unmittelbaren Zulieferer aus. Was bedeutet das nun konkret für Firmen? Neben dem Sicherstellen von Menschenrechten und einer umfassenden Berichtspflicht geht es auch um ein angemessenes Risikomanagement sowie das Einrichten von Beschwerdemöglichkeiten und Maßnahmen zur Vermeidung von Rechtsverletzungen. Wichtig dabei: Das neue Gesetz gilt auch für kleine und mittelständige Unternehmen, wenn sie als Zulieferer für große Firmen agieren.

Am Anfang steht die Analyse

Grundlage für die Erfüllung der Sorgfaltspflicht ist das Wissen darüber, wie die Lieferkette aufgebaut ist und welche Parteien involviert sind. Welche Unternehmen dienen als mittelbare, welche als unmittelbare Zulieferer? Dafür raten wir zu einer anfänglichen Analyse, ähnlich einer Bestandsaufnahme. Dies kann ganz klassisch in einer Excel-Liste durchgeführt werden. Besser sind jedoch Lösungen, die gleichzeitig auch Möglichkeiten zur Interaktion bieten. Personalisierte und automatisierte Prozesse helfen und können mühelos durch die Fachabteilungen selbst erstellt werden. Auf diese Weise können manuelle Aufwände drastisch reduziert werden. Um die einzelnen Bestandteile dieses Prozesses zu kombinieren, eignen sich besonders Low-Code- oder No-Code-Lösungen wie die Microsoft Power Platform. Mit ein wenig Hands-on-Mentalität können hier schnelle Ergebnisse erzielt werden. Ein erster Schritt kann beispielsweise darin bestehen, eine Liste mit Unternehmen anzulegen, die Teil der Lieferkette sind – egal ob mit Sharepoint, Excel oder im Dataverse. Für die Abfrage der benötigten Kriterien bei den jeweiligen Zulieferern und Partnerunternehmen ist eine automatisierte Kontaktaufnahme ratsam, die die Lieferanten beispielsweise in einer PowerApp durch die Prozesse führt. So werden individuelle E-Mails, ein manuelles Übernehmen der Inhalte und damit auch Fehler vermieden. Bleibt die Rückmeldung der Zulieferer und Partnerunternehmen zunächst aus, sind automatisierte Follow-up-E-Mails mit verschiedenen Eskalationsstufen zu empfehlen. Auch diese können von der Fachabteilung eigenständig konfiguriert und umgesetzt werden. Für die spätere Auswertung werden die eingetroffenen Antworten automatisch in der zu Anfang angelegten Liste abgespeichert.

Mit Automatisierung zu datenbasierten Reportings

Zu Anschauungszwecken für ein mit Daten angereichertes Reporting haben wir ein PowerBI-Dashboard erstellt, das einen individuellen Score pro Unternehmen berechnet. Mit der Software für Geschäftsanalysen von Microsoft lassen sich etwa interaktive Visualisierungen derart simpel gestalten, dass sich das Programm auch für Endnutzerinnen und Endnutzer ideal zur Erstellung von Berichten eignet. Für die bessere Steuerung beziehungsweise Überwachung der Prozesse erfolgt im nächsten Schritt die Berechnung eines KPIs für das gesamte Unternehmen – in Form einer einzigen Kennzahl. Deutlich wird dabei, wie einfach Unternehmen die verschiedenen Quellen und Daten zentral sammeln und als automatischen Prozess mit der Microsoft Power Platform abbilden können. Mit diesen Reportings erhalten Unternehmen alle relevanten Daten über ihre Zulieferfirmen und können ihrer Beweispflicht in aller Sorgfalt nachkommen.

Alle Daten immer auf einen Blick

Unternehmen, die stets einen aktuellen Überblick über ihre Lieferketten haben möchten, sind auf das Just-in-Time-Reporting angewiesen. Im Grunde führen sie damit regelmäßige Risikoanalysen durch. Mit Lösungen wie Microsoft PowerBI gibt es die Option, alle dazu notwendigen Datenquellen an einem Ort zu vereinen und auf dieser Grundlage die passenden Dashboards zu entwickeln.

Das Lieferantenmanagement besteht aus vielen Prozessen. Ein zentrales Tool ist dringend nötig, um der gesetzlichen Berichtspflicht nachzukommen, ohne dabei Mehraufwand zu erzeugen. Ein großer Vorteil der Power Platform ist, dass Mitarbeitende bereits nach kurzen Trainings eigenständig mit der Technologie arbeiten und Anpassungen vornehmen können.

Automatisierung im Rechenzentrum: vom Hype zur Überlebensstrategie

Autor: Oliver Parpart*

Die Automatisierung ist aus allen Lebens- und Unternehmensbereichen nicht mehr wegzudenken. Als Evolution zieht sie sich seit der Industrialisierung durch unsere wirtschaftliche Weiterentwicklung und ist beispielsweise für die deutsche Industrie stets ein Garant für globalen Erfolg gewesen – trotz steigender Personalkosten.

Egal, ob das erfahrene Gastroteam im Sterne-Restaurant heutzutage auf die intelligente Küchenmaschine zurückgreift, um Soßen „à la minute“ zuzubereiten, oder der Abteilungsleiter der Schadensabteilung einer Versicherung mit Robotic Process Automation seinen Sachbearbeitern wiederkehrende Eingaben abnimmt: Im Vordergrund stand und steht immer das gleiche Ziel, nämlich höhere Produktivität und geringere Fehlerquoten. Das führt wiederum zu geringeren Kosten und höherer Qualität.

Vor Kurzem noch wurden Überlegungen zu Automatisierung außerhalb der industriellen Produktion oft noch mit mittlerer Priorität vorangetrieben, da es ja „auch so irgendwie immer geht“. Solche Ansätzen galten als innovativ, aber letztlich nicht hochkritisch für den Unternehmenserfolg. Das hat sich in kurzer Zeit grundlegend und radikal verändert.

Oliver Parpart: „In der IT wird die Notwendigkeit zur Veränderung durch weitere Trends befeuert: Agile Entwicklung und neue hybride Cloud-Technologien beschleunigen Innovationszyklen und bringen viele Vorteile und Chancen für Unternehmen mit sich. Deshalb breiten diese sich auch atemberaubend schnell aus.“

Als Brandbeschleuniger für den Veränderungsdruck wirken dabei aktuelle gesellschaftliche Entwicklungen wie geburtenschwache Jahrgänge, Krisensituationen wie die Corona-Pandemie oder die Energiekrise als Folge der aktuellen politischen Verwerfungen.

In der IT wird die Notwendigkeit zur Veränderung durch weitere Trends befeuert: Agile Entwicklung und neue hybride Cloud-Technologien beschleunigen Innovationszyklen und bringen viele Vorteile und Chancen für Unternehmen mit sich. Deshalb breiten diese sich auch atemberaubend schnell aus.

Die Auswirkungen des Veränderungsdrucks auf das Rechenzentrum

Für den Rechenzentrumsbetrieb und damit die IT-Leiter birgt der Veränderungsdruck große Herausforderungen. Dazu gehören unter anderem der immense Kostendruck aus steigenden Energiepreisen und steigenden Preisen der IT-Hersteller sowie der allgemeine Fachkräftemangel. Außerdem fehlt es oft an Skills und Know-how, sich die Vorteile neuer (Cloud-)Technologien nutzbar zu machen.

Enterprise-Container-Plattformen wie Red Hat OpenShift können Abhilfe schaffen, indem sie echte Unabhängigkeit von der darunterliegenden Infrastruktur bringen und das Deployment der Workloads auf der kostengünstigsten und energieeffizientesten Infrastruktur sowie die ständige Flexibilität der Verlagerung ermöglichen. Sie sind die Basis für den Betrieb von Software-Containerlösungen, die die Innovationszyklen dramatisch verkürzen.

Hinzu kommt die neue Generation von Lösungen im Bereich Application Performance Management (APM) und Application Resource Management (ARM), die den Kunden theoretisch eine deutliche höhere Stabilität und Verfügbarkeit der Anwendungen erlaubt – egal ob es sich um alte Legacy-Anwendungen oder neue Container-Lösungen ohne Überprovisierung von teuren, energiefressenden Ressourcen handelt. Nicht zuletzt helfen Cybervault-Konzepte den Kunden nach Ransomware-Attacken in unter 24 Stunden, statt in durchschnittlich 21 Tagen, wieder voll betriebsfähig zu sein. Theoretisch!

Aber wer kümmert sich darum, die Rechenzentrumsumgebung zeitnah anzupassen – damit die Kunden von den Lösungen bestmöglich profitieren?

Automatisierung im Rechenzentrum als Schlüssel

Genau hier kommt die Automatisierung im Rechenzentrum ins Spiel, die eine Schlüsselrolle einnimmt, da sie genau diese zeitnahe Anpassung der Umgebung ermöglicht. Automatisierung wird so zur Überlebensstrategie und Chance für Unternehmen.

Bis heute bieten viele Hersteller jedoch ausschließlich proprietäre Teilautomatisierungsansätze an, die an ihre Technologie gebunden sind.

Im Gegensatz dazu stellt Red Hat Ansible eine universelle Open-Source-Automatisierungslösung dar, die heute schon in vielen IT-Abteilungen im Einsatz ist. Wir als CANCOM sehen den Schlüssel zur Entfesselung des ganzen Potentials der Automatisierung im Data Center darin, ein Open-Source-basiertes Framework wie eben Red Hat Ansible Automation Platform zum Aufbau und Betrieb von Automatisierung strategisch in die gesamte Organisation einzubringen.

Im Tagesgeschäft lassen sich damit beispielsweise SAP-Instanzen, Worker Nodes oder generell Infrastrukturen mit einem Klick schnell aufsetzen oder Netzwerkabschnitte einrichten.

Erfolgreiche Ransomwareattacken und Cybervaults zeigen, worum es außerdem geht: Hier können SIEM-Systeme zwar den Zeitpunkt des Angriffes eingrenzen und Sicherungs-Snapshots im Angriffsfall auslösen. Speichersysteme können diese unveränderbaren Snapshots aus geschützten „Datentresoren“ bereitstellen. Der Wiederaufbau der IT-Umgebungen allerdings erfordert vorbereitete Planung und viele automatisierte Abläufe, um schnell die Umgebungen wieder aufzubauen.

Wir als CANCOM fokussieren uns bei der Beratung und Unterstützung auf Enterprise-fähige Lösungen wie Red Hat Ansible Automation Plattform, die neben dem Support und der zentralen Managementkonsole viele vorgefertigte Integrationen und Assets mitbringt. Auch eigene Assets für diverse Szenarien stellen wir bereit und erweitern diese ständig.

Fazit: Automatisierung im Rechenzentrum wird zur Überlebensstrategie, aber auch zur großen Chance für Unternehmen, die Potentiale neuer IT-Technologien zum eigenen Vorteil erfolgreich einzusetzen.

* Der Autor Oliver Parpart ist Director Business Development bei CANCOM

Weitere Informationen unter
https://www.cancom.de

Wachstum durch Reduzierung?

Warum Subscription-Geschäftsmodelle in einem starken Ecosystem ein Weg in eine grüne Zukunft sind, beschreiben Dr. Lennard Holst, Gerrit Hoeborn und Lukas Bruhns vom FIR an der RWTH Aachen.

Nachhaltigkeit und damit eine Reduzierung der eingesetzten Ressourcen stehen häufig im Widerspruch zu den angestrebten Wachstumszielen. Das Neugeschäft sowie ergänzende Serviceleistungen bauen auf Obsoleszenz, also den Verschleiß und folgenden Ausfall der Maschinen und Anlagen. Mehr Verschleiß bedeutet somit mehr Umsatz. Erst in einem Ecosystem erbrachte Subscription-Geschäftsmodelle ändern die Anreizstruktur, sodass Umsatz und nachhaltiges Wirtschaften sich gegenseitig befruchten.

„Wir müssen nachhaltiger werden!“. So oder so ähnlich werden bei Ihnen in letzter Zeit öfter Gespräche begonnen haben. Die endliche Verfügbarkeit von Ressourcen führt dazu, dass der einmalige, transaktionale Verkauf und die abschließende Entsorgung der Produkte, nicht mehr zeitgemäß sind. Es bedarf neuer Muster der Wertschöpfung abseits des Take-Make-Waste-Prinzips, die den Ressourcenverbrauch reduzieren. Gleichzeitig steigt die Komplexität der Leistungen, sowohl auf der technischen Ebene der Maschinen und Anlagen als auch auf der Ebene der notwendigen Services. Dadurch sind in zunehmender Anzahl spezialisierte Akteure involviert. Zusätzliche Investitionen sind notwendig, um Partner und Technologien abzustimmen, zu integrieren und eine gemeinsame Lösung anzubieten. Ein Kreislauf, an dessen Ende die Forderung nach Wachstum der Forderung nach Reduzierung und Verschlankung gegenübersteht.

Stehen also Wachstum und ressourcenbewusstes Handeln in einem unlösbaren Widerspruch zueinander? Dass Wachstum nicht zwangsläufig mit einer Steigerung des Verbrauchs einhergeht, demonstriert die Landwirtschaft seit über 5.100 Jahren. Da Anbauflächen sowie Nährstoffe im Boden begrenzt sind, kann der Ertrag nicht beliebig über weitere Felder oder das Ausbringen zusätzlichen Saatguts gesteigert werden. Um trotz der Limitierung Wachstum zu ermöglichen, kommen Düngemittel zum Einsatz, die das Ertragspotenzial der Pflanzen steigern. Vor dem Hintergrund eines zunehmenden Drucks zur Verfolgung und Einhaltung nachhaltiger Geschäftsziele bei gleichzeitigem Wachstum ist es notwendig, auch in der produzierenden Industrie „Dünger“ einzusetzen.

Das transaktionale Geschäft von Unternehmen basiert noch überwiegend auf Obsoleszenz. Der Verkauf neuer Maschinen und Anlagen ist davon abhängig, dass die Kunden entweder selbst expandieren oder Bestandsanlagen, bspw. aufgrund von Defekten oder nicht mehr zeitgemäßer Technik, ersetzen. Ergänzend kommen Serviceleistungen hinzu, die Unternehmen während der Nutzungsphase anbieten. Sie verdienen an der Durchführung von Instandsetzungs- und Wartungsleistungen oder dem Verkauf von Ersatzteilen. Das Anreizsystem ist folglich darauf ausgerichtet, Leistungen unabhängig vom tatsächlichen Bedarf des Kunden so oft wie möglich zu verkaufen. Es bedarf eines neuen Geschäftsmodellansatzes, bei dem die Anreizstruktur und das Handeln aller Beteiligten gleichgerichtet orientiert sind.

Subscription-Geschäftsmodelle, auch bekannt unter zahlreichen Synonymen wie Pay-per-Use- und Pay-per-Outcome-Modelle oder Everything-as-a-Service-Angebote, bieten diese Möglichkeit. Die Modelle können mithilfe von vier wesentlichen Merkmalen charakterisiert werden.

  1. Nutzenversprechen
  2. Ertragsmechanik
  3. Subscription-Kunden
  4. Wertschöpfungskette

Im Rahmen eines nachhaltigen Subscription-Geschäftsmodells kauft der Kunde nicht mehr einzelne Produkte oder Services. Das Nutzenversprechen geht weit darüber hinaus und garantiert dem Kunden vielmehr eine Maximierung seines individuellen Erfolgs. Um dies zu erreichen, verspricht der Anbieter etwa die Steigerung oder den Erhalt eines Produktivitätsniveaus. Infolgedessen wird ein Teil der Kundenrisiken aus dem Betrieb der Anlage auf den Anbieter übertragen, indem dieser ein Lösungspaket aus Produkten, Software und Services schnürt. Dieses gewährleistet die Erreichung oder Aufrechterhaltung des produktiven Zustands im Kundenprozess. Die hinter dem Lösungspaket liegende Ertragsmechanik orientiert sich in der Regel an der Nutzungszeit oder an den Produktionsergebnissen. Somit wird es für den Anbieter unattraktiv, Leistungen ohne unmittelbare Notwendigkeit zu erbringen. Da er damit seinen eigenen Gewinn schmälern würde ist die Folge, dass sich das Anreizsystem wandelt. Kundenerfolg wird in direkter Konsequenz zum Anbietererfolg. Diese Win-Win-Situation führt dazu, dass die gleichzeitige Forderung nach Wachstum und Reduzierung keinen direkten Widerspruch mehr darstellt.



Die Realisierung eines Subscription-Geschäftsmodells erfordert immer eine vorausschauende Auswahl der Kunden. Da im Maschinen- und Anlagenbau oft hochpreisige Assets beim Kunden integriert werden, stehen zumeist die Kunden mit den besten Zukunftsaussichten im Fokus. Für diese Kunden lassen sich langfristige Erfolge besser prognostizieren, um daraufhin einen positiven „Lock-in-Effekt“ zu erzeugen, den Kunden also langfristig an das eigene Unternehmen bzw. Produkt zu binden. Damit sowohl Anbieter als auch Kunde gleichermaßen vom Subscription-Geschäftsmodell profitieren, ist darüber hinaus die Etablierung einer integrativen, akteurübergreifenden und effizienten Wertschöpfungskette notwendig. Dies kann mittels des Ecosystem Design, dem gezielten Aufbau von Ökosystemen, gelingen. Das Ecosystem schafft die Voraussetzungen für nachhaltige Geschäftsmodelle, indem Produkte intelligent vernetzt sowie Kundenkontaktpunkte digitalisiert und an die Systeme des Anbieters angebunden werden.

Die Gestaltung dynamischer Subscription-Ecosystems von untereinander abhängigen aber autonomen Akteuren baut auf drei zentralen Schalen auf, die aufeinander aufbauend das System charakterisieren. Diese drei Schalen stehen in vielfältigen Wechselbeziehungen zueinander und unterstützen dabei, das Ecosystem aufzubauen:

  1. Ecosystem Zentrum
  2. Ecosystem Beziehung
  3. Ecosystem Umfeld

Im Ecosystem Zentrum steht die Gestaltung eines abgestimmten und gemeinschaftlichen Wertangebots. Dies wiederum definiert, wie die einzelnen Akteure koordiniert werden, um das Lösungspaket auf die individuellen Bedürfnisse und das Nutzungsverhalten der Kunden zuzuschneiden. Vor dem Hintergrund immer komplexerer Lösungspakete und der Integration von spezialisierten Anbietern für Teilleistungen der Subscription kommt dem Dialog der Anbieter untereinander, aber auch dem Dialog zum Kunden eine immer wichtigere Rolle zu. Damit die Lösung am Ende mehr ist als die Summe der Einzelleistungen, wird innerhalb der Schale zudem die Modularität der Leistungen definiert. Dies gewährleistet, dass verschiedene Akteure auf einfache Weise unabhängige Bausteine zu dem Lösungspaket beisteuern können, ohne ihre individuellen Entscheidungen vorher formell abzustimmen.

Mit der Integration zusätzlicher Partner mit wiederum eigenen Geschäftsinteressen nimmt die Komplexität innerhalb des Ecosystems zu. Auf der mittleren Schale werden deswegen die notwendigen, materiellen sowie nicht-materiellen Verbindungen zwischen den Akteuren des Subscription-Ecosystems definiert und beschrieben.

Auf der äußeren Schale wird die Interaktion des Ecosystems mit dem Umfeld betrachtet. Um Leistungen langfristig skalieren zu können, ist zunächst die Einbindung oder Schaffung einheitlicher Standards sowie die Nutzung einer gemeinsamen Plattform erforderlich. Sie gewährleisten eine reibungslose Interaktion des Ecosystems mit seinem Umfeld und ermöglichen dadurch einen selbstverstärkenden Zyklus. Die auf Netzwerkeffekten beruhende Eigendynamik stellt schließlich sicher, dass sich die positiven Folgen der durch die Akteure im Ecosystem verfolgten nachhaltigen Geschäftsmodelle verstetigen.

Subscription-Geschäftsmodelle bieten Maschinen- und Anlagenbauern ein gewaltiges Potenzial, um sich auch zukünftig erfolgreich aufzustellen und ihr Geschäft sowohl nachhaltig zu gestalten als auch zu sichern. Unternehmen sind dabei keine Einzelkämpfer mehr. Zusammen mit vielen, teils spezialisierten Akteuren generieren sie im Ecosystem Mehrwert für sich selbst und für den Kunden. Verinnerlichen Sie daher diese neue Denkweise und bringen Sie den Dünger aufs Feld, sehen Sie Ihre Kunden wachsen und profitieren Sie mit.


Die Autoren

Dr. Lennard Holst
Bereichsleiter Dienstleistungsmanagement
FIR an der RWTH Aachen
Tel.: +49 241 47705-202
E-Mail: Lennard.Holst@fir.rwth-aachen.
de

Gerrit Hoeborn
Bereichsleiter Business Transformation
FIR an der RWTH Aachen
Tel.: +49 241 47705-302
E-Mail: Gerrit.Hoeborn@fir.rwth-aachen.de

Lukas Bruhns
Fachgruppe Subscription Business Management im Bereich Dienstleistungsmanagement
Tel.: +49 241 47705-212
E-Mail: Lukas.Bruhns@fir.rwth-aachen.d
e


Bildquelle / Lizenz Aufmacher:

Photo by Taisiia Shestopal on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.


Most Successful Influencers

Study reveals the 20 most iconic influential people in the SEO and digital marketing industry.

As the digital marketing industry continues to evolve, the global market is estimated to be worth $786.2 billion by 2026, with the SEO industry worth currently worth $80 billion alone. 

And, as the industry grows, so does the interest in careers, as Google Trends data shows a 76% increase in global searches for ‘SEO jobs’ in the last 12 months.  

But who are the industry’s most influential figures? And, who should you be following for the latest industry trends and updates?  

To find out, SaaS SEO agency, Rock The Rankings, analysed social media to find the top 20 influencers for 2022.  

Using a list of popular figures who are prominent on social media, the SEO experts tracked the number of Twitter and Linkedin followers, number of tweets, engagement rate, and mentions, to create a weighted rank which scores overall popularity.   

Here’s what the study found… 

  • Most influential overall – Dharmesh Shah, Hubspot 
  • Most followed on Twitter – John Rampton, Due (1,257,792) 
  • The highest number of Tweets – Pam Moore, MarketingNutz 
  • The highest engagement rate – Julie Joyce, Link Fish Media  

The 20 most influential SEO experts of 2022 

Rank SEO Influencer  Twitter followers Linkedin followers No. of tweets  Mentions (7 days) Engagement rate (%) * 
Dharmesh Shah 296,500 1,036,649 20,803 178 0.16 
John Rampton 1,257,792 45,454 38,277 141 
Pam Moore 285,548 348,243 134,776 11 0.72 
Danny Sullivan 533,000 261,623 78,888 442 0.02 
Rand Fishkin 466,241 128,000 68,857 732 0.3 
Neil Patel 437,410 453,000 25,517 348 0.14 
Barry Schwartz 184,452 23,067 128,483 1809 0.01 
Shama Hyder 45,121 615,959 25,377 45 0.01 
Aleyda Solis 125,110 36,465 122,052 717 0.57 
10 John Mueller 139,233 6,175 40,019 2110 0.01 
11 Matt Cutts 508,454 5,757 32,352 20 0.02 
12 Dr. Pete Meyers 73,918 3,734 123,872 675 0.1 
13 Julie Joyce 23,151 2,850 52,520 3.43 
14 Ann Smarty 66,016 13,472 81,794 301 
15 Glenn Gabe 52,610 3,163 76,663 418 0.02 
16 Brian Dean 125,445 68,385 7,167 25 0.87 
17 Shane Barker 29,956 23,995 82,147 46 0.01 
18 Mike Volpe 74,428 1,496 26,295 10 1.26 
19 Wil Reynolds 55,641 20,661 41,697 64 0.35 
20 Cyrus Shepard 95,977 13,610 26,249 248 0.06 

With a staggering 1,036,649 Linkedin followers, and over 296,000 Twitter followers, Dharmesh Shah, co-founder of Hubspot, is the most influential person in SEO from the study. Prior to HubSpot, he was founder and chief executive officer of Pyramid Digital Solutions, a software company, and has published a number of books including Inbound Marketing: Get Found Using Google. 

In second place comes John Rampton, who is an entrepreneur, investor, and online marketing guru He is also founder of the online payments company Due and productivity company Calendar. 

He was recently named #2 on Top 50 Online Influencers in the World by Entrepreneur Magazine and blogging Expert by Time, so it’s no surprise to see he has the highest number of Twitter followers from our study, with a staggering 1,257,792. 

With the highest number of Tweets in the study, third place goes to Pam Moore, founder of digital marketing agency, Marketing Nutz. Sharing her 25+ years’ experience with the world, Pam has composed 134,776 tweets, giving advice and industry views to her 285,548 followers

Two more influential females in SEO appear in the top 10, including founder of Zen Media Shama Hyder who comes in ninth place, and International SEO Consultant and founder of Orainti, Aleya Solis. Shama Hyder is most popular on Linkedin with an incredible 615,959 followers, while Aleyda Solis has a higher number of Twitter followers (125,110).  

Google’s very own Public Liason Officer, Danny Sullivan, is also in the top five, thanks to his impressive number of tweets (78,888) and Twitter followers (533,000). It’s probably no surprise to also see Google’s John Mueller further down the list, known in the SEO industry for sharing tips and dropping hints about what to expect next from Google. With the most Twitter mentions in our study, it’s clear his followers are keen to get his advice and opinions on the latest industry trends. 

Next up are two popular figures, Rand Fishkin and Neil Patel. Rand Fishkin is famously the founder of Moz while Neil Patel is the founder of Kissmetrics. Both figures are extremely popular on social media, especially Twitter, where they both have over 400,000 followers. When it comes to Linkedin Neil Patel has a substantially higher number of followers (453,000) while Rand Fishkin has 128,000.  

And, while Rand Fishkin is the most influential figure from Moz overall, Marketing Scientist, Dr Pete Myers is 12th on the list, followed by Julie Joyce from Linked Fish Media and Anne Smarty from Viral Bee Content.  

Further down, we see Gsquared Interactive’s Glenn Gabe, followed by Brian Dean from Banklink.io, a service which offers SEO and Link Building strategies to businesses and marketing professionals.  

With the lowest number of Tweets in the study (7,167) it’s possible that Brian Dean gives more advice via his subscription service, rather than social media.  

Marketing consultant, Shane Barker, and Former Hubspot CMO Mike Volpe are also among the most influential, and although Volpe has over 40,000 more Twitter followers than Barker, Barker tweets a lot more advice, with 82,147 posts overall.  

Last but not least, Will Reynolds from SEER Interactive makes the top 20, followed by Cyrus Shepard from Fazillion Media, both of whom are definitely worth a follow.  

To help you get connected, here are the Twitter Handles for each influencer in the top 20.

SEO InfluencerCompanyTwitter Handle
Dharmesh ShahHubspotdharmesh
John RamptonDueJohnRampton
Pam MooreMarketing NutzPamMktgNut
Danny SullivanGoogledannysullivan
Rand FishkinMozrandfish
Neil PatelKissmetricsNeilPatel
Barry SchwartzRusty Brickrustybrick
Shama HyderShama HyderShama
Aleyda SolisOriantialeyda
John MuellerGoogleJohnMu
Matt CuttsUS Digital Servicemattcutts
Dr. Pete MeyersMozdr_pete
Julie JoyceLink Fish MediaJulieJoyce
Ann SmartyViral Content Beeseosmarty
Glenn GabeGsquared Interactiveglenngabe
Brian DeanBanklink.ioBrianEDean
Shane BarkerConsultantshane_barker
Mike VolpeLola.commvolpe
Wil ReynoldsSEER Interactivewilreynolds
Cyrus ShepardFazillion mediaCyrusShepard

A spokesperson from Rock The Rankings commented on the findings: “Within the SEO industry, there is a lot of conversation on social media, and for those who are new to the industry, it’s vital to connect with the right people. This study aims to help those who want to stay up to date with the latest trends by taking a close look the industry’s most knowledgeable figures who are sharing content on social media.  

“There is so much talent in the industry, and as it continues to grow, there will no doubt be new influencers cropping up in the near future, however, we are incredibly lucky to get such incredible insights from our current top 20.” 

The study was conducted by Rock The Rankings, which is dedicated to helping grow SaaS and B2B Tech companies with SEO-focused content marketing. 

Methodology 

We collected various data points to assess each SEO influencer and provide a final popularity score, the metrics included: Number of Twitter followers, No. of Linkedin followers, No of tweets, Tweets including twitter handle, Engagement rate (%) 

Mentions was calculated via the Twitter API – we were able to search for any tweets including the twitter handle of each SEO 

Engagement rate was calculated for each tweet by adding together retweets, likes and replies and dividing it by the follower count – we then took an average across all tweets for each SEO 

We then converted all of the data points into a relative score (out of 100) – multiplied each metric by the weighting to provide a relative popularity score and give an overall ranking. 

For more informations click rocktherankings.com

Ohne sichere Energieversorgung gibt es keine IT-Sicherheit

Die IT-Sicherheit bekommt im Zeichen der Energiekrise eine ganz neue Deutung und eine Brisanz, mit der wir nicht gerechnet haben, so formuliert es Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug. Es ist ihrer Meinung nach höchste Zeit, die richtigen Konsequenzen daraus zu ziehen.

Leere Pipelines im Osten und stillstehende Atomanlagen im Westen, beispielsweise in Frankreich, sorgen für horrend steigende Preise und massive Versorgungsengpässe. Damit ist nicht nur die Energieversorgung der IT und damit die IT-Sicherheit insgesamt in Gefahr, sondern vitale Interessen unseres Gemeinwesens an sich. Gesellschaften mit hoher Digitalisierungsreife hängen an der Nabelschnur der IT. Diese „virtuelle“ Grenze haben wir schon lange überschritten. Und die IT wiederum hängt am Tropf eines reibungslosen Energienachschubs. Weite Teile unserer Wirtschaft, unserer Infrastruktur und unserer sozialen Dienstleistungen sind ohne stabile IT-Unterstützung funktionsunfähig. Und die braucht nun mal den Strom aus der Steckdose – ob wir wollen oder nicht. IT-Sicherheit muss also zuallererst als IT-Resilienz gedacht werden. Und die Voraussetzungen dafür sind aktuell denkbar schlecht.

IT-Netze hängen an Versorgungsnetzen

Statt blauäugigem Voluntarismus und taktischen Spiegelfechtereien brauchen wir spätestens jetzt strategische Weitsicht, geopolitische Nüchternheit, Konzentration auf das Notwendige und den Komplettverzicht auf ideologische Scheuklappen. Klar ist: Die Ereignisse der letzten Wochen haben uns gezeigt, wie sehr unsere arbeitsteilige Gesellschaft von einer sicheren Energieversorgung abhängt. Gewusst haben wir das schon immer – aber höchst erfolgreich verdrängt. Es gab ja auch keinen Anlass, sich in Boom-Zeiten mit dieser unangenehmen Gewissheit zu belasten. Aber jetzt ist Zahltag, die Rechnung wird serviert. Ganz weit oben listet sie die Abhängigkeiten auf, die wir mit der IT und der Digitalisierung aller Lebensbereiche für unsere Lebensgrundlagen eingegangen sind. Was passiert in einem digitalisierten Lager, wenn die IT-Steuerung ausfällt? Versuchen Sie mal, dort ohne Roboter Zugriff auf ein Hochregal zu bekommen. Händisch geht da gar nichts. Selbst wenn beispielsweise dringend benötigte Ersatzteile für Pipeline-Pumpen dort lägen, finden und zugreifen darauf könnten wir nicht. Was passiert in Krankenhäusern, Wasserwerken oder Entsorgungsbetrieben ohne sichere, sprich schlicht und einfach nur laufende IT? Die Liste ließe sich unendlich fortsetzen. Kritische Infrastrukturen sind mehr oder weniger digitalisiert. Ohne funktionierende IT müssen sie den Betrieb genauso einstellen wie mehrwertschaffende Betriebe mit Hunderttausenden von Arbeitsplätzen. Ein düsteres Bild, zugegeben, aber mit nicht unerheblichem Wahrscheinlichkeitsfaktor.

Schluss mit den Träumereien

IT-Sicherheit heißt also zuallererst Versorgungssicherheit. Das haben wir in unserer Digitalisierungs-Euphorie als selbstverständlich vorausgesetzt. Doch dieser naive Optimismus ist geplatzt. Moderne Gesellschaften hängen um so mehr an der energiehungrigen IT-Nabelschnur, je stärker sie digitalisiert sind. Digitalisierte Funktionen aber sind nicht durch manuelle Eingriffe zu ersetzen. Das ist konzeptionell so vorgesehen und innerhalb der digitalen Logik ja auch richtig. Aber wehe, der energetische Nachschub fehlt. 1973 konnten wir noch einen autofreien Sonntag einlegen. 2022 ein IT-freies Wochenende? Absurd. Selbst scheinbar so profane Aktivitäten wie Melken oder Tanken wären nicht mehr möglich. Die idealisierende Vorstellung von der Reversibilität technologischer Entwicklungen entpuppt sich auch im Fall von IT und Digitalisierung als eine romantische Illusion. Statt vom Roll-back zu träumen, muss sie ein stabileres Fundament bekommen. IT-Resilienz beginnt bei den Förderanlagen und Pipelines, den Windrädern und Solar-Anlagen, den Kraftwerken und Versorgungsnetzen. Und diese fundamentale Form von IT-Sicherheit muss dringend an die Spitze der To-do-Agenda

Die Rolle des E-Contracting im neuen Lieferkettengesetz

Andreas Zipser beschreibt eine bürokratische Mammutaufgabe. Aber dafür gibt es Tools.

Wenn 2023 das neue Lieferkettengesetz in Kraft tritt, braucht es smarte Technologien, um die neuen Vorgaben auch umzusetzen. Das digitale Vertragsmanagement spielt hier eine wesentliche Rolle – und bietet neben Rechtssicherheit und einem 360-Grad-Überblick auf Vertragspartner auch schlankere Geschäftsprozesse.

Als ob die globalen Lieferketten den Unternehmen momentan nicht schon genug schlaflose Nächte bereiten würden, droht das Supply Chain Management im nächsten Jahr zu einer bürokratischen Mammutaufgabe zu werden. Denn ab dem 1. Januar 2023 tritt in Deutschland das Lieferkettensorgfaltspflichtengesetz (LkSG), kurz Lieferkettengesetz, in Kraft. Unternehmen mit mehr als 3.000 Mitarbeitenden müssen dann nachweisen, dass sie bei der Erbringung ihrer Dienstleistungen oder bei der Herstellung ihrer Produkte die vorgeschriebenen Sorgfaltspflichten in Bezug auf Menschenrechte und Umweltschutz einhalten – und zwar bei jedem Schritt, von der Gewinnung der Rohstoffe bis zur Lieferung an den Endkunden. Ab 2024 schließt das Lieferkettengesetz zudem auch Unternehmen ab 1.000 Mitarbeitenden ein.

Transparenz im bürokratischen Supply Chain-Dschungel

Sinnvolles Gesetz, massig Arbeit: Der Maßnahmenkatalog ist lang, die Berichterstattung umfangreich und der Begriff „Lieferkette“ weit gefasst. So gilt es zukünftig, die Tätigkeiten des Zuliefer-Netzwerks genauestens zu kontrollieren und sich vertraglich von seinen Partnern versichern zu lassen, dass die gesetzlichen Anforderungen auch tatsächlich erfüllt wurden. Da kann die Compliance schnell zur Sisyphos-Arbeit mutieren. Das betrifft auch den Mittelstand. Je nach Konstellation der Lieferkette, der Größe von Zulieferern und Kunden sowie anderen Faktoren erstreckt sich das Gesetz auch auf kleinere und mittlere Betriebe.

Um den Sorgfaltspflichten entlang komplexer und weit verzweigter Lieferketten nachzukommen und weiterhin reaktionsfähig zu bleiben, ist im Vertragsmanagement ein 360-Grad-Überblick unabdingbar. Geschäftliche Beziehungen, deren Verträge rein in Papierform bestehen, sind da keine Hilfe. Im Gegenteil: Die Überwachung und Rückverfolgung von Vereinbarungen und Verhaltenskodizes, Zulassungs- und Qualifizierungsdokumenten, Service Level Agreements (SLA) von Logistikpartnern sowie Lieferantenunterlagen ist in gedruckter Form kaum noch zu stemmen – und zudem mit einem enormen Effizienzverlust verbunden. Das Gebot der Stunde lautet: Raus aus dem Papierdschungel und hin zur Digitalisierung von Geschäftsprozessen.

Das sollte eine Vertragsmanagementlösung aufweisen können

Digitales Vertragsmanagement setzt dort an, wo das Optimierungspotenzial am größten ist: bei einer effizienteren Zusammenarbeit aller Prozessbeteiligten. Moderne, webbasierte Vertragsmanagement-Software erzeugt dafür eine zentrale Plattform für die Erstellung, Unterzeichnung und Archivierung von Verträgen. Im Mittelpunkt steht in der Regel die E-Akte, die alle mit einem Vertrag verbundenen Dokumente wie Vertragsgegenstand, Vertragspartner, Vertragstyp, Laufzeiten, Fristen, Zusatzvereinbarungen sowie die Kommunikationsverkehr, E-Mails und Notizen enthält. Es gibt aber noch weitere Kriterien, die Unternehmen bei der Auswahl einer Vertragsmanagementlösung berücksichtigen sollten.

  • Einfaches und einheitliches Erstellen: Idealerweise bietet die Vertragsmanagement-Software Templates sowie vorgefertigte Textpassagen und Parameter zur Vertragserstellung. Auch neue Vertragsvorlagen sollten sich unkompliziert in die Lösung einpflegen lassen. Wie bei einem Baukastensystem können Mitarbeitende dann Verträge rechtsicher (z. B. LkSG-konform) verfassen und dabei flexibel Konditionen des Vertragspartners einbeziehen. Der hohe Automatisierungsgrad sorgt nicht nur für mehr Einheitlichkeit und weniger Fehler, sondern verkürzt auch die Bearbeitungsdauer und macht Workflows planbarer.
  • Sicher und jederzeit zugreifbar im Cloud-Archiv: Die revisionssichere Dokumentation und Archivierung von Verträgen ist bei der Umstellung auf ein digitales Vertragsmanagement unverzichtbar. Vor allem wenn es darum geht, lückenlos nachweisen zu können, dass alle Compliance-Vorgaben nach bestem Wissen und Gewissen erfüllt wurden. Die Cloud hat sich hier als sicherer Aufbewahrungsort etabliert, in dem Verträge rund um die Uhr und mit einem Klick zentral und ortsunabhängig erstellt und gespeichert werden können, um jederzeit auf sie zuzugreifen. Entsprechende Vertragsmanagementlösungen bieten integrierte Sicherheitsmaßnahmen, um Zugriffsrechte schnell und zuverlässig zu verwalten. Zugleich unterstützen sie rechtliche Standards wie die Datenschutz-Grundverordnung (DSGVO), die Grundsätze ordnungsmäßiger Buchführung (GoB) und die Prüfbarkeit digitaler Unterlagen (GDPdU).
  • Gezielte Suche: Einmal im Cloud-Archiv abgelegt, bleiben Verträge eine wichtige Informationsquelle für den Einkauf, die Rechts- und Finanzabteilung sowie für Compliance- und Supply-Chain-Experten. Mit einem Mausklick erhalten Unternehmen Einblick in alle Details, inklusive der vollständigen Protokollierung der Vertragsschritte. Moderne Vertragsmanagementlösungen greifen auf Künstliche Intelligenz (KI) und Algorithmen zurück, um Informationen zielsicher im Kontext der Daten zu finden. Inhalte sollten dabei sowohl über Schlagwörter als auch über eine semantische Volltextsuche auffindbar sein. Wer beispielsweise nach bestimmten Compliance-Standards zum Thema Menschenrechte und Umweltschutz sucht, kann schneller auf relevante Passagen in einem Vertrag zugreifen. Je nach Automatisierungsgrad der Vertragsmanagement-Software lassen sich auch Workflows zur Prüfung und Freigabe implementieren sowie Alerts einrichten (z. B. Fristenkontrolle).
  • Grenzenlose Zusammenarbeit: Innerhalb globaler Lieferketten heißt es, Vereinbarungen mit Unternehmen und Zulieferern in unterschiedlichen Ländern, unterschiedlichen Gesetzesgrundlagen, Formaten und Zeitzonen auszuhandeln. Das digitale Vertragsmanagement kann für diese Art der Zusammenarbeit eine Plattform darstellen, auf der Verträge einfach eingesehen und in Absprache mit dem Vertragspartner angepasst werden können. Ein Berechtigungsmanagement sorgt zudem für eine schnelle Einbindung interner und externer Entscheidungsträger in Prüf- oder Freigabeprozesse.

Das i-Tüpfelchen: Die E-Signatur

Andreas Zipser erläutert, wie digitales Vertragsmanagement für mehr Rechtssicherheit sorgen kann. (Quelle: Andreas Zipser)

Ein Vertrag ohne Unterschrift ist nur ein Stück Papier – oder im E-Contracting nur eine Datei aus Bits und Bytes ohne Rechtsgültigkeit. Hier kommt die E-Signatur ins Spiel: Der Vertragspartner erstellt ein elektronisches Dokument und schickt eine Aufforderung zur Unterschrift. Der Empfänger öffnet den Link und unterzeichnet das Dokument. Je nach Sicherheitsbedürfnis und Rechtsrahmen lässt sich dieser sehr vereinfachte Workflow weiter anpassen. Technisch gesehen gibt es drei verschiedene Möglichkeiten der digitalen Unterschrift.

Die einfache elektronische Signatur (z. B. die Unterschrift als Bilddatei) gilt in Deutschland juristisch zwar als „Signatur in Textform“, bietet jedoch Spielraum für Fälschungen und Betrug. Die fortgeschrittene elektronische Signatur (FES) unterzieht die Unterschrift daher einer technischen Prüfung und stellt z. B. über ein SMS-TAN-Verfahren die Identität des Unterzeichnenden sicher. Größte Sicherheit bietet allerdings die qualifizierte elektronische Signatur (QES). Hier erfolgt die Identifizierung der Vertragspartner vorab über ein elektronisches Verfahren (z. B. Video-Ident, Vor-Ort-Ident, Post-Ident oder elektronischer Personalausweis).

Und wie sieht es mit der Rechtssicherheit aus? Die Europäische Union hat bereits 2014 mit der eIDAS-Verordnung (electronic IDentification, Authentication and Trust Services) einen rechtlichen Rahmen für die Verwendung elektronischer Signaturen geschaffen. Und inzwischen wird die digitale Signatur auch in zahlreichen Ländern außerhalb der EU anerkannt. Damit steht der weltweit Nutzung der E-Signatur auch im Zusammenhang mit dem Lieferkettengesetz nichts mehr im Weg.

Mit jeder Unterschrift Kosten sparen

Grundsätzlich punktet das digitale Vertragsmanagement in allen Bereichen – nicht nur entlang der Supply Chain. Nach einer Umfrage des Branchenverbands Bitkom wechselten 60 Prozent der befragten Unternehmen während der Corona-Pandemie zumindest teilweise von der manuellen Unterschrift auf eine digitale Signatur. So ersparen sie sich nicht nur den lästigen Briefverkehr, sondern verkürzen darüber hinaus die Durchlaufzeiten von Vertragsabschlüssen von mehreren Tagen auf wenige Stunden. Im Vergleich zum analogen Vertragsmanagement sinken die Betriebskosten um ein Vielfaches. Während eine Signatur in Papierform ein Unternehmen im Durchschnitt 23,50 Euro kostet, kommt die E-Signatur gerade mal auf 1,65 Euro. Das reduziert die Kosten um knapp 93 Prozent.

Ein weiterer positiver Nebeneffekt des digitalen Vertragsmanagement: Statt Unmengen von Papier zu produzieren und in verschlossenen Schränken zu horten, lässt sich mit E-Contracting und E-Signatur Nachhaltigkeit praktizieren – und zwar über die Einhaltung von gesetzlichen Umweltschutz-Vorschriften hinaus.

Die Zeit drängt für die Digitalisierung von Geschäftsprozessen. Mit dem im Februar 2022 eingereichten Vorschlag des EU-Lieferkettengesetz steht der Supply Chain nämlich bereits die nächste Compliance-Hürde bevor. Dabei geht die EU in ihren Anforderungen sogar weit über das deutsche Lieferkettengesetz hinaus. Unternehmen, die heute schon auf smarte Lösungen für das digitale Vertragsmanagement zurückgreifen können oder bereits kurz vor der Einführung stehen, haben hier einen deutlichen Vorsprung und den entscheidenden Wettbewerbsvorteil.

Über den Autor

Andreas Zipser ist seit März 2021 CEO und Vorstandsvorsitzender der EASY SOFTWARE AG. Mit über 20 Jahren in führenden Positionen in der Softwarebranche vollzog er zuletzt beim britischen Softwareunternehmen Sage als Managing Director Central Europe erfolgreich den strategischen Schritt von On-Premise-Lizenzprodukten zu subskriptionsbasierter Software in der Cloud. Der Diplom-Mathematiker und Betriebswirt verfügt über langjährige Expertise in Wachstum und Transformation von Softwareunternehmen sowie mit Cloud-Computing im Mittelstand.


Bildmaterial:

Bildquelle / Lizenz Aufmacher: Easy Software


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.