Die Digitalisierung schreitet voran! Geht es den einen zu langsam, gibt es wieder andere, denen es zu schnell geht. Beiden Parteien gemeinsam ist, dass es das richtige Mindset braucht, um den Herausforderungen der Digitalisierung und der damit einhergehenden Transformation Tempo zu verleihen oder mit ihr Schritt halten zu können.
Die Technologien sind in der heutigen Zeit nicht mehr das Problem, man schaue sich nur die Landkarte der Cloud Native Computing Foundation (CNCF) an. Vielmehr sind es die Themen Organisation und Kultur, die bei allen Beschäftigten über alle Hierarchien hinweg ein gewisses Mindset erfordern, um als Firma oder Institution erfolgreich zu sein und am Markt und bei den Bürgern bestehen zu können.
Abbildung 1: Don’t go with the rest of the world, change your mindset to be different
Produktgedanke
In der traditionellen Datenverarbeitung sind Monolithen noch weit verbreitet und sie sind im Allgemeinen über lange Zeiträume organisch gewachsen, wie man so schön sagt. Änderungen an diesen Dinosauriern der IT-Geschichte müssen sorgfältig geplant werden. Die Architektur wurde meistens zu Beginn erstellt und musste perfekt sein, denn eine große Zahl an Entwicklern goss die Ideen in Code und nachträgliche Änderungen hätten unter Umständen große Mengen an Sourcecode betroffen und das wäre teuer geworden. Die Weiterentwicklung lief in der Regel in Form von Projekten ab, was entscheidende Nachteile mit sich bringt. Projekte sind per Definition nur von vergleichsweise kurzer Dauer und haben ein definiertes Ende. Sie kennen keine Wartung und oft führt Zeitdruck und mangelnde Disziplin dazu, dass die Architektur verwässert und der viel gefürchtete „Big Ball of Mud“ entsteht. Projekte sind weitgehend vom Lebenszyklus der Anwendung abgekoppelt und verfolgen die unterschiedlichsten Ziele bei der Weiterentwicklung der Anwendung. Das führt über kurz oder lang zu Problemen beim Betrieb und der Qualität.
Hier ist Umdenken angesagt, indem man den Produktgedanken in den Vordergrund stellt. Produkte weisen einen Lebenszyklus auf und haben den Vorteil, dass sie idealerweise ein dediziertes Team in der Verantwortung haben. Änderungen werden in Form von Feature-Requests manifestiert, Wartung und Betrieb sind fest eingeplant. Das funktioniert natürlich nur, wenn die Produkte eine gewisse Größe nicht überschreiten und eine fachliche Domäne repräsentieren. Sie können sich in schnellen Zyklen weiterentwickeln, man kann auf Änderungen schnell reagieren und technisch können sie leichter und mit geringerem Aufwand beziehungsweise Risiko auf einem aktuellen Stand gehalten werden.
Diese Sichtweise nimmt gerade richtig Fahrt auf – Stichwort „API-as-a-Product“.
Abbildung 2: API-as-a-Product (by Gitesh Koli)
Außerdem sollten Unternehmen sich mit dem Gedanken „Data-as-a-Product“ beschäftigen. Das ist ein vielversprechender Trend, operationale und analytische Daten zu trennen und zu strukturieren, um sie unterschiedlichen Nutzergruppen für die autonome Nutzung zur Verfügung stellen zu können.
DevOps
Aus dem Produktgedanken leitet sich dann gleich der nächste Impuls für ein Umdenken ab: DevOps ist in erster Linie eine neue Denkweise, die organisatorischen Silos Entwicklung und Operations aufzutrennen, die sich in vielen Unternehmen gebildet haben. Mit DevOps landen alle Tätigkeiten der Produktentwicklung in einem Team: Requirement Engineering, Entwicklung, Test, Betrieb und Monitoring.
Bei monolithischen Architekturen tut man sich schwer, all die genannten Aufgaben im DevOps-Modus zu erfüllen. Das liegt zum einen an der Größe der Applikation (Umfang des Sourcecodes, Anzahl der Module, etc.) und damit an der Größe des Teams. Zum anderen aber auch an der Komplexität und fehlenden Flexibilität der eingesetzten Infrastruktur in Form von Mainframes oder Enterprise-Application-Servern.
Mit dem Aufkommen der modernen, flexiblen und leistungsfähigen Cloud-Plattformen und der Cloud-nativen Entwicklung hat DevOps einen ganz neuen Grad an Attraktivität erlangt. Ops ist auf einmal viel einfacher geworden und auch die Entwicklung hat Fortschritte gemacht. Einstiegshürden wurden dramatisch gesenkt und der Spaßfaktor, in diesen Umgebungen zu arbeiten, darf nicht unterschätzt werden. Mit den Paradigmen „You Build it, you run it“ und „Quality built in“ ist das neue Mindset perfekt beschrieben.
Abbildung 3: DevOps-Schleife
Mit DevOps etabliert sich eine neue Kultur in Unternehmen und Organisationen. Das bedeutet ein neues Mindset nicht nur in der IT und den Produktteams, sondern auch im Management und der Personalführung.
Kultur
Das Thema Kultur stellt in meiner Wahrnehmung die derzeit höchste Herausforderung in Sachen Mindset dar. Alle bisher angesprochenen Punkte funktionieren nicht, wenn die Kultur nicht dazu passt.
Autor Peter Diefenthäler ist Softwarearchitekt bei der ARS Computer und Consulting GmbH.
Man muss sich beispielsweise den Umgang mit Fehlern ansehen. Fehler sind per se ärgerlich und sorgen in der Regel für schlechte Stimmung, zusätzliche Aufwände und damit zu Abstrichen bei der Produktqualität, die dann die Kunden ausbaden müssen. Da gibt man oft dem fatalen Impuls nach, erst einmal Schuldige zu suchen, an denen man seinen Frust loswerden kann. Seien wir mal ehrlich: Das führt zu zusätzlichen Verzögerungen und es vergeht wertvolle Zeit, bis der Fehler gefunden und behoben ist und der Kunde weiterarbeiten kann.
Wäre es nicht besser, wenn alle im Team alles stehen und liegen lassen würden, um sofort gemeinsam mit der Fehlersuche zu beginnen, ihn zu beheben und so schnell wie möglich einen Fix an die Kunden auszuliefern?
Gefragt ist also eine offene, aktive Fehlerkultur, in der Fehler akzeptiert und sofort nach einer Lösung gesucht wird, anstelle den oder die Schuldigen zu suchen und Angst und Unsicherheit zu verbreiten. In einer funktionierenden Fehlerkultur wird Innovation nicht gebremst, indem man um jeden Preis Fehler vermeidet, denn sie dienen auch dazu sich weiterzuentwickeln und kalkulierte Risiken einzugehen. Nur so reizt man das Potenzial von Agilität und die schnellen Entwicklungszyklen der modernen Plattformen zum Wohl des Unternehmens aus.
Die Kulturthemen Lernen und Experimentieren sind auf den ersten Blick schon leichter zu realisieren. Doch auch hier liegt der Teufel im Detail: Termine stehen im Raum und oft ist die Personaldecke dünn. Leider existiert auch hier keine Alternative dazu, Zeit zum Lernen und Experimentieren einzuplanen. Nur so wahrt man die Chance, dass Softwareentwicklung dem neuesten Stand der Technik entspricht, die modernen Plattformen optimal ausnutzt werden und damit der größte Nutzen für die Kunden gestiftet wird. Die Cloud-native Entwicklung steckt zeitlich gesehen noch in den Kinderschuhen und trotz einer hohen Qualität an Lösungsangeboten braucht es Zeit, diese zu finden, zu erlernen und richtig einzusetzen.
Abbildung 4: Kommunikation braucht Zeit und Raum
Das Fatale mit der Kultur ist, dass man sie nicht auf Knopfdruck ändern oder sie gar verordnen kann, denn eine Kultur entsteht durch diejenigen, die sie leben. Änderungen und Anpassungen geschehen inhärent und dieser Prozess braucht Zeit und Raum.
Shift Left
Die Zeiten, Qualitätssicherung als Silo in der Organisation zu manifestieren, sind vorbei. Viel zu oft wird diese Abteilung als Endgegner gesehen und oft genug scheitert die Auslieferung daran, dass Fehler erst am Ende der Entwicklungszeit erkannt werden. Das ist bekanntermaßen teuer und man riskiert, Kunden zu verlieren, wenn sich die Auslieferung immer wieder verzögert oder die Qualität schlechter wird. Erfordern die Fehler dann noch strukturelle Änderungen in der Architektur, kann das bei monolithischen Anwendungen zu kaum abschätzbaren Aufwänden führen.
Abbildung 5: Zeit, auch bei der Qualitätssicherung umzudenken
Shift Left – Qualität von Anfang an – ist in diesem Fall die neue Denkweise! Hier brechen wir mit alten Traditionen und das hat immense Auswirkungen auf Arbeitsweisen und Verantwortung aller Beteiligten. Architekten sollten früh Qualitätsbäume mit Qualitätskriterien erstellen und Szenarien für deren Messbarkeit entwerfen. Die Softwareingenieure sichern die Qualität von Anfang an durch automatisierte Tests, die zusätzlich zur Funktionalität deutlich mehr Fachlichkeit als in der Vergangenheit abdecken sollten. Das erfordert mehr Zusammenarbeit mit den Requirement Engineers und den Quality Engineers, die jetzt in allen Phasen der Entwicklung kontinuierlich mit einbezogen werden. Sie sehen es schon. Das erfordert sehr viel Umdenken bei allen Mitgliedern der Teams und auch beim Management.
Es gilt Ängste abzubauen, wenn sich traditionelle Berufsbilder verändern und vermeintlich Mehrarbeit auf bestimmte Rollen zukommen könnte. Da bekommt der Begriff Fullstack eine ganz neue Bedeutung: Es geht nicht mehr nur darum, verschiedene technische Fertigkeiten zu besitzen, sondern um die Einstellung, neue Herausforderungen anzunehmen und mit den Aufgaben zu wachsen. Fehlerkultur und mehr Eigenverantwortung in den Teams sind hier entscheidende Faktoren, die das Management verstehen, fördern und letztendlich auch vertreten muss.
Open Source
Abschließend noch ein paar Gedanken zum Thema Open Source. Für viele bedeutet Open Source eine Evolution, stellt doch das „kollaborative Entwickeln“ einen Innovationstreiber dar. Nach Angaben der Cloud Native Computing Foundation (CNCF) enthalten 98 Prozent der Code-Basen für den Aufbau von Cloud-Infrastrukturen Open-Source-Komponenten. Open Source ist mittlerweile fast überall und bietet die Chance, auf eine Fülle von individuell entwickelten Lösungen und Lösungsansätzen zurückgreifen zu können.
Abbildung 6: Open Source
Was hat das jetzt mit dem Mindset zu tun? Open Source funktioniert nur, wenn man nicht einfach nur konsumiert, sondern sich auch beteiligt bzw. überdies neue Entwicklungen der Community zur Verfügung stellt und damit Nutzen für die Gemeinschaft stiftet. Und ja, Open Source kommt nicht zum Nulltarif. Engagement kostet Geld und man muss sich darüber im Klaren sein, dass es sich bei Open Source um ein eher schwaches Sicherheitsglied in der Software Supply Chain handelt, wie man zum Beispiel an Log4j sehr gut sehen konnte.
Mit einem gesunden Maß an Aufmerksamkeit, Innovationsgeist und Engagement gewinnt man dagegen mehr Spielraum bei der Entwicklung für die eigene Geschäftsdomäne und wird damit konkurrenzfähiger am Markt.
Die Welt dreht sich weiter. Hat man vor 25 Jahren noch von EDV gesprochen, ist heute der Begriff IT üblich. Spinnt man diese Beobachtung noch weiter, kann man heute aus IT einfach nur noch i machen, denn der Trend zur mobilen und dynamischen Nutzung vielfältiger Services ist unübersehbar. Ohne das passende Mindset und die Bereitschaft, sich den Herausforderungen der Softwareentwicklung im 21. Jahrhundert zu stellen, wird man über kurz oder lang nicht mithalten können.
Alle angesprochenen Themen – und das ist nur eine kleine Auswahl – haben nicht zu unterschätzende Auswirkungen auf die Organisationsstrukturen der Unternehmen und Institutionen. Hier hat die Reise gerade erst begonnen!
* Der Autor Peter Diefenthäler arbeitet als Softwarearchitekt bei der ARS Computer und Consulting GmbH in München. Mit vielen Jahren Erfahrung in der Produktentwicklung auf dem Weg vom Mainframe bis hin zu aktuellen verteilten Anwendungen, beschäftigt er sich heute mit den Schwerpunkten Cloud-native Entwicklung, Migration großer Softwaresysteme sowie Digitale Transformation und hält Trainings und Schulungen in diesen Bereichen.
Abbildung 2: Medium: Apis are products and products need a store
Abbildung 3: Trendreport.de: DevOps treibt Cloud-First in der Finanzbranche an
Abbildung 4: Photo by Austin Distel on Unsplash
Abbildung 5. Photo by Roger Bradshaw on Unsplash
Abbildung 6: Words Collage Cloud – stock.adobe.com
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/10/kylie-de-guia-xGUttEXjy4A-unsplash-scaled.jpg17072560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-19 08:00:002023-04-25 17:23:13Warum es bei der Digitalisierung auch auf das richtige Mindset ankommt
Dr. Stefan Koch sieht Leasing nach wie vor en vogue für die Finanzplanung.
Risikomanagement ist das Gebot der Stunde. Dazu gehört auch natürlich die Finanzplanung. Dr. Stefan Koch, CFO von LeasePlan Deutschland GmbH, blickt aus seiner Sicht auf das Thema Finanzplanung und erörtert, warum es gerade jetzt sinnvoll sein kann, Ausgaben wie den Fuhrpark über das Leasing zu bestreiten.
Gerade in der derzeitigen Lage müssen Unternehmen ihre Liquidität schützen und auf ihre Kosten achten. Daher ist die Entscheidung, Fahrzeuge zu leasen – eine kluge Entscheidung. Was sind die Gründe?
Verbesserung des Finanzierungsspielraums
Eine wichtige Rolle spielt die Flexibilität bei der Leasingfinanzierung. Die Vertragsparameter und somit die Höhe der Leasingraten können weitgehend flexibel auf die gesamtwirtschaftliche Situation angepasst werden. Damit wird eines der wichtigsten Bedürfnisse der Unternehmen – insbesondere in Krisenzeiten – adressiert: die Sicherung der Liquidität. Bezogen auf den Unternehmensfuhrpark bedeutet dies, dass die Anschaffung von Fahrzeugen nicht die Liquidität für die Investitionen in das Kerngeschäft herabsetzen soll. Gemäß diesem „Pay as you earn“-Prinzip werden die Leasingraten gezahlt, während das Fahrzeug bereits genutzt wird und damit zur Umsatzgenerierung beiträgt.
Im Gegensatz zum Kauf wirkt sich in der handelsrechtlichen Bilanz der Entfall der Bilanzverlängerung beim Leasing positiv auf die Eigenkapitalquote aus und kann somit das Rating und die Bonität bei der Beschaffung von Fremdmitteln verbessern. Zudem sind Leasingraten als Betriebsausgaben steuerlich voll absetzbar, wenn das Leasingobjekt bei der Leasinggesellschaft bilanziert wird. Die Steuerlast des Unternehmens wird dadurch gesenkt.
Eine weitere Möglichkeit Liquidität zu generieren, bietet das Sale & Lease Back, bei dem der bestehende und im eigenen Anlagevermögen befindliche Fuhrpark erst an das Leasinggunternehmen verkauft wird und im nächsten Schritt (zurück-)geleast wird. Die hierdurch gewonnenen finanziellen Mittel stehen dem Unternehmen dann für Investitionen in das Kerngeschäft zur Verfügung.
Reduktion der Kosten
Für viele Unternehmen wird der Kostendruck und die Suche nach möglichen Einsparungen immer größer. Einsparungsmöglichkeiten bietet der Firmenfuhrpark nicht nur, wenn es darum geht, von Kauf auf Leasing zu wechseln. In Zusammenarbeit mit professionellen Fuhrparkmanagement-Anbietern lassen sich – je nach Größe und Struktur des Fuhrparks – erhebliche Summen einsparen.
In der Regel wird ein externer Fuhrparkanbieter seine Arbeit mit einer Kosteneinsparungsanalyse starten. Hierbei werden unter anderem die aktuellen Beschaffungskonditionen, die bestehende interne Verwaltungsstruktur, existente Lieferantenverträge und nicht zuletzt die Fuhrparkzusammensetzung selbst überprüft. Dieser Ist-Situation wird ein Sollkonzept gegenübergestellt, das ein in Teilen oder komplett ausgelagertes Fuhrparkmanagement unterstellt und die erwartete Kosteneinsparung aufzeigt.
Fokussierung auf das Kerngeschäft
Heute stehen dem Kunden beim Leasing eine Vielzahl an Dienstleistungen rund um das Fahrzeug zur Verfügung. Der Leasinggeber befreit den Kunden von der Bereitstellung qualifizierten Personals für die Abwicklung firmenfremder Tätigkeiten wie der Fuhrparkverwaltung. So kann sich der Leasingnehmer auf den optimalen Ablauf aller unterstützenden Aufgaben verlassen, spart viel Zeit und kann sich auf sein Kerngeschäft konzentrieren.
Neben der Fahrzeugfinanzierung bieten Leasinggesellschaften also immer mehr auf die Kundenbedürfnisse zugeschnittene Dienstleistungen an. Beim sogenannten Full-Service-Leasing reicht das Dienstleistungsspektrum von der Abwicklung von Kraftstoff- und Stromkosten, Reifenbezug und -wechsel, Versicherung und Schadenabwicklung über die fristgerechte Bezahlung der Kfz-Steuern, des Rundfunkbeitrags und weiterer Nebenkosten wie zum Beispiel Wagenwäsche, bis hin zur Übernahme der Kommunikation mit den Dienstwagenfahrern. Der Kunde erhält eine monatlich gleichbleibende Gesamtrate für sein Leasingfahrzeug, die die während der Laufzeit anfallenden fixen und variablen Kosten abdeckt. Neben dem Vorteil von planbaren Kosten kann der Leasingnehmer überdies noch Geld sparen, denn der Service reicht von der Nutzung der Volumenrabatte der Leasinggesellschaften bis zur Überprüfung und Kürzung von Werkstattrechnungen. Ein weiterer Aspekt: Das Unternehmen bleibt fahrzeugtechnisch stets auf dem neuesten Stand, da Leasingfahrzeuge eine sehr viel kürzere Haltedauer aufweisen als Kauffahrzeuge.
Zusammenfassend lässt sich also sagen, dass Unternehmen in Deutschland durch die Wahl der Finanzierungsform Leasing für die Fahrzeugbeschaffung folgende Vorteile erzielen:
Verbesserung des Finanzierungsspielraums
Reduktion der Kosten durch Fuhrparkoptimierungen
Fokussierung auf das Kerngeschäft durch Übertragung von Dienstleistungen auf den Leasinggeber
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Die Redaktion sprach mit Tobias von der Heydt, Teamkoordination Beratung und Planung über die Dimension „Nachhaltigkeit“ bei Rechenzentren.
Im Prinzip kann ich alles aus der Cloud beziehen. Wem empfehlen Sie ein eigenes Rechenzentrum mit – beinahe notwendigerweise eigenen Cloudlösungen? Hier sollte man sich zunächst die benötigten IT-Services und genutzten Anwendungen genau ansehen und anhand verschiedener Kriterien kategorisieren. Entsprechende Fragestellungen können hier sein:
Welche Daten benötige ich vor Ort?
Wie sind die Datenströme und Anforderungen an Latenzen?
Welche Daten sind z.B. für Produktionsprozesse kritisch?
Auch hier ist die Welt nicht schwarz-weiß, sodass sich in den meisten Fällen eine hybride Lösung aus verschiedenen Bereitstellungsarten ergeben wird. Manche Services, wie z.B. Office, Mail oder CRM können am besten, d.h. sicher, flexibel und kostengünstig, von einem Cloud-Anbieter bezogen werden. Andere Anwendungen können ggf. gut in lokalen (Stichwort EDGE) Rechenzentren bereitgestellt werden. Daten und Anwendungen für produktionsnahe Prozesse, welche häufig latenzkritisch sind und große Datenmengen transferieren, müssen nach wie vor lokal bereitgestellt werden. Die Art und Anteile der verschiedenen Bereitstellungsmethoden kann dabei von Unternehmen zu Unternehmen sehr unterschiedlich sein und hängt von deren Tätigkeit, Struktur und Geschäftsmodell ab. Um die Frage zu beantworten, ist also eine genaue Analyse unter Beteiligung verschiedener Bereiche, wie IT- Prozess- und Facility-Verantwortliche, notwendig, welche durch entsprechende Experten zielgerichtet unterstützt werden können.
Rechenzentren werden also fast notwendigerweise „urban“. Wie können diese sich dann nahtlos ins Stadtbild einfügen? Je nachdem, ob es sich um ein unternehmenseigenes Rechenzentrum in dessen Gebäuden oder um ein Dienstleistungsrechenzentrum – unabhängig davon, ob es sich um Cloud, Housing oder Colocation handelt – können sich diese auf unterschiedliche Weise, aber effektiv in ein urbanes Umfeld einfügen. Im Falle eines Unternehmensrechenzentrums kann der Anwender dies in seine Gebäudestruktur und seine technischen Anlagen integrieren. Dabei sind natürlich zunächst die einschlägigen Sicherheitsstandards für Rechenzentren, z.B. in Bezug auf Zugangs- und Brandschutz, zu berücksichtigen. Bei der technischen Ausstattung betrifft dies vor allem die Versorgungssicherheit mit elektrischer Energie und Kühlung. Letztere sollte in Form einer Weiterverwendung der, durch das Rechenzentrum entstehenden, Abwärme genutzt werden, um den Wärmebedarf des Gebäudes ganz oder teilweise zu decken. Dies ist nicht nur gut für die Umwelt, da die Wärme nicht, ggf. sogar durch fossile Energieträger, zusätzlich erzeugt werden muss, sondern spart auch noch „ordentlich“ Betriebskosten. Größere Rechenzentren, die ihre Leistungen im urbanen Umfeld anbieten, können in gleicher Weise in die Energiekreisläufe einer Stadt, eines Viertels oder Quartiers eingebunden werden. Dabei ist es sinnvoll bzw. notwendig, alle Beteiligten, wie RZ-Betreiber, Energieversorger und/oder Betreiber von Nahwärmenetzen, Behörden und Projektentwickler, etc. frühzeitig zusammen zu bringen, um eine ganzheitliche Lösung zu konzipieren, deren einzelne Bausteine gut aufeinander abgestimmt sind. Leider scheitern solche Vorhaben, welche technisch und wirtschaftlich durchaus realisierbar wären, aktuell zu oft immer noch an mangelnder Abstimmung oder organisatorischen und formellen Hürden.
Warum macht dann ein Blick auf verstärkte Nachhaltigkeitsbemühungen Sinn? Wie bereits erwähnt, hat die Nutzung auf Nachhaltigkeit abgestimmter Konzepte – hier vor allem im energetischen Sinne, wie z.B. die Abwärmenutzung oder Verwendung regenerativer Energien – nicht nur einen, dadurch nicht minder wichtigen, Nutzen für die Umwelt, sondern auch eine ökonomische Dimension. Die nicht notwendigerweise höheren Investitionen in entsprechende Anlagen können nachweislich in immer kürzeren Zeiträumen durch Einsparungen bei den Betriebskosten ausgeglichen werden, sodass auf die gesamte Lebensdauer eines Rechenzentrums häufig erhebliche Kostenvorteile entstehen. Dies wird aktuell zusätzlich durch die immer weiter steigenden Energiepreise begünstigt. Flankiert wird dies auch durch ein zunehmendes Bewusstsein der Gesellschaft für eine nachhaltigere Lebensweise und Wirtschaft, was sich auch in politischen Entwicklungen widerspiegelt. Als Beispiel können hier genannt werden: die Verordnung der EU zur Einschränkung von klimaschädlichen Kältemitteln (F-Gase Verordnung), die Zielsetzung der Bundesregierung zur Klimaneutralität von Rechenzentren des Bundes im aktuellen Koalitionsvertrag oder die Vorgaben des Blauen Engel zum energieeffizienten Rechenzentrumsbetrieb bzw. klimaschonende Co-Location-Rechenzentren, welche immer häufiger in neuen Projekten, gerade der öffentlichen Hand, gefordert werden und zukünftig zum Standard werden könnten.
Tobias von der Heydt: „Größere Rechenzentren, die ihre Leistungen im urbanen Umfeld anbieten, können in gleicher Weise in die Energiekreisläufe einer Stadt, eines Viertels oder Quartiers eingebunden werden.“
Wie haben Sie Ihren Kunden in der Vergangenheit dabei geholfen und welchen Impact hat das auf die Betriebskosten? Das Thema Nachhaltigkeit, sowohl für unser Unternehmen selbst als auch in unseren Projekten ist und war schon immer ein integraler Bestandteil und wichtiger Wert der Prior1. Daher sind wir in allen Projekten bemüht, unter den jeweiligen Rahmenbedingungen möglichst effiziente und nachhaltige Lösungen zu entwickeln und entsprechende Technologien und Anlagen einzusetzen. Das beginnt allerdings schon bei der Konzeption jeden Rechenzentrums, unabhängig von dessen Größe und Zweck. Hier ist vor allem eine „richtige“, d.h. realistische und bedarfsgerechte Dimensionierung wichtig, welche dem Nutzer dennoch ausreichend Flexibilität für zukünftiges Wachstum bietet. Selbst die beste und nachhaltigste Technik wird nicht effizient betrieben werden können, wenn diese vollkommen überdimensioniert ist, was wir in der Praxis leider häufig erleben. Hier raten wir unseren Kunden, nach von uns durchgeführten Bedarfsermittlungen, häufig kleiner zu starten und bei Bedarf hinsichtlich benötigter Fläche und/oder Leistung zu erweitern. Auf dieser Basis können dann zum jeweiligen Anwendungsfall passende Technologien und Anlagen eingesetzt werden, welche einen sicheren, aber auch effizienten und wirtschaftlichen Betrieb ermöglichen. Dies fängt bei einfachen Maßnahmen, wie konsequenter Trennung von kalter und warmer Luft in den Serverräumen und der Anhebung der Zulufttemperaturen zur Maximierung der Betriebsstunden der freien Kühlung ohne Einsatz mechanischer Kälteerzeugung an, geht über die Nutzung von Wärmerückgewinnung oder Geothermie und mündet in unserer Selbstverpflichtung ab 2023 in unseren Projekten keine synthetischen, sondern nur noch natürliche Kältemittel einzusetzen.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/10/takashi-watanabe-f2DL8oI-7N8-unsplash.jpg427640Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-18 15:43:022023-04-17 08:30:31„Nachhaltigkeit hat auch eine ökonomische Dimension“
Der Markt für HR-Tech-Software ist im Wandel: Immer spezifischer sind die Anforderungen an einzelne Lösungen für Teilbereiche wie Talent-Management, OKR oder Recruiting und entsprechend segmentiert ist die Branche. Fraglich ist, wie die Anbieter darauf reagieren: Müssen sie sich zwangsläufig spezialisieren oder gibt es nach wie vor die Chance, auch als Generalist erfolgreich zu sein? Die Erfahrung zeigt: Tatsächlich scheint auch eine zweigleisige Strategie erfolgsversprechend zu sein, erläutert Axel Singler, Geschäftsführer von Haufe Talent.
Individualismus ist Trumpf?
Die Anforderungen an HR-Abteilungen können sich heute fundamental voneinander unterscheiden, denn Unternehmen und ihre Mitarbeitenden differenzieren sich immer stärker aus. Eine Folge davon: Jede Organisation benötigt individuelle Technologie für ihre spezifischen Anforderungen. Dabei gilt: je höher der digitale Reifegrad von HR, desto größer der Bedarf nach Speziallösungen. Dementsprechend gewinnen individuell zugeschnittene Angebote, die sich exakt an die jeweiligen Bedürfnisse anpassen, an Bedeutung auf dem HR-Software-Markt. Komplettlösungen, die möglichst alle HR-Kernprozesse in einem System abbilden, scheinen dagegen zum Auslaufmodell zu werden. Bei Haufe Talent glauben wir jedoch nicht an diese These und setzen vielmehr auf eine zweigleisige Strategie.
Zwei Seiten eines Marktes
Der HR-Tech Sektor zeichnet sich durch unterschiedliche Entwicklungsstufen aus: Einerseits befinden sich ausgereifte Segmente wie im Talent Management, wo keine fundamentalen Neuentwicklungen zu erwarten sind, da die Innovationskurve bereits weit fortgeschritten ist. Es geht also eher um kontinuierliche kleine Verbesserungen, wie etwa die Optimierung von Recruiting-Prozessen oder die Ergänzung von neuen Schnittstellen zu möglichst vielen Drittsystemen. Andererseits bieten junge Teilmärkte, wie der rund um den Management-Ansatz OKR (Objectives and Key-Results) viel Innovationspotenzial. Hier besteht sehr wohl die Chance für disruptive Verbesserungen, die auf einen stark wachsenden Markt treffen. Immerhin arbeiten in Unternehmen ab 500 Beschäftigten rund zehn bis 20 Prozent der Mitarbeitenden in flexiblen Strukturen. Ähnlich sieht es in Bereichen wie Onboarding oder Teamentwicklung aus – auch hier trifft ein niedriger Reifegrad auf eine wachsende Zielgruppe.
Das Beste aus zwei Welten
Die Entscheidung, welche der beiden unterschiedlichen Seiten des Marktes Anbieter bedienen möchten – ob sie also eher Generalist oder Spezialanbieter sein möchten – fällt sicher nicht immer leicht und muss in unseren Augen auch nicht zwingend getroffen werden. Schließlich hat auch eine Doppelstrategie ihre Vorteile: Unternehmen, die hierauf setzen und sowohl das etablierte Kerngeschäft bedienen als auch individuell angepasste Speziallösungen liefern, bieten ihren Kunden das Beste aus beiden Welten und so einen enormen Mehrwert. Denn auch in jeder HR-Abteilung gibt es Themen oder Bereiche, die unterschiedlich stark ausgereift sind. Während etwa das Recruiting über etablierte Prozesse und Strukturen verfügt, ist das Thema OKR möglicherweise noch ein Experimentierfeld, das sehr individuell gelebt wird. So unterschiedlich wie die Bereiche sind dann auch die Anforderungen an die entsprechenden Lösungen: Während das Recruiting von einem Komplettsystem profitiert, dass die Komplexität des eigenen Software-Portfolios übersichtlich hält, benötigt HR beim neuen und innovativen Thema eine Speziallösung, die auf die eigene Situation zugeschnitten ist. HR-Tech-Anbieter, die diese Beidhändigkeit unterstützen können, treffen die Bedürfnisse einer sehr großen Zielgruppe – vom agilen Start-up bis hin zum Konzern mit etablierten Strukturen und Prozessen.
In jeder HR-Abteilung gibt es Themen oder Bereiche, die unterschiedlich stark ausgereift sind. Während etwa das Recruiting über etablierte Prozesse und Strukturen verfügt, ist das Thema OKR möglicherweise noch ein Experimentierfeld, das sehr individuell gelebt wird.
Axel Singler
Der innere Spagat zwischen zwei Märkten
Als Anbieter gleichzeitig an kontinuierlichen kleinen Verbesserungen der breit ausgelegten Komplettlösung zu arbeiten und gleichzeitig im hohen Tempo die individuelle Lösung neu zu denken und komplett zu überarbeiten, ist nicht immer einfach. Gleichzeitig ist es durchaus fordernd in zwei Märkten im Wettbewerb zu stehen und sowohl mit den Generalisten als auch den Spezialisten zu konkurrieren. Dennoch ist es möglich, eine Doppelstrategie erfolgreich umzusetzen. Die Voraussetzungen dafür: Erfahrung im Markt, Verständnis für die jeweiligen Kundenbedürfnisse und natürlich fachliches Know-how. Besonders essenziell ist es aber, die Bedürfnisse der jeweiligen Kunden zu verstehen und sie zum Ausgangspunkt der eigenen Strategie zu machen.
Die Risiken der eingleisigen Strategie
Treffen Unternehmen die Entscheidung, zukünftig nur noch als Generalist oder als Spezialist am Markt aufzutreten, führt dies auch nicht zwangsläufig zum Erfolg. Denn nahezu jedes Unternehmen hat sowohl das Bedürfnis, Komplexität zu reduzieren als auch individuelle Anforderungen technologisch abbilden zu können. Lediglich Anbieter, die auf eine zweigleisige Strategie setzen, können beide Anforderungen aus einer Hand bedienen und haben hier einen deutlichen Marktvorteil vor ihren Mitbewerbern.
Viele Optionen in einem spannenden Markt
Spezialist, Generalist oder doch beides gleichzeitig? Der Spielraum für HR-Anbieter wächst – doch die Entscheidung, welches Geschäftsmodell verfolgt werden soll, bleibt herausfordernd. Lohnt es sich, das hohe Tempo in einem neuen Markt mitzugehen oder ist ein Markt vielleicht schon so ausgereift, dass es als neuer Anbieter zu schwer wird, Fuß zu fassen? Diese Fragen müssen Unternehmen stets von Fall zu Fall neu bewerten und die für sie jeweils richtigen Antworten finden. Fest steht nur eines: Sie müssen sich nicht zwangsläufig als Spezialist oder Generalist positionieren, es gibt noch eine weitere erfolgsversprechende Möglichkeit.
Über den Autor
Axel Singler ist Geschäftsführer von Haufe Talent. Singler transformierte den vorher demokratisch strukturierten Geschäftsbereich der Haufe Group in eine agile Netzwerkorganisation und setzt sich intensiv mit Talent Experience und Team Performance auseinander. Er ist überzeugt, dass Business- und HR-Verantwortliche sich zukünftig auf Teams als die wahren Leistungsträger von erfolgreichen Unternehmen fokussieren sollten. Er ist einer der führenden Experten zum Thema Agile Transformation. Seine langjährige HR-IT-Cloud-Erfahrung sowie sein umfassendes Know-how für New Work und Agilität bilden die Grundlage seiner Arbeit.
Bildquelle/ Lizenz: Betthany Legg on Unsplash
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/10/bethany-legg-75nbwHfDsnY-unsplash.jpg12801920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-10 14:00:002022-10-07 10:53:28HR-Technologie: Neue Herausforderungen für Anbieter
Um innovativ zu bleiben, wollen sich europäische Unternehmen noch mehr digitalisieren und haben verstanden, worauf es dafür ankommt: Daten! So bezeichnen sich mittlerweile 65% der Unternehmen als datengetrieben, und 59% sind der Meinung, dass sie mit datengestützten Geschäftsentscheidungen Marktanteile gewinnen – so erläutert Thomas Herrguth, Country Leader Deutschland, eine neue Studie von VMware für uns. Diese Öffnung für neue, digitale Ansätze ist sehr erfreulich – und höchste Zeit!
Energiekrise, Fachkräftemangel, Lieferengpässe, Klimawandel: Die Bedingungen, unter denen Unternehmen derzeit ihr Geschäft betreiben und vorantreiben müssen, sind alles andere als ideal. Die sich immer rascher wandelnden Rahmenbedingungen zwingen die Verantwortlichen und ihre Organisationen ein ganz neues Maß an Flexibilität auf. Gefühlt täglich müssen neue Herausforderungen gemeistert, Entscheidungen neu überdacht und justiert werden.
Thomas Herrguth: „Durch das andauernde Erfassen und Sammeln von Daten erhöht sich nicht zwangsläufig deren Wert. Der Wert entsteht erst dadurch, dass man diese Daten versteht und ihnen eine Struktur gibt.“
Viele Player haben inzwischen begriffen, dass in diesem Szenario die digitale Transformation des eigenen Unternehmens ein entscheidender Hebel ist, um langfristig innovativ und damit erfolgreich zu bleiben. Nachdem die vergangenen zwei Jahre bei vielen vor allem dazu genutzt wurden, die IT-Infrastruktur und die digitalen Arbeitsplätze neu aufzustellen, entdecken immer mehr den besonderen Wert, der sich aus der Nutzung digitaler Daten ergibt. In einer unserer neusten Befragungen haben wir herausgefunden, dass bereits 59% bereits mit datengestützten Geschäftsentscheidungen entscheidende Marktanteile gewinnen.
Chancen für das Recruiting
Ein Beispiel hierfür ist das Talent Management. Da quasi die gesamte Wirtschaft, unabhängig welcher Branche, damit zu kämpfen hat, geeigneten Nachwuchs zu finden und langfristig ans eigene Unternehmen zu binden, liegt es nahe, dass auch hier neue Wege begangen werden. Inzwischen nutzen 61% der Unternehmen ihre ohnehin vorliegenden Daten, um ihr Recruiting zu verbessern. Dabei geht es nicht unbedingt nur um die reine Anzahl an Daten, sondern vielmehr darum, Informationen und Datenpunkte, die bislang nicht im Zusammenhang betrachtet wurden, so miteinander zu verknüpfen, dass aussagekräftige Verbindungen entstehen. Durch das andauernde Erfassen und Sammeln der Daten erhöht sich nicht zwangsläufig deren Wert. Der Wert entsteht erst dadurch, dass man diese Daten versteht und ihnen eine Struktur gibt. Dank fundierter Analysen identifizieren Unternehmen so neue geeignete Bewerbergruppen, denen vorher keine Beachtung geschenkt wurde. Personalverantwortliche können damit bisher unbemerkte Talentpools identifizieren – und gewinnen so auch an Diversität.
Der passende Platz ist die Multi-Cloud
Die ideale IT-Infrastruktur, um der Menge an Daten Herr zu werden, Datenanalyse-Tools, Algorithmen und Künstliche Intelligenz einzusetzen, ist eine Multi Cloud-Umgebung. Denn was bringt es, wenn die Daten in einzelnen Cloud-Silos vor sich hinschlummern und dadurch nie in Verbindung zueinander gebracht werden können? Mit Multi-Cloud-Cross Services können Daten auch über verschiedene Clouds hinweg administriert und ausgetauscht werden – bei einem einheitlichen Security-Konzept. Das ist v.a. für Unternehmen, die an mehreren Standorten agieren, ein wichtiger Punkt, dass die Kontrolle trotzdem zentral in einer Hand behalten wird.
Fazit: Technische und strategische Rahmenbedingungen in Einklang bringen
Das Thema Datennutzung ist für das Recruiting eine enorme Chance. Analysetools sind allerdings nichts, was man einfach ein- und ausschalten kann. Die passende technische Plattform ist ebenso entscheidend wie die strategisch definierten Rahmenbedingungen, unter anderem geschultes Perspnal und die entsprechende Unternehmenskultur
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2019/10/Aufmacher_NewWork_notebook-1280538_web-scaled.jpg17012560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-10 10:00:002022-10-04 14:39:22Mit Datenauswertung gegen den Fackräftemangel
Mathias Bork, CEO von QVC Deutschland, sieht in einem toleranten, diversen und offenen Arbeitsumfeld nur Vorteile. Wie der internationale Live-Video-Retailer sich für mehr sichere, vielfältige und inklusive Arbeitsumgebungen einsetzt und welche Vorteile diese bringen, erklärt Bork in seinem Gastbeitrag.
Dass Offenheit, Vielfalt und Toleranz im Arbeitsumfeld nicht nur einen zwischenmenschlichen, sondern auch einen wirtschaftlichen Mehrwert für Unternehmen bieten, war vielen Führungskräften in der Praxis schon lange bewusst. Dass sich diese Aspekte der Arbeitskultur aber auch wissenschaftlich messen lassen, das belegt die aktuelle McKinsey-Analyse „Diversity Wins – How Inclusion Matters“: So haben laut der Analyse gender-diverse Unternehmen eine um 25 Prozent erhöhte Wahrscheinlichkeit, überdurchschnittlich profitabel zu sein. In Bezug auf eine ethnische Diversität liegt der Wert laut McKinsey sogar bei 36 Prozent.
Das spüren auch wir bei QVC. Für uns gehören die Themen Diversity, Equity & Inclusion schon lange und selbstverständlich zur Unternehmenskultur: So setzen wir auf eine Arbeitsumgebung, die all unseren Mitarbeitenden Wertschätzung entgegenbringt – unabhängig ihres Geschlechts, ihrer Herkunft, ihrer Hautfarbe, ihrer sexuellen Orientierung oder ihrer Religion.
Genau diese Heterogenität ist es nämlich, die unser Kollegium kreativer, innovativer und agiler macht. Außerdem zeigen unsere Teams eine höhere Problemlösekompetenz, je diverser sie sind. Auch klar, Mitarbeitende, die sich in ihrem Arbeitsumfeld gesehen, akzeptiert und unterstützt fühlen, sind in ihrem Arbeitsalltag deutlich zufriedener und binden sich eher an ihr jeweiliges Unternehmen.
Für uns stehen die Menschen, mit denen wir arbeiten, an erster Stelle. Wir interessieren uns für sie, wollen ihre Geschichten hören und ihre individuellen Lebenswege begleiten. Schließlich sind es unsere Mitarbeitenden, die uns als Unternehmen dabei helfen, unsere Zielgruppe besser zu verstehen und zu erreichen. Je unterschiedlicher die Blickwinkel und Aufmerksamkeitsbereiche unserer Mitarbeitenden, desto breiter gefächert auch die unseres Unternehmens. Deshalb haben wir länderübergreifend sogenannte „Team Member Resource Groups“ gegründet. Das sind Gruppen von Mitarbeitenden, die thematisch unterschiedliche Initiativen organisieren. Im Bereich Diversity, Equity & Inclusion sind so aktuell weltweit rund 1600 Mitarbeitende in rund 40 Interessengruppen aktiv.
Voneinander lernen, sich gegenseitig unterstützen, vorurteilsfrei, interessiert und offen sein – alles Aspekte, auf die wir in unserem Unternehmen im täglichen Miteinander viel Wert legen. Deshalb sind wir auch gemeinsam mit zahlreichen anderen Unternehmen Unterzeichner der „Charta der Vielfalt”, einer Selbstverpflichtung, die Mitarbeitenden ein vorurteilfreies, respektvolles und offenes Arbeitsumfeld garantiert.
Voneinander lernen, sich gegenseitig unterstützen, vorurteilsfrei, interessiert und offen sein – alles Aspekte, auf die wir in unserem Unternehmen im täglichen Miteinander viel Wert legen.
Mathias Bork
Ein wichtiger Fokus – nicht nur im Rahmen des Pride Month Juni – ist außerdem, der LGBTQIA*-Community zu mehr Sichtbarkeit zu verhelfen: Unser Unternehmen hat schließlich eine unheimliche Reichweite, die wollen wir nutzen und ein Zeichen setzen. Deshalb haben wir im Juni dieses Jahres gemeinsam mit Modedesigner Dawid Tomaszewski die „Proud to be me“-Kampagne gestartet. Im Rahmen der Kampagne hat Dawid Tomaszewski exklusiv für QVC einen Hoodie entworfen. 50 Prozent des Erlöses (15.000 Euro) gingen dabei an die Organisation Queeramnesty, die sich für die Rechte der LGBTQIA*-Community einsetzt. Außerdem waren wir stolzer Sponsor des ersten Christopher Street Days im Kreis Heinsberg in Nordrhein-Westfalen.
Wir sind ein globales Unternehmen. Unterschiede zeichnen uns aus. Wir sehen diese Unterschiede, fördern sie und feiern sie. Denn wir sind stolz, dass bei QVC jeder so sein kann, wie er oder sie ist.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/10/FOTOREQ_3158_Kampagne_Proud_to_be_ME_Moritz_01511-Kopie.jpg13992048Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-07 09:40:102022-10-07 15:32:43Unterschiede fördern und leben
Das EU-Verbot bedeutet ein enormes wirtschaftliches Risiko für Hersteller mit komplexer Produktion
Komplexen Herstellern drohen gewaltige finanzielle Schäden, wenn sie das von der EU-Kommission initiierte Verbot von Gütern aus Zwangsarbeit nicht umsetzen können. Das geplante Gesetz ist weitreichend und geht über ähnliche Regularien wie den US-amerikanischen UFLPA (Uyghur Forced Labor Prevention Act) hinaus. Es reiht sich ein in eine Reihe weiterer Gesetze der letzten Jahre, die ESG-Aspekte in Liefer- und Versorgungsketten betreffen. Für Hersteller mit umfangreicher und komplexer Produktion wird es immer dringender, Transparenz und auskunftsfähige Daten ihrer Supply Chain sicherzustellen.
Zwangsarbeit: Komplexe Hersteller stehen grundsätzlich im Risiko
ExpertinSarah Carpenter, Director of Corporate Responsibility bei Assent
Die UN berichtet, dass heute 27,6 Millionen Menschen in Zwangsarbeit leben – mehr als im Jahr 2016. Manufacturing und Agrarwirtschaft sind dabei zwei der Sektoren, die der Report besonders hervorhebt. Und über die Hälfte der Zwangsarbeit findet im Asiatisch-Pazifischen Raum statt, also dort, wo Hersteller im Bereich Automobil, Manufacturing oder Electronics häufig ihre Produktion oder Rohstoffquellen haben. Angesichts dessen ist klar: Nahezu alle komplexen Hersteller sind dem Risiko ausgesetzt, dass es an einem Punkt ihrer Versorgungskette zu Zwangsarbeit kommt.
Gemäß dem Entwurf der EU-Kommission reicht ein einziger betroffener Bestandteil aus, damit ein komplettes Produkt als von Zwangsarbeit betroffen gilt. Bei der Umsetzung möchte die EU dabei einen Ansatz verfolgen, der auf einer Risikobewertung anhand der vorhandenen Informationen sowie der Größe der Unternehmen fundiert. Außerdem sollen die Produkte an einem möglichst frühen Zeitpunkt der Wertschöpfungskette vom Markt entfernt werden. Große Produzenten sind also mit höherer Wahrscheinlichkeit von den unmittelbaren Konsequenzen der Richtlinie betroffen als KMUs oder Händler.
Gewaltige finanzielle Konsequenzen sind möglich
In Zwangsarbeit hergestellte Güter sollen von den Zollbehörden an den Außengrenzen der EU gestoppt werden. Nicht nur dürfen sie in Folge nicht auf dem EU-Binnenmarkt gehandelt werden, auch ein Re-Export, um sie auf einem anderen Markt zu handeln, wird verboten. Betroffene Güter müssen also zerstört werden. Kommen Unternehmen dem nicht nach, sind weitere Strafen möglich. Neben diesen finanziellen Schäden drohen zudem Reputationsschäden bei Kunden und Verbrauchern, sofern die Öffentlichkeit sich mit spezifischen Fällen beschäftigt. Betroffene Produkte werden in der ICSMS-Datenbank gelistet.
Nachweisfähigkeit wird zur wirtschaftlichen Grundlage
Die EU hat Leitlinien angekündigt, die Informationen für die Risikobewertung von Zwangsarbeit enthalten werden und Hilfestellungen, wie die Sorgfaltspflichten erfüllt werden können. Die unabdingbare Grundlage für alle gefährdeten Hersteller wird dabei, über die eigene Versorgungskette auskunftsfähig zu sein. Transparenz und Reporting-taugliche Daten sind die Basis für den Nachweis, dass die eigene Produktion in vollem Umfang zwangsarbeitsfrei ist, um Untersuchungen zu beenden oder vermeiden. Es wird noch dauern, bis das Gesetz mit seinen Anforderungen im Detail ausformuliert ist, dennoch können Hersteller bereits jetzt mit der Vorbereitung beginnen, indem sie sich an einem existierenden Leitfaden der EU zu Forced Labour Due Diligence orientieren. ESG-Compliance entwickelt sich zur Grundlage für den Marktzugang.
https://trendreport.de/wp-content/uploads/2022/10/drape-gaf4cc5e20_1920.jpg12691920Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2022-10-06 19:24:372022-10-06 19:24:38Zwangsarbeits-Verbot der EU
Eine Million Jahre hat es von der Zähmung des Feuers bis zur Dampfmaschine gedauert, dann ging – Telefon, TV, Computer – alles viel flotter, und heute entstehen neue bahnbrechende Ideen Schlag auf Schlag. Innovation, sie findet immer schneller statt.
Das wird in Zukunft nicht anders sein. Neue Produkte, aber auch neue Konzepte werden Märkte wie aus der Pistole geschossen erobern. Auch die Grundlage unseres gesellschaftlichen Zusammenlebens wird umgekrempelt, die Richtung zeigt zum Beispiel heute schon Japan mit dem Modell der Gesellschaft 5.0, das eine Super Smart Society zum Ziel hat. Die radikale, weil notwendige Digitalisierung dient als grandioser Ideenbeschleuniger, und die Integration aller Technologien wird wie ein zusätzlicher Turboschub wirken.
Das hört sich an wie eine ganz normale, organische Weiterentwicklung. Aber es gibt zwei Besonderheiten: erstens wird KI, wenn sie mal wirklich ausgereift ist, wir also von Strong AI und Artifical Super Intelligence reden, einen Paradigmenwechsel einleiten und alles, wirklich alles, radikal auf den Kopf stellen. Bis es soweit ist, gibt es zweitens eine semantische Veränderung, denn die Zukunft definiert den Begriff des Wettbewerbs neu.
Wettbewerb wird nie wieder so sein, wie er einmal war.
Dinko Eror
Traditionelle Geschäftsmuster, die auf knallhartem Konkurrenzkampf aufbauen, um eigene Interessen durchzusetzen, werden Unternehmen behindern statt voranbringen. Was bis dato noch durchführbar war, wird in Zukunft nicht mehr möglich sein, weil eine Firma angesichts des wahnwitzigen Innovationstempos als Einzelkämpfer weder über das notwendige technologische Know-how, noch über ausreichende Kreativität verfügen wird.
Innovation entsteht in Zukunft noch mehr durch Zusammenarbeit, und nicht mehr durch Abschottung: Handshakes statt Ellenbogen, sozusagen.
In der Wirtschaftslehre gibt es für dieses Modell sogar schon einen Begriff: Coopetition, zu deutsch Kooperationswettbewerb. Das Kofferwort bringt etwas zusammen, was sich eigentlich ausschließt: nämlich Zusammenarbeit (cooperation) und Wettbewerb (competition). In der Praxis bedeutet das: Konkurrenten gehen strategische Partnerschaften ein, weil alle daraus einen Vorteil ziehen. Eine Zusammenarbeit macht Sinn, wenn dadurch Kosten und Aufwand eines Projektes sinken, oder wenn ein Beteiligter das Know-how und der andere die Mittel zur Umsetzung hat. Bekannte heutige Beispiel sind Apple und Samsung; das US-Unternehmen verwendet die Retina-Displays der Südkoreaner. Auch VW und Ford haben die Modelle VW Sharan, Seat Alhambra und Ford Galaxy gemeinsam entwickelt, vermarkten sie aber getrennt.
Im Software-Bereich wird diese neue Offenheit in der Geschäftskultur und das Do-It-Together übrigens schon lange gelebt: mit Open Source. Open Source ist das Japan der IT-Branche. Eine Software mit öffentlichem Quelltext ist genau das richtige Kollaborationstool für eine Welt, in der Zusammenarbeit der entscheidende Wettbewerbsfaktor ist. Open-Source-Softwareentwickler leben schon lange die Werte, die jetzt gefragt sind: Sie schreiben quelloffenen Code und machen ihn für alle zugänglich; oder sie verbessern fremden Code und teilen ihn mit der Community. Durch diese Kultur der Zusammenarbeit ist Open Source ein Sinnbild für den Wandel hin zu einer neuen Gesellschaft, weg vom Ellenbogendenken.
Aber Vorsicht: Unternehmen müssen der Versuchung widerstehen, in alte Verhaltensmuster zurückzufallen. Beim Entwickeln von Open-Source-Software sollten sie also nicht die Open-Source-Entwickler-Community ausbeuten. Im Mittelpunkt muss vielmehr der Austausch stehen: der Austausch von Wissen, der Austausch von Code und die gemeinsame, kreative Suche nach Innovation. Gestalten wir Wirtschaft und Gesellschaft nach Open-Source-Prinzipien, schaffen wir eine neue Offenheit, die zu Wandel, Gemeinschaft und Wohlstand führt.
* Dinko Eror ist Vice President DACH bei Red Hat
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Jeder Einzelne kann sein Konsumverhalten überprüfen – sagt Björn Brundert, Principal Technologist CEMEA Office of the CTO, Global Field bei VMWare. Erst kürzlich hat das Unternehmen eine Umfrage durchgeführt, zu den „Grenzen des Vertrauen“.
Herr Brundert, Umweltschutz muss beim Verhalten der Verbraucher anfangen. Ihre aktuelle Studie fand heraus, dass es da durchaus noch Verbesserungspotential gibt. Können Sie uns die Ergebnisse bitte kurz einordnen? Bei unserer Studie Digital Frontiers 4.0 hat uns die Frage interessiert, wie bewusst den Menschen im Alltag die Auswirkungen ihres Handelns auf die Umwelt sind. Und, ob sie dazu bereit sind, Dinge zu ändern, wenn sie besser informiert werden. Was wir gesehen haben, ist: Gerade im digitalen Bereich fehlt es in der breiten Bevölkerung noch an Bewusstsein dafür, dass auch das Konsumieren in der digitalen Welt Auswirkungen auf unseren ökologischen Fußabdruck hat. Eine sechsstündigen Netflix-Sitzung zum Beispiel verursacht rund 330 Gramm Co2. Was das bedeutet, können nur Wenige einordnen. So haben 41 Prozent der Befragten angegeben, dass ihnen das egal ist. Hier ist definitiv mehr Aufklärung nötig. Denn der Herbst zeigt jetzt schon, dass die Verbraucher bereit sind, ihr Verhalten zu ändern. Das betrifft nicht nur das Heizen, sondern auch generell die Reduzierung von Strom und Energie.
Beinahe täglich erreichen uns aber Nachrichten im Hinblick auf den Klimaschutz und den Klimawandel. Kommunizieren wir vielleicht nicht richtig – reden Regierungen und Organisationen am Kern vorbei? Die vielen akuten Krisen, mit denen wir kämpfen – Covid19, der Ukraine-Krieg mit dem Gas-Stopp oder die Inflation – rücken das Thema Klimawandel in der Aufmerksamkeit nur marginal nach hinten. Die, die offen für die wissenschaftlichen Fakten sind, wissen, dass die richtig große Krise unserer Zeit der Klimawandel ist. Ironischerweise führen uns aber die im Vergleich zum globalen Klimawandel „kleineren“ Krisen vor Augen, wie wir auch im Kleinen etwas Gutes bewirken können. Jeder Einzelne kann sein Konsumverhalten überprüfen – dazu gehört explizit auch das digitale Konsumverhalten. Genau hier könnten wir sehr effizient mit der Auswertung digitaler Daten ansetzen – was vielen Menschen noch nicht klar ist. Daher müssen wir mehr Bewusstsein dafür schaffen, welchen Einfluss der digitale Traffic rund um die Welt in Bezug auf das Klima hat. Ich habe auf der Clean-IT Konferenz des Hasso Plattner Instituts von einer Idee an der TU Dresden gehört, die ein „Energielabel“ für den App Store des Smartphone diskutiert. Wie würden sich Nutzer entscheiden, wenn z.B. Messenger A ein schlechtes Ergebnis, Messenger B aber ein besonders gutes Ergebnis beim Energielabel anzeigt? Unsere Studienergebnisse machen jedoch deutlich, dass Regierung und Industrie zuerst bei den Konsumenten für mehr Vertrauen in eine gemeinsame Datennutzung sorgen müssen. Wenn man sich allein Deutschland anschaut, das ja sehr vorsichtig in Bezug auf Datenschutz ist, zeigt sich, dass Unternehmen und Regierungen offen kommunizieren, welche Technologien sie verwenden und wie sie diese nutzen. Dazu kommt, dass die meisten Menschen aus den Nachrichten von Cyberattacken, Datenmissbrauch und Datenpannen erfahren, aber kaum über den technologischen Fortschritt berichtet wird, den wir als Gesellschaft beispielsweise in Forschung, Medizin oder im Gesundheitswesen, aber auch in der Logistik oder der öffentlichen Verwaltung bereits erreicht haben. Misstrauen – nicht nur privaten Unternehmen sondern auch öffentlichen Digitalisierungsinitiativen gegenüber – führten beispielsweise dazu, dass die Corona Warn App des RKI „nur“ 46 Millionen Mal heruntergeladen wurde – obwohl wir von über 62 Millionen Smartphone Nutzern in Deutschland ausgehen (Stand August 2022). Hier verpufft viel Potenzial ungenutzt.
Unternehmen sind nah am Verbraucher. Sie haben die Möglichkeit, auf ihn einzuwirken. Inwiefern können Daten helfen, besser und verbrauchernah zu kommunizieren? Unternehmen besitzen heute viele Daten, deren Potentiale noch nicht ausgeschöpft sind. So können Informationen mit Verbrauchern geteilt werden, die für ihn von Interesse sind und somit sein Kauf- und Entscheidungsverhalten beeinflussen. Seien es Kennzahlen zur Nachhaltigkeit, Details zur Lieferkette und zur Einhaltung sozialer Produktionsbedingungen oder statistische Beweise, warum das eigene Produkt dem Wettbewerb voraus ist. Daten können Fakten darüber schaffen, welchen Impact Produkte oder Organisationen auf die Umwelt haben. Sie geben Verbrauchern damit eine Entscheidungsgrundlage für ihr Konsumverhalten an die Hand.
„Wir erfahren aus den Nachrichten kaum etwas über die „guten Seiten der digitalen Transformation: etwa Fortschritte die wir als Gesellschaft beispielsweise in Forschung, Medizin oder im Gesundheitswesen gemacht haben.“
– Björn Brundert
Können Sie uns ein konkretes Beispiel liefern, wie etwa Umwelt und Unternehmen gleichermaßen profitieren können, wenn Entscheidungen auf Basis von Daten getroffen werden? Ein Beispiel sind Ressourceneinsparungen beim Thema Lieferkette: Wenn Unternehmen durchweg die Emissionen lückenlos über Daten tracken können, lässt sich daraus Einsparpotenzial ermitteln. Das hilft auch, Kosten zu senken. Um derartige Auswertungen umzusetzen, muss erst die technische Infrastruktur stimmen, und das ist bei vielen Unternehmen noch ein Problem.
Wie können Unternehmen solche Potenziale erkennen? Als ersten Schritt sollten Organisationen Daten sinnvoll zusammenzuführen und nutzbar machen, indem gewachsene Silos abgebaut werden. Das erfordert in der Regel auch eine Anpassung der Infrastruktur, bei der Multicloud-Strategien ein Schlüssel zum Erfolg sein können: Sie erlauben es Unternehmen flexibel zu skalieren und nicht nur die Einhaltung von Datenschutzgesetzen sicherzustellen und Compliance Anforderungen gerecht zu werden, sondern „Data Sovereignty“ als Wettbewerbsvorteil zu nutzen. Im zweiten Schritt gilt es dann, die Organisation und Mitarbeiter zu befähigen, mit bestehenden sowie neuen Daten Innovationen voranzutreiben – aber auch zu wissen, wann ein Prototyp bzw. ein Produkt keine Zukunft hat und dessen Entwicklung eingestellt werden sollte.
Inwiefern könnten Unternehmen in den Prozessen untereinander – etwa in der Lieferkette – von mehr und engerer „Datenverzahnung“ profitieren, um z.B. gemeinsam Prozesse besser zu machen? Inzwischen können Partnerunternehmen mit Hilfe moderner Applikationen über standardisierte Schnittstellen zusammenarbeiten und Daten, die für alle Beteiligten relevant sind, einfach austauschen oder einsehen. So entstehen ganze Ökosysteme, über die beispielsweise die Supply-Chain lückenlos verfolgbar wird. Langfristig kann es auch ein Ziel sein, über die Systeme Ansätze zur Kreislaufwirtschaft zu realisieren, um möglichst ressourcenschonend zu produzieren.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
KI wird zukünftig die Unternehmensführung durchdringen und auch den Kern autonomer Unternehmen bilden. Das Verständnis der Unternehmensleitung für KI-getriebene Strategieentscheidungen ist eingeschränkt, denn KI ist selten dafür konzipiert, Entscheidungen zu erklären. Ist ein Veto der Unternehmensleitung überhaupt möglich, wenn sie an KI-Entscheidungen gebunden ist? Corporate Digital Responsibility (CDR) zielt auf einen Handlungs- und Entscheidungsrahmen, der das Spannungsfeld zwischen Optimierung, Compliance und Integrität ausbalanciert.
Die Digitalisierung hielt bereits vor vielen Jahren Einzug in die Praxis. Zunächst mit der digitalen Abbildung bisher analoger Daten, über deren Verarbeitung bis zu Prozessen, die unstrukturierte, sich ändernde und fehlerbehaftete Massendaten für Maschinen verständlich machen [1]. Trotz steigender Komplexität lag den Verarbeitungsvorgängen in der Praxis eine regelbasierte Ausführung zugrunde.
Das heißt: Menschen entscheiden sich für eindeutige Regeln bzw. Wenn-Dann-Beziehungen und programmieren diese. Insofern galt zumindest in der Praxis lange die in den 1960er Jahren aufgestellte Behauptung von Peter Drucker: „Der Computer trifft keine Entscheidungen, er führt nur Befehle aus. Er ist ein totaler Idiot“ [2].
Seit neuerem schreiben Menschen Computerprogramme und Algorithmen in einer Art, dass diese selbstständig lernend in der Lage sind, eigene Regeln aufzustellen und selbstEntscheidungen zu fällen. Diese Regeln werden nicht vom Menschen kodifiziert, sondern von der IT-Anwendung erlernt. Die IT-Anwendung entscheidet sich also nicht notwendigerweise in einer für den Menschen vorhersehbaren Art und Weise.
Zum Inhalt
Ein beispielhafter Blick in die Zukunft
Künstliche Intelligenz
Erklärbare KI
Unternehmerische Verantwortung für den KI-Einsatz
Auswirkungen von KI in der Unternehmensführung
Fazit
Ein beispielhafter Blick in die Zukunft
An einem warmen Herbsttag steht ein Lieferant völlig unerwartet mit dem 10-fachen der sonst üblichen Bestellmenge von Sensoren vor der Tür eines fiktiven technischen Geräteherstellers. Der Mann im Wareneingang ruft verwundert seine Chefin an, und diese den Zulieferer. Alle rätseln, warum diese übertrieben hohe Menge geliefert wurde. Aber: die IT-Anwendung hat rechtsgültig beim Lieferanten bestellt und dieser nimmt die Sensoren nicht zurück.
Es bleibt völlig unklar, warum diese hohe Menge bestellt wurde, bis drei Wochen später im monatlichen Purchase-Council des Unternehmens vor weltweit auftretenden Lieferengpässen bei Sensoren und den damit verbundenen Preiserhöhungen gewarnt wird. Im Nachgang zeigt sich, dass am Tag vor der Bestellung mehrere Analysten Warnungen vor weltweit auftretenden Lieferengpässen bei Sensoren ausgesprochen hatten. Weitere Analysen zeigen ergänzende Faktoren auf, die die Entscheidung der IT-Anwendung beeinflussten: Das Demand-Forecasting zeigte, dass sich die Nachfrage nach Produkten, in denen der Sensor verbaut wird, stark erhöht. Gleichzeitig ist der Krankenstand im Unternehmen unerwartet niedrig, sodass mehr Menschen als sonst um diese Jahreszeit in der Produktion verfügbar sind. Eine gute Stimmung, und damit Produktivität, unter der Belegschaft lässt sich auch aufgrund der von der IT-Anwendung ausgewerteten LinkedIn-Einträge und ‑Vernetzungen der Mitarbeiter sowie deren Beiträge in ihren öffentlich zugänglichen Instagram-Profilen vermuten. Wie auch immer. Am Ende hat das IT-System die optimale Menge bestellt, auch wenn dies anfangs nicht klar war. Alle sind sich einig: Schwein gehabt.
Was wäre passiert, wenn die Einkaufschefin frühzeitig Wind von der ihr unerklärlich großen Bestellung bekommen hätte? Sie hätte die Entscheidung der IT-Anwendung nicht nachvollziehen können und die Bestellung daraufhin manuell auf ein normales Maß reduziert. Das Unternehmen verliert daraufhin Millionen. Gerade als Mitglied des Management-Teams hat sie aber die Pflicht, alle ihr zur Verfügung stehenden Informationen zu nutzen, um optimale Entscheidungen zu treffen. Der Aufsichtsrat des Unternehmens weisen daraufhin den Vorstand an, die Einkaufschefin persönlich für die Preiserhöhungen in Haftung zu nehmen.
Zukünftig wird sich die Einkaufschefin aus der Verantwortungslinie nehmen. Sie hat gelernt: Die IT-Anwendung ist eine Autorität, deren Entscheidungen, seien sie noch so unverständlich, sie sich beugen muss.
Möglicherweise treffen IT-Anwendungen in manchen Situationen bessere Entscheidungen als Menschen. Möglicherweise aber auch schlechtere und diskriminierende. Je intelligenter die IT-Anwendungen werden, desto schwieriger fällt es Menschen, ihre Entscheidungen zu verstehen. Die IT-Anwendungen sind nicht dafür konzipiert, ihre Entscheidungen zu erklären. Gibt es dennoch ein Recht auf Erklärungen, die Menschen verstehen? Sind die Menschen an Entscheidungen gebunden, die sie nicht verstehen? Wer haftet, wenn IT-Anwendungen schlechte Entscheidungen fällen und Menschen verpflichtet sind, diese umzusetzen?
Wie werden sich Unternehmen technisch, organisatorisch und dadurch auch kulturell verändern? Welche Auswirkungen gibt es auf Mitarbeiter, Führung, Agilität und Effizienz? Was muss passieren damit sich die digitale Entwicklung verantwortungsvoll vollzieht? Wie lässt sich das Spannungsfeld zwischen Optimierung, Compliance und Integrität in der Balance halten?
Künstliche Intelligenz
Intelligenz wird nicht mehr nur als weitgehend angeborene, von äußeren Faktoren und Erfahrungen unbeeinflusste, analytische Fähigkeit betrachtet [3], [4]. Heute verstehen wir Intelligenz als Zusammenfallen von analytischer, kreativer (Fähigkeit zur unkonventionellen Problemlösung) und praktischer Intelligenz (Fähigkeit zur Anpassung an die Umwelt). Intelligenz ist insgesamt also die Fähigkeit, gesetzte Ziele zu erreichen, sich dabei an geänderte Bedingungen anzupassen und dadurch zu lernen [3], [5].
Unter Künstlicher Intelligenz (KI) werden Methoden und Anwendungen verstanden, die den kognitiven Apparat des Menschen durch technische Methoden ersetzen. KI bedeutet vor diesem Hintergrund, die Umgebung durch Datenerfassung wahrzunehmen, aus diesen Daten zu lernen, Schlussfolgerungen abzuleiten und sich dabei flexibel an die Gegebenheiten anzupassen [4], [6].
Je nach Grad der Autonomie werden in der Regel drei verschiedene Stufen von KI-Systemen unterschieden, mit denen Fragen der Haftung und Rechenschaft eng verbunden sind [7], [8]:
Assistierend:Menschen sind die Entscheider. KI-Systeme unterstützen bei Aufgaben, die ein Mensch auch selbst erbringen könnte (z. B. Übersetzung). Vereinfacht wird hier auch vom Human-in-the-Loop-Ansatz gesprochen.
Erweitert (augmented, amplified): Menschen sind die Entscheider oder mit Vetorechten ausgestattete Beobachter. Das KI-Systeme bereitet komplexe Entscheidungen vor und führt Aufgaben durch, die vom Menschen schwer vorgenommen werden können (z. B. Vorhersagemodelle auf Basis großer Datenmengen). Das Ergebnis der maschinellen Entscheidungsfindung ist für den Menschen nicht immer nachvollziehbar. Menschen müssen sich ggf. auf die maschinelle Entscheidung verlassen, sodass dann von einer gemeinsamen Entscheidungsfindung gesprochen werden kann. Damit wird der menschzentrierte Governance-Ansatz in Unternehmen in Frage gestellt. Diese Stufe kommt dem Human-on-the-loop-Ansatz nahe: Entscheidungen werden vom Menschen überwacht.
Intelligente, autonome KI-Systeme setzen dort an, wo Menschen an ihre naturgegebenen Grenzen stoßen, und brechen mit ihrer tatsächlichen – aber zumindest zugeschriebenen – Überlegenheit etablierte Machtstrukturen in Unternehmen auf. Bei einer Übertragung von Macht und Verantwortung auf KI-Systeme als Blackbox mit undurchsichtiger Funktionsweise, ist zwangsläufig die Balance zwischen extrinsischer Regeltreue (Compliance) und intrinsischer Selbststeuerung (Integrität) gefährdet [9], [10]. Naturgemäß stehen auf Algorithmen beruhende KI-Systeme den Compliance-Ansätzen deutlich näher und gefährden über Anreize und Sanktionen individuelle Autonomie, Freiheitsgrade und Integrität, die bei menschlicher Führung zwar nicht garantiert, aber doch wahrscheinlicher sind [9], [10]. Es droht eine Rückkehr zu autoritären Führungspraktiken in neuem Gewand [11].
Prof. Dr. Alexander Huber lehrt an der Berliner Hochschule für Technik. Zuvor war er zehn Jahre im Führungskreis von Siemens und Berater bei Accenture. Als in Informatik promovierter Wirtschaftsingenieur forscht er an der Schnittstelle von Strategie, Organisation und IT.
Wird also von Menschen erwartet, dass sie Entscheidungen von KI-Systemen vertrauen und nicht gleichzeitig zu reinen Erfüllungsgehilfen werden, müssen sie den Kern der getroffenen Entscheidungen verstehen [12]. Die Forschung zur erklärbaren KI (eXplainable AI): XAI steckt noch in den Kinderschuhen [13], wird aber wichtige Voraussetzung zur Erfüllung des Rechts auf Erklärung (s. z. B. Art. 13 DSGVO).
Automatisierte inhaltliche Erklärungen sind aber nicht nur für Vertrauensbildung, Zusammenarbeit und Feststellung von Verantwortlichkeiten relevant, sondern auch, um zu bestätigen, dass eine Entscheidung korrekt getroffen wurde. So lernen KI-Systeme manchmal, dass ihnen „Schummeln“ die Arbeit erleichtert und sie dennoch die explizit vorgegebenen Ziele erreichen: 2017 sollte ein KI-System lernen, wie es Pferde auf Bildern in Trainingsdaten erkennt. Stattdessen stellte es fest, dass es nur nach dem Copyright-Tag eines bestimmten Fotografen suchen musste, der zufälligerweise alle in den Trainingsdaten enthaltenen Pferdebilder aufgenommen hatte, statt zu lernen, ob tatsächlich ein Pferd abgebildet war [14]. So lernte die KI zwar aus den Trainingsdaten (Datenpaaren) und erfüllte die expliziten (programmierten) Ziele, kann aber nicht die impliziten, deutlich komplexeren Ziele des menschlichen Systemdesigners interpretieren.
Integration der KI in das Unternehmen
KI-Anwendungen können nun in bisher von IT wenig unterstützten Bereichen Anwendung finden (z. B. Strategische Planung), vorhandene IT-Anwendungen übergreifend steuern und so sukzessive immer weitere Unternehmensprozesse und ‑entscheidungsbereiche abdecken (s. Abbildung 1).
AI-supports-the-organization: KI unterstützt einzelne Funktionen in Support- und Kernprozessen (wie z. B. Einkauf, Produktion) und deckt einzelne Kern- und Stütz-Prozesse ab.
AI-runs-the‑organization: Perspektivisch wird KI stärker in Management-Prozesse bzw. Unternehmensführung (z. B. Strategische Planung) integriert und zunehmend mit weiteren Entscheidungsrechten ausgestattet. Im Extremfall könnten KI-Systeme Teile der Unternehmensführung übernehmen [8].
AI-covers-the-organization:Evolutionäre Ausbreitung der KI bis zur Abbildung vieler/aller Unternehmensprozesse auf allen Ebenen (Management-, Kern- und Stützprozessen). Menschen sind hier i. W. für Entscheidung, Erstellung und Parametrisierung von Zielen, Strategien und Algorithmen zuständig, aber nicht mehr dominierend für den operativen Ablauf, Entscheidungsfindung oder ‑umsetzung. Menschen wirken entweder an den Zielen, Strategien und Algorithmen mit oder werden Erfüllungsgehilfen, z. B. wenn Maschinen nicht zulässig sind.
AI-as-the-organization: Letztendlich ist die Frage, inwiefern sich neue Geschäftsmodelle entwickeln, die gänzlich ohne menschliches Zutun auskommen. Dabei sind diejenigen Unternehmen im Vorteil, die sich nicht evolutionär in Richtung eines solchen Ansatzes transformieren, sondern als „Algorithmic Entities“ [15] bereits nativ („von Geburt an“) als solche angelegt sind.
Abbildung 1: Abdeckung KI im Unternehmen (Projizierung auf Prozesshaus)
Unternehmerische Verantwortung für den KI-Einsatz
Der Einsatz von KI in Unternehmen kann deren Fähigkeiten wie Entscheidungsgeschwindigkeit, Effizienz, Analyse (z. B. Märkte, Kunden, Technologie) aber auch Kreativität positiv beeinflussen und damit Wettbewerbsvorteile in vielen Bereichen (z. B. Innovation, Reputation oder Kostenstruktur) aufbauen. Zudem beeinflusst KI schon heute die Entwicklung neuer Geschäftsmodelle zahlreicher Branchen [16], [17].
Gleichzeitig ergeben sich rechtliche, ethische und unternehmerische Risiken (Beispiele) [18]:
Mangelhafte Entscheidungen (z. B. durch implizite, für die KI aber unverständliche Ziele)
Diskriminierung/Bias (z. B durch Trainingsdaten, die aus der Vergangenheit stammen oder nur Ausschnitte abbilden) [17a]
Unklare Haftung und Rechenschaft (z. B. durch singulär unproblematisches – in Gemeinschaft aber risikobehaftetes Wirken) [17b] oder unklare Rechenschaft bei mit externen Anwendungen vernetzten KI-Systemen)
Negativer Einfluss auf Unternehmenskultur, MitarbeitermotivationundIntegrität (z. B. durch angeordnetes Befolgen nicht nachvollziehbarer Entscheidungen)
Entstehung einer neuen Art der Unternehmensführung als „Super-User“, mit „ultimativer“ Entscheidungsbefugnis – über alle KI-Entscheidungen
Negativer Einfluss auf Menschen und Umwelt (z. B. durch KI-Entscheidungen mit direkter Auswirkung auf die berufliche, aber auch private und familiärere Situation von Mitarbeitern)
Die Regulierung von Risiken im Unternehmenskontext ist über staatliches Recht allein nicht sicher zu stellen, da multinationale Unternehmen, wie auch z. B. zur Steuervermeidung, in andere Länder ausweichen können und dazu möglicherweise sogar gegenüber ihren Shareholdern verpflichtet sind. KI-freundliche Gesetze in nationalen Rechtsordnungen können zu einem neuen Regulierungswettbewerb nach unten führen [19]. So könnten native KI-Unternehmen (AI-as-the-organitzation) die Arbitrage des regulatorisch optimierten Nomadisierens zum Teil des Geschäftsmodells werden lassen. Eine Regulierung auf nationaler Ebene oder auch im Staatenverbund wird daher zur Einhaltung ethischer Standards nicht genügen: Es ergibt sich die Forderung nach Übernahme unmittelbarer unternehmerischer Verantwortung für die Folgen digitalen Handelns.
Die Wahrnehmung einer freiwilligen, über das gesetzlich Vorgeschriebene hinausgehenden, unternehmerischen Verantwortung, für die Folgen der Entwicklung, Verbreitung oder Nutzung digitaler Technologien auf die Gesellschaft insgesamt aber auch die konkrete einzelne Person wird unter dem Begriff Corporate Digital Responsibility (CDR) diskutiert [20], [21], für die insbesondere Compliance und Integrität von Bedeutung sind und zusammen auf die Vermeidung rechtlichen und ethischen Fehlverhaltens fokussieren [9] (s. Abbildung 2)
Abbildung 2: Ausgestaltung einer wirksamen CDR (Anlehnung an [9], [22], [23])
CDR kodifiziert Vertrauen und schafft einen Handlungs- und Entscheidungsrahmen, der zeigt, wie KI-Risiken und -Chancen auszubalancieren sind, um der sozialen Verantwortung von Unternehmen hinsichtlich digitaler Fragestellungen gerecht zu werden. In einer wohldurchdachten CDR steckt das Potenzial zur Differenzierung und Schaffung von Wettbewerbsvorteilen durch Erlangung von Vertrauen der Stakeholder gegenüber dem Unternehmen.
„Integrität lässt sich nicht programmieren.“
Auswirkungen von KI in der Unternehmensführung
Unternehmensführung besteht aus Herbeiführen, Treffen und Umsetzen von Entscheidungen, durch die festgelegt wird, wie die Arbeit von Menschen im Unternehmen koordiniert und die Entwicklung des Unternehmens geprägt wird [24]. Die Unternehmensführung ist daher zweifellos diejenige Unternehmensfunktion, die den größten Einfluss auf das Unternehmen selbst (z. B. Positionierung, Erfolg, Prozesse, Mitarbeiter), seine Share- und Stakeholder (z. B. Eigentümer, Kunden, Lieferanten) und seine politische, rechtliche, gesellschaftliche, ökologische und technische Umwelt hat.
Entscheidungen der Unternehmensführung sind gekennzeichnet von hoher Unsicherheit, Volatilität, Komplexität und Wirkung. Aus diesem Blickwinkel betrachtet, bietet die Unternehmensführung ein vielversprechendes Einsatzgebiet für KI-Systeme.
„Die Wahrheit ist, dass das Geschäft zu komplex geworden ist und sich zu schnell bewegt, als dass Vorstände und CEOs ohne intelligente Systeme gute Entscheidungen treffen könnten“ [25].
Der KI-Einsatz in der Unternehmensführung lässt zahlreiche Auswirkungen erwarten:
Strategische KI-Entscheidungen haben massive, komplexe und unmittelbare Auswirkungen auf Menschen, die direkt (z. B. Mitarbeiter und Familien) oder indirekt (z. B. Zulieferer, Servicekräfte) betroffen sind.
Entscheidungen, von einer als objektiv, neutral und überlegen angesehenen KI-Entscheidungsarchitektur getroffen, haben starke Legitimationsfunktion für Management und Eigentümer. Ähnlich wie bisher vielleicht Unternehmensberatungen (mutmaßlich neutrale und objektive Instanz) als Sündenbock unangenehmer Entscheidungen herangezogen werden, wird KI diese Rolle mit noch mehr Gewicht ausfüllen.
Die Beziehung von Eigentümer und Management (Prinzipal-Agent) verändert sich: Während Manager bisher gerade wegen ihrer besonderen Fähigkeit, Entscheidungen auf Basis ihrer persönlichen Erfahrungen auch „aus dem Bauch heraus“ zu treffen, ausgesucht werden und die Nachvollziehbarkeit von Management-Entscheidungen für Eigentümer nicht immer gegeben ist, können Eigentümer und Dritte (z. B. interner/externer Audit, Insolvenzverwalter) nun sehr einfach verfolgen, bei welchen Entscheidungen sich das Management nicht an KI-Empfehlungen hielt. Bei einer Abweichung wird das Management seine Entscheidungen deutlich stärker als bisher erklären müssen. KI-Entscheidungen nicht oder anders umzusetzen, führt möglicherweise zu rechtlichen Konsequenzen: So gilt in Deutschland seit 1997 die sog. Business Judgement Rule (§ 93 Abs. 1 Satz 2 AktG), die besagt, dass Vorstände nur dann nicht für negative Folgen unternehmerischer Entscheidungen haften, wenn die Entscheidung u. a. auf Grundlage angemessener Informationen getroffen wurde. Vorstände müssen dies im Zweifel beweisen (§ 93 Abs. 2 Satz 2 AktG). Können Sie dies nicht (z. B. im Falle einer nicht absolut nachvollziehbar begründeten Abweichung von der KI-Entscheidung), sind sie dem Unternehmen zum Ersatz des entstandenen Schadens aus ihrem Privatvermögen verpflichtet.
Diese neuartige Beziehung zwischen Eigentümern und Management sowie das zumindest teilweise intransparente Zustandekommen von Entscheidungen, wandelt Führungspraktiken, Rolle und Kompetenzanforderung des Top-Managements vom modernen, partizipativen, risikonehmenden Unternehmensführer und Entscheider zum reinstitutionalisiert-autoritären, risikoaversen Umsetzer und Kontrolle
Das Gefühl von Maschinen regiert zu werden, wirkt sich auf Unternehmenskultur, Mitarbeitermotivation und Integrität aus: Während in der Ära der Mechanisierung, Maschinen einfache, repetitive Arbeiten für Menschen ausführen, und in der Zeit der Automatisierung Maschinen einfache Arbeiten selbstständig erledigen, führen nun Menschen Arbeiten für Maschinen aus. In KI geprägten Unternehmen wird insgesamt ein Ungleichgewicht zugunsten von Compliance und zulasten von Integrität entstehen.
Weiterhin sind viele weitere wichtige Risiken (etwa Diskriminierung oder Haftungsfragen) zu berücksichtigen.
In einer zukünftigen Entwicklungsstufe ist für bestimmte Bereichen denkbar, die gesamte Strategische Planung (von Analyse bis Controlling) in autonome KI-Systeme zu überführen (s. o. AI-covers-the‑organization). Ein Eingreifen des Managements in die Entscheidungen ist nur noch im Ausnahmefall vorgesehen („Human-in-Command“), denn „Human-in-the-Loop-Ansätze in der Unternehmensführung erscheinen wenig sinnvoll, wenn es zu Effizienzgewinnen kommen soll [8].
Nur die Umsetzung wird noch in den Händen von Menschen liegen, die aber eher die Rolle dezentraler Projektleiter haben, als Managementfunktion in der Linie. Dennoch bleibt nach heutiger Rechtsordnung die Rechenschaftspflicht vorerst bei der (menschlichen) Unternehmensleitung, selbst wenn der gesamte Entscheidungsfindungsprozess automatisiert wäre [7].
Fazit
Grundsätzlich kann der Einsatz von KI in der Unternehmensführung positive Auswirkungen haben. Probleme entstehen vor allem dadurch, dass sich der Mensch potenziell immer weiter von Entscheidungsprozessen entfernt und Unternehmen KI-Systeme heranziehen, um Entscheidungen, die die Interessen der Shareholder über die Interessen der Allgemeinheit stellen zu legitimieren.
Die verantwortlichen Personen in Unternehmen sind gefordert, auf Basis ihrer eigenen spezifischen Situation, kontinuierlich rechtliche und ethische Fragestellungen zu reflektieren und entsprechende Fähigkeiten zu entwickeln. Dabei kann das Instrument der „Corporate Digital Responsibility“ (CDR) einen Rahmen für die Entwicklung eigener Verantwortungskomponenten bieten. Die zentrale Herausforderung liegt dabei in der Ausbildung und Verankerung von Integrität über die gesamte Kette: vom Design des KI-Systems, über Entwicklung, Verbreitung, Implementierung, Anwendung und Betrieb bis zur Pflege.
Integrität lässt sich nicht programmieren.
Fußnoten
[1] DFKI und bitkom, „Künstliche Intelligenz. Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung,“ 2017. [Online]. Available: https://www.dfki.de/fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf. [2] P. Drucker, „The manager and the moron,“ McKinsey Quarterly, 3(4), 1967. [3] H. Schlinger, „The Myth of Intelligence,“ he Psychological Record, Vol. 53, No. 1, 2003. [4] A. Kaplan und M. Haenlein, „Rulers of the World, Unite! The Challenges and Opportunities of Artificial Intelligence,“ Business Horizons, Vol. 63, No. 1, 2020. [5] R. Sternberg, „The Theory of Successful Intelligence,“ Interamerican Journal of Psychology, Vol. 39, No. 2, 2005. [6] Hochrangige Expertengruppe für KI, „Ethik-Leitlinien für eine vertrauenswürdige KI,“ Europäische Kommission, Brüssel, 2018. [7] M. Hilb, „Toward artificial governance? The role of artificial intelligence in shaping the future of corporate governance,“ Journal of Management and Governance 24, 2020. [8] E. P. M. Hickman, „Trustworthy AI and Corporate Governance: The EU’s Ethics Guidelines for Trustworthy Artificial Intelligence from a Company Law Perspective,“ European Business Organization Law Review, 2021. [9] C. Schank, „Algorithmen und ihr Einfluss auf Compliance und Integrity,“ Bertelsmann Stiftung: Unternehmensverantwortung im digitalen Wandel, 2020. [10] K. Elliott, R. Price, P. Shaw, T. Spiliotopoulos, M. Ng, K. Coopamooto und A. Moorsel, „Towards an Equitable Digital Society: Artificial Intelligence (AI) and Corporate Digital Responsibility (CDR),“ Society 58, 2021. [11] F. Daumann-Habersack, „Autorität, Algorithmen und Konflikte – Die digitalisierte Renaissance autoritärer Führungsprinzipien,“ in Kooperation in der digitalen Arbeitswelt. Verlässliche Führung in Zeiten virtueller Kommunikation, O. Geramanis, S. Hutmacher und L. Walser, Hrsg., 2021. [12] F. Pasquale, „The black box society: The secret algorithms that control money and information,“ Harvard University Press, 2015. [13] D. Elton, Self-explaining AI as an Alternative to Interpretable AI, 2020. [14] S. Lapuschkin, S. Wäldchen und A. e. a. Binder, „Unmasking Clever Hans predictors and assessing what machines really learn,“ Nature Communications volume 10, 2019. [15] L. LoPucki, „Algorithmic entities,“ Wash Univ Law Rev 95, 2018. [16] C. Dukino, M. Friedrich und e. al, „Künstliche Intelligenz in der Unternehmenspraxis,“ W. Bauer, W. Ganz, M. Hämmerle und T. Renner, Hrsg., 2019. [17] A. Huber, „Geschäftsmodellinnovation in disruptiven Branchen. Am Beispiel der Berufsfotografie,“ Wirtschaftsinformatik & Management (13), 2021. [17a] Beispiele: (1) Medikamente wirken und Spracherkennung funktioniert bei Männern besser als bei Frauen. Grund: zu wenig Trainingsdaten von Frauen (2) Männer werden eher für Führungspositionen ausgewählt. Grund: weniger Frauen auf Führungspositionen in der Vergangenheit (3) Gesichtserkennung arbeitet bei weißen Menschen besser als bei schwarzen. Grund: zu wenig Trainingsdaten von schwarzen Menschen. [17b] Beispielsweise könnten Auftraggeber, Entwickler, Händler und Nutzer von Algorithmen und Trainingsdaten jeweils plausibel erklären, dass ihr Zutun allein unkritisch ist. Nur in Summe entsteht das Risiko. Ebenso ist die Problematik einer Anbindung externer KI-Systeme mit unzureichender XAI zu sehen. [18] T. Simonite, „Tech firms move to put ethical guard rails around AI,“ WIRED, 2018. [19] Eidenmüller, „The rise of robots and the law of humans,“ Oxford Legal Studies Research Paper No 27/201, 2017. [20] DEK, „Gutachten der Datenethikkommission,“ Datenethikkommission der Bundesregierung, Berlin, 2019. [21] M. Schmidt, Ethik in der IT-Sicherheit, Berlin, 2021. [22] E. Göbel, Unternehmensethik, Konstanz und München, 2016. [23] B. Noll, Wirtschafts- und Unternehmensethik in der Marktwirtschaft, Stuttgart, 2002. [24] E. Heinen, „Der entscheidungsorientierte Ansatz der Betriebswirtschaftslehre,“ Zeitschrift für Betriebswirtschaft, 41. Jg., 1971. [25] B. Libert, M. Beck und M. Bonchek, „https://sloanreview.mit.edu,“ 2017. [Online].
https://trendreport.de/wp-content/uploads/2022/10/smartphone-gfcc143ada_1920.jpg6701920Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2022-10-04 15:00:002022-10-05 10:36:44Verantwortungsvoller Einsatz von KI in der Unternehmensführung
Auch wenn die Umstellung von den derzeitigen ineffektiven Technologien im Vorfeld Zeit und Ressourcen erfordert, werden Unternehmen, die jetzt investieren, für alle künftigen Herausforderungen gut gerüstet sein. Paddy Srinivasan, der neue CEO von GoTo, erläutert, wie.
Verschiedene Krisen in den vergangenen Jahren haben gezeigt, dass Unternehmen wesentlich flexibler sein müssen, um in Zeiten von Pandemien, Umweltkatastrophen wie Überflutungen oder Kriegen weiterhin arbeits- und konkurrenzfähig zu bleiben. Die Digitalisierung von noch immer papierbasierten Prozessen und die Verlagerung von Anwendungen und Servern in die Cloud sind ein wichtiger Schritt dahin. Ebenso gilt es, sich von klassischer Hardware wie Telefonen und PCs zu lösen und auf mobile Geräte umzusatteln oder andere Remote-Zugriffsmöglichkeiten langfristig einzuführen. Dies ist besonders wichtig in Anbetracht der wachsenden Besorgnis über einen möglichen Wirtschaftsabschwung.
Wirtschaftlich resilienter werden
Eine kürzlich von GoTo durchgeführte Umfrage ergab, dass 84 Prozent der Deutschen der Meinung ist, dass ihr IT-Team entlastet werden muss. Um die Belastung der IT-Teams zu verringern, investieren die meisten deutschen Unternehmen in neue oder Upgrades ihrer Videokonferenzlösungen (35 Prozent), ihrer IT Helpdesk Systeme (30 Prozent) und Projektmanagement-Tools (27 Prozent). Denn beinahe jeder vierte bemängelte, dass die zuvor eingesetzten Lösungen nicht die richtige Performance lieferten (22 Prozent). Ein weiterer wichtiger Grund ist für jeden vierten auch die IT-Konsolidierung mehrerer Anwendungen (25 Prozent). Technologie und digitale Transformation sind in solch unsicheren Zeiten unerlässlich und müssen bei Investitionsentscheidungen an erster Stelle stehen auch und gerade für kleine und mittelständische Unternehmen (KMUs).
Mit dem Beginn der Covid-19-Pandemie mit Lockdown und geschlossenen Geschäften zeigte sich nach zehn Jahren Wachstum erstmals ein Einbruch beim Bruttoinlandsprodukt (BIP) in Deutschland, dass sich nur langsam wieder regeneriert. Unternehmen, die schnell auf Fernarbeit umstellen konnten, hatten hier große Vorteile, denn sie konnten die Mitarbeiter nach Hause schicken, ohne die Arbeitsleistung zu verlieren. Doch dazu ist es notwendig, über geeignete Tools zu verfügen. Gerade KMUs stehen hier vor großen Herausforderungen, da sie nur über begrenzte finanzielle Ressourcen und Personal zur Verfügung haben. Das bedeutet, dass sie in einheitliche digitale Technologien investieren müssen, die speziell für den KMU-Markt entwickelt wurden, und nicht in die isolierten oder komplexen Lösungen, die oft auf größere Unternehmen ausgerichtet sind, da diese spezialisierten Lösungen erhebliche Gemeinkosten einsparen und kleineren Unternehmen helfen können, die für die Einrichtung und Wartung digitaler Systeme erforderlichen Ressourcen zu vermeiden.
Langfristige Remote-Infrastrukturen aufbauen
Sichere Collaboration- und Remote-Support-Anwendungen für die Unternehmens-IT sind aus Unternehmenssicht eine gute Lösung, sich auf eine kommende Covid-19-Welle mit möglicher Homeoffice-Pflicht vorzubereiten. In der ersten Welle mit Heimarbeit über mehrere Monate hatten viele – gerade kleine und mittelständische (KMU) – Unternehmen Remote-Work-Anwendungen nur als Übergangslösungen implementiert. Jetzt haben Unternehmen die Möglichkeit, ihre Technologie neu zu bewerten und in Cloud-basierte, skalierbare Lösungen zu investieren, die auf die Anforderungen der Telearbeit zugeschnitten sind. Dies dient nicht nur dazu, die Anforderungen sowohl auf der technologischen Seite als auch auf der Seite der Mitarbeiter kurzfristig besser zu erfüllen. Da sich die Technologien weiterhin von lokalen Systemen zugunsten von Cloud-basierten Lösungen wegbewegen, wird eine Remote-Infrastruktur notwendig sein, um neue wichtige Tools zu übernehmen, wenn sie in Zukunft auf den Markt kommen.
Höhere Sicherheitsstandards aufstellen
Für eine höhere Sicherheit sorgt Zero-Trust. So lässt sich größtenteils abwenden, dass Hacker die Remote-Tools einer Firma aus der Ferne angreifen, um Schadsoftware in dessen Geräte zu bringen. Logische Zugriffskontrollen wie Multifaktor-Authentifizierung (MFA) oder Perimeterschutz-Tools helfen IT-Administratoren dabei, Bedrohungen durch externe Zugriffe oder nicht autorisierten Netzwerkverkehr zu minimieren. Darüber hinaus erleichtert eine Konsolidierung von Software in einer Plattform IT-Teams das Management und Mitarbeitern das Arbeiten. Admins können dank eines einzigen Verwaltungstools außerdem Einstellungen gesammelt für alle Geräte oder Gerätegruppen ausführen, statt alles einzeln ausrollen und zwischen Kommunikations- und Remote-Management-Software wechseln zu müssen. Zero-Trust-Protokolle gehen noch einen Schritt weiter und bieten ein noch höheres Maß an Sicherheit. Dadurch wird weitgehend verhindert, dass unbefugte Benutzer aus der Ferne auf die Rechner der Mitarbeiter zugreifen, um bösartige Aktionen durchzuführen oder Malware in ein Netzwerk einzuschleusen.
Ein weiterer wichtiger Aspekt zur Vorbereitung auf einen Data Breach: Die Aufstellung eines Business-Continuity-Plans. Dieser sollte dringend ein kontinuierliches Backup und 24-stündiges Netzwerk-Monitoring inklusive aller Cloud-Dienste enthalten. So können Unternehmen schnellstmöglich alle Daten wieder herstellen und dafür sorgen, dass alle Mitarbeiter – unabhängig von ihrem Standort – weiterarbeiten können. Laut GoTo bestätigen 59 % der Befragten, dass dazu in neue Security-Programme oder Updates bestehender Software investiert wurde.
Die Einrichtung flexibler Remote-Strukturen sollte für kleinere Unternehmen, die Top-Talente anziehen und halten wollen, eine Priorität sein.
Paddy Srinivasan
Remote Work als Recruiting-Vorteil
Initiativen zur digitalen Transformation sind nicht nur ein Vorteil für den Geschäftsbetrieb. Die durch diese Initiativen ermöglichten flexiblen Remote- und Hybrid-Arbeitsmodelle können auch ein erheblicher Vorteil für die Aufrechterhaltung des Personalbestands sein, insbesondere da der Wettbewerb um talentierte und engagierte Mitarbeiter zunimmt. Tatsächlich haben Untersuchungen von GoTo und Frost & Sullivan ergeben, dass mehr als zwei Drittel der Arbeitnehmer in KMUs einen Arbeitsplatz ohne die Möglichkeit der flexiblen Remote-/Hybridarbeit nicht mehr annehmen würden. Die Einrichtung flexibler Remote-Strukturen sollte für kleinere Unternehmen, die Top-Talente anziehen und halten wollen, eine Priorität sein. Gleichzeitig können Unternehmen, die Fernarbeit ermöglichen, ihren Pool an potenziellen Bewerbern erheblich erweitern, um den besten Kandidaten für die Stelle zu finden unabhängig davon, wo dieser sich befindet. Personalvermittler können so dem Personalmangel, insbesondere bei Fachkräften, entgegenwirken und neue Talente in anderen Regionen Deutschlands oder sogar im Ausland gewinnen.
Mehr Investment in die eigene Resilienz
Die global prägenden Ereignisse der letzten Jahre waren eine wichtige Lektion dafür, dass Unternehmen Technologien einführen müssen, die rationeller, sicherer und für die neue Generation der digitalen Arbeit optimiert sind. Sie sollten es den Mitarbeitern ermöglichen, flexibel von verschiedenen Standorten aus zu arbeiten, um besser auf Störungen reagieren zu können. Außerdem sollten sie ihre Teams mit den besten Mitarbeitern ausstatten. Auch wenn die Umstellung von den derzeitigen ineffektiven Technologien im Vorfeld Zeit und Ressourcen erfordert, werden Unternehmen, die jetzt investieren, für alle künftigen Herausforderungen gut gerüstet sein.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/09/Paddy_Srinivasan_Headshot.jpg11721088Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-04 10:00:002022-09-30 16:15:07Mehr Resilienz durch die digitale Transformation
Alan Jacobson, Chief Data and Analytics Officer bei Alteryx, beschreibt, wie Automatisierung Unternehmen helfen kann, wirtschaftlich schwierige Zeiten zu überstehen.
In jeder Branche und jedem Fachbereich sind Mitarbeiter:innen dazu gezwungen, noch mehr zu leisten – und das am besten noch schneller als je zuvor. Parallel dazu nimmt auch der Bedarf an automatisierten Prozessen sowie an der Fähigkeit, neue Erkenntnisse aus Daten zu generieren, stetig zu. Unternehmen, die dem gerecht werden wollten, hatten bis vor wenigen Jahren nur eine Möglichkeit: Sie mussten Entwickler:innen und Datenwissenschaftler:innen einstellen, um passende Lösungen zu finden. Doch das Tempo, in dem dieser Wandel voranschreitet, ist schon jetzt so hoch, dass zentralisierte Teams kaum noch eine Chance haben, Schritt zu halten. Was Unternehmen stattdessen brauchen, ist einen demokratischen Ansatz. Denn nur so können sie auf die notwendigen Kapazitäten zugreifen, um Prozesse im großen Stil zu automatisieren und fortschrittliche Analysen zu nutzen, die weit über einfache Tabellenkalkulationen hinausgehen – und zwar von der Finanzabteilung über das Marketing bis hin zur Logistik.
Datenkompetenz ist der entscheidende Faktor
Mitarbeiter:innen, die über ein ausreichendes Maß an Digitalkompetenz verfügen, haben einen nahezu unmittelbaren Einfluss auf den Erfolg eines Unternehmens. Sie befähigt nicht nur langjährige Expert:innen innerhalb einzelner Abteilungen dazu, innerhalb kürzester Zeit Auswirkungen zu erzielen, die einen Unterschied von Millionen machen können. Auch Praktikant:innen und Werkstudent:innen können sich in nur wenigen Wochen die wichtigsten Skills aneignen, die ihnen und dem Unternehmen, für das sie tätig sind, völlig neue Möglichkeiten eröffnen – und das alles nur mithilfe von Daten, die neue Einblicke gewähren. Angesichts der enormen Mengen an Daten, die täglich generiert werden, ist es die Datenkompetenz der Mitarbeiter:innen, die in Krisenzeiten einen entscheidenden Unterschied darstellen kann. Fehlt diese jedoch, können bereits kleinste Disruptionen zu einer existenziellen Bedrohung werden – nicht nur weil potenzielle Risiken nicht rechtzeitig erkannt werden, sondern auch weil die Konkurrenz immer weiter aufrüstet, um von den Vorteilen zu profitieren, die Datenanalysen und automatisierte Prozesse bieten.
Alan Jacobson: „Obwohl vielen Unternehmen bereits klar ist, welche Vorteile ihnen die KI-basierte Entscheidungsfindung bietet, tun sich viele noch immer schwer damit, diese in der Praxis voll auszuschöpfen. Das Problem: KI-Modelle sind nichts, das sich von der Stange kaufen lässt.“
Fakt ist: Um heute wie morgen erfolgreich sein zu können, müssen Unternehmen davon abrücken, Entscheidung aufgrund eines Bauchgefühls zu treffen. Stattdessen müssen sie hierfür Daten heranziehen, denn nur so haben sie die Chance, schnell und angemessen auf unvorhergesehene Ereignisse zu reagieren und entsprechende Maßnahmen einzuleiten. Bereits 2019 ergab eine Umfrage von McKinsey, dass die Wahrscheinlichkeit, ein Wachstum von mehr als zehn Prozent zu erzielen, bei Unternehmen, deren Mitarbeiter:innen bei der Entscheidungsfindung konsequent auf Daten zurückgriffen, etwa 50 Prozent höher lag. Damit das in der Praxis funktionieren kann, reicht es jedoch lange nicht mehr aus, Daten nur zu sammeln. Sie müssen ebenso aufbereitet und von etwaigen Doppelungen gesäubert werden. Liegen die Daten nicht in qualitativ hochwertiger Form vor, wird es auch den besten Automatisierungstools nicht möglich sein, aussagekräftige Ergebnisse zu erzielen, die sich zur Entscheidungsfindung eignen.
Während der Pandemie hat diese Entwicklung einen echten Boom erlebt. Unzählige Unternehmen haben in ihre Digitalisierung investiert und zum Beispiel neue KI-basierte Tools implementiert, um ihre Effizient steigern zu können. Während sie früher Tage oder sogar Wochen aufwenden mussten, um zeitaufwendige und mühsame Prozesse manuell zu wiederholen, bieten neue Technologien ihnen heute die Möglichkeit, dies sehr viel schneller zu erledigen – und dadurch im Vergleich zur Konkurrenz einen erheblichen Vorsprung zu erzielen. Dass Wunsch und Wirklichkeit hier noch immer weit auseinandergehen, wird allerdings durch eine von Alteryx beauftragte IDC-Studie belegt: Hier stellte sich heraus, dass von 62 Prozent der Mitarbeiter:innen bereits erwartet wird, dass sie in der Lage sind, datenbasierte Entscheidungen zu treffen. Im mittleren und höheren Management lag der Wert sogar bei 75 Prozent. Doch nur die Wenigsten verfügen bereits über die nötigen Fähigkeiten, um diesen Anspruch tatsächlich zu erfüllen.
Mehr Resilienz durch KI-Automatisierungen
Obwohl vielen Unternehmen bereits klar ist, welche Vorteile ihnen die KI-basierte Entscheidungsfindung bietet, tun sich viele noch immer schwer damit, diese in der Praxis voll auszuschöpfen. Das Problem: KI-Modelle sind nichts, das sich von der Stange kaufen lässt. Es gibt keine Lösungen, die sich auf jedes erdenkliche Szenario anwenden lassen. Stattdessen werden die Modelle individuell entwickelt und mit großen und vielfältigen Datenmengen gefüttert, um die Entscheidungsfindung trainieren zu können – und dieser maßgeschneiderte Ansatz erfordert sowohl ein solides, fachwissenschaftliches Fundament, als auch eine analytische Denkweise. Selbst dann, wenn ein Unternehmen über ein hochqualifiziertes Data-Science-Team verfügt, ist es von entscheidender Bedeutung, die Expertise der Fachabteilungen miteinzubeziehen.
In der Theorie können KI-Modelle zwar vieles leisten und die Geschäftsprozesse enorm beschleunigen, doch ohne den geschulten Verstand der Mitarbeiter:innen könnten diese ebenso beeinträchtigt oder sogar stark gebremst werden. Ein positives Beispiel hierfür ist die Verwendung von Echtzeit-Versanddaten, die während der Pandemie verstärkt mit internen Lieferkettendaten kombiniert wurden, um die Lagerbestände automatisch zu optimieren und an aktuelle Versandzeiten anzupassen. Auch hier wurde das Potenzial, dass Automatisierung und KI-Modelle bieten, mit dem Fachwissen der Mitarbeiter:innen zusammengeführt, was dazu beigetragen hat, dass Unternehmen Millionen einsparen und ihre Lieferkette trotz der Krise stabilisieren konnten. Werden einige Grundlagen berücksichtigt, besteht die gute Nachricht also darin, dass sich viele Probleme schnell und effizient mithilfe von Automatisierungen lösen lassen.
Neue Tools gehen mit menschlicher Intelligenz Hand in Hand
Bei Künstlicher Intelligenz handelt es sich, vereinfacht gesagt, um eine Mustererkennungsmaschine – auch wenn diese von reichlich Fachjargon umhüllt ist. Die Benutzer:innen trainieren KI-Modelle, indem sie sie mit Daten füttern und anschließend dazu auffordern, auf Grundlage dieser Informationen Ergebnisse vorherzusagen. Das bedeutet, Automatisierung und Künstliche Intelligenz sind zwar leistungsstarke Werkzeuge, um das Wissen, das für strategische Entscheidungen erforderlich ist, zeitnah bereitzustellen. Allerdings werden diese modernen Technologien erst in Kombination mit dem menschlichen Verstand zu einer wertvollen Ressource. Bei der Entwicklung und dem Einsatz vertrauenswürdiger KI gehen Datenkompetenz und Ethik, die den Menschen bei seiner Arbeit unterstützen, deshalb weiterhin Hand in Hand.
Das wird auch durch einen Bericht von Gartner untermauert, der nahelegt, dass für den erfolgreichen Einsatz von KI bei Unternehmen ein hohes Maß an analytischer Reife und Datenmanagement vorhanden sein muss, da eine starke Abhängigkeit von zuverlässigen und qualitativ hochwertigen Daten besteht. Da bisher aber nur ein Bruchteil der Geschäftsdaten zugänglich ist und tatsächlich für Analysen herangezogen wird, müssen Unternehmen ihre Strategie deutlich erweitern – und diese muss sich gleichermaßen auf einen breiten Zugang zu Daten und Analysen für einen konzentrieren, der beides über alle Fachabteilungen hinweg im großen Stil nutzbar macht, als auch auf die Weiterbildung und Umschulung der Mitarbeiter:innen bezüglich ihrer Datenkompetenz.
Die Frage, ob ein Unternehmen zukünftig erfolgreich KI-Modelle nutzen oder daran scheitern wird, ist maßgeblich von Letzterem bestimmt. Denn der Schlüssel bei der Entwicklung einer KI, die nicht nur einen Mehrwert erzielen, sondern dabei auch alle ethischen Faktoren berücksichtigen kann, hängt nicht von einzelnen Expert:innen ab. Vielmehr geht es darum, sich kontinuierlich darum zu bemühen, eine unternehmensweite Datenkultur zu etablieren. Denn nur dann, wenn über alle Positionen hinweg ein gewisses Maß an Datenkompetenz besteht, kann die KI ihr volles Potenzial entfalten und tatsächlich nützlich sein.
Wenn KI-gesteuerte Entscheidungen einen echten Nutzen erzielen
KI-gestützte Erkenntnisse, die zugänglich, wiederholbar und ethisch vertretbar sind, eröffnen Unternehmen eine Fülle von Möglichkeiten, um über den Hype hinauszugehen und die moderne Technologie tatsächlich zu operationalisieren. Sie bilden in Zukunft das Rückgrat schneller und datengestützter Geschäftsentscheidungen – allerdings wird dieser Erfolg maßgeblich von der Qualität der Trainingsdaten, der Transparenz der Governance-Prozesse und den Skills der beteiligten Mitarbeiter:innen bedingt. Unternehmen, die all das ernsthaft berücksichtigen und umsetzen, haben die Chance, zu einer Art Superheld der Organisation zu werden, denn ein datenwissenschaftlicher Ansatz hilft ihnen dabei, schneller, besser und stärker zu werden – und die Konkurrenz damit bestenfalls abzuhängen. Denn nur diejenigen, die in der Lage sind, Automatisierung und KI zu nutzen, um die Komplexität von Terabytes an Rohdaten für fundierte Entscheidungen heranzuziehen, kann das theoretische Potenzial dieser modernen Technologien praktisch nutzbar machen und hochwertige, ethisch vertretbare Geschäftsergebnisse erzielen.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Von Thomas Golatta, Managing Director Macaw Germany
Thomas Golatta vergleicht Marketing mit einer Oper, bei der auch nicht immer alle Musiker gleichzeitig spielen.
Immer bessere digitale Produkte auf den Markt bringen, personalisierte Kundenerlebnisse mit Mehrwert bieten, nahtlose Customer Journeys schaffen, digitale Exzellenz anstreben, Omnichannel statt Multichannel kommunizieren – Marketingabteilungen stehen heute angesichts der hohen Anforderungen ganz schön unter Druck.
Wie ist das alles zu schaffen? Zwar haben viele Unternehmen inzwischen teure Digital-Experience-Plattformen (DXP) angeschafft und ihre Mitarbeitenden geschult, optimale Resultate bleiben aber trotzdem aus. Die ersehnte perfekte Customer Journey ist in weiter Ferne.
Warum das so ist, lässt sich gut erklären. Für ein ansprechendes und nahtloses digitales Kundenerlebnis müssten die Instrumente der DXP immer wieder passend zusammengestellt und an neue Anforderungen angepasst werden. Das Austauschen und Hinzufügen einzelner Komponenten erlauben monolithische All-in-One-DXP aber nicht, weil dafür immer gleich das Gesamtsystem geändert werden muss. Das Gleiche gilt häufig auch für notwendige Anpassungen am Frontend, da diese Lösungen meistens noch die Flexibilität eines Headless-Ansatzes mit gesondertem Frontend vermissen lassen. Diese Behäbigkeit macht Marketingaktionen unnötig langsam und teuer.
Aber es braucht nicht immer ein ganzes Orchester, um stimmige Musik zu machen. Beethoven hat seine neunte Sinfonie schließlich auch nicht für alle verfügbaren Instrumente komponiert. Beim digitalen Marketing ist es nicht anders.
Deshalb sind composable DXP (cDXP) die Zukunft. Die technologischen Komponenten, die für eine nahtlose Customer Journey erforderlich sind, können flexibel und einfach zusammengesetzt werden. Durch die zugrunde liegende Software-as-a-Service-Technologie muss sich die IT gar nicht mit komplexen Integrationsaufgaben beschäftigen. Der modulare Ansatz erlaubt, dass notwendige Anpassungen rasch realisiert werden. Neue Ideen werden somit schneller marktfähig.
Die folgenden Eigenschaften machen cDXP so effizient:
Sie basieren auf einer MACH-Architektur. Diese Struktur steht für größte Flexibilität. Microservices und eine API-first Philosophie sorgen dafür, dass Änderungen und Aktualisierungen an den einzelnen Bestandteilen leicht umgesetzt werden können.
Sie laufen als SaaS-Lösung komplett in der Cloud, so dass alle Komponenten leicht und bedarfsgerecht skaliert werden können.
Sie sind zudem headless, das heißt Frontend ist vom Backend getrennt und somit noch flexibler.
Digital Experience Lösungen mit einem composable Ansatz sind besonders zukunftsfähig. Durch die geringere Abhängigkeit von einem Hersteller sind Marketingabteilungen insbesondere beim Ergänzen spezieller Lösungen hochflexibel. Anders ausgedrückt: Der Weg ist frei, um eine perfekte Customer Journey zu gestalten; insbesondere durch einen niedrigen Vendor-Lock-in-Effekt.
Der composable-Ansatz ist übrigens nicht nur für das digitale Marketing zu empfehlen. Wenn die komplette IT dieser Philosophie folgt, entsteht ein kundenorientiertes und schnelles Business, mit dem Unternehmen die Konkurrenz bei der Geschwindigkeit von Implementierungen überholen werden.
In der Praxis können Marketingabteilungen durch die flexible Struktur zusätzliche Bausteine einfach hinzufügen und so eine neue Experience schaffen. Ob Self-Services mit integriertem Contact Center, das Verbinden von Content und Commerce, die Integration von Marktplätzen oder das Einbinden von Geschäftspartnern in die Digital Experience – all das ist mit einer composable DXP deutlich einfacher und kostensparender möglich.
Mal ehrlich, wer nutzt schon die endlose Liste an Funktionen der monolithischen DXPs? In der composable Variante können Marketingteams nur die Funktionen aktivieren und bezahlen, die sie wirklich verwenden. Diese gezielte Nutzung hilft, Kosten und Investitionen zu optimieren; auch, weil die neue Technik die IT entlastet.
Technologie sollte die Arbeit von Marketing-Teams unterstützen. Genau das leistet cDXP. Dieser zentrale Zugangspunkt führt den kompletten Mar-Tech-Stack zusammen, einschließlich Content-Management, Marketing-Automatisierung, E-Commerce, Personalisierung und Analysen. Mit cDXP können Marketingexperten eine wirklich nahtlose Customer Journey viel leichter erreichen und Verbraucher in allen Phasen des Customer Lifecycle bestmöglich unterstützten
Der composable-Ansatz ist übrigens nicht nur für das digitale Marketing zu empfehlen. Wenn die komplette IT dieser Philosophie folgt, entsteht ein kundenorientiertes und schnelles Business, mit dem Unternehmen die Konkurrenz bei der Geschwindigkeit von Implementierungen überholen werden und gleichzeitig auf alle unvorhergesehenen Ereignisse besser und flexibler reagieren können.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2017/03/Customerexperience_module3.png11991800Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-09-28 15:23:292022-09-28 15:23:31Gute Musik braucht nicht immer das ganze Orchester
Der Druck, der auf der Softwareentwicklungsabteilung lastet, ist hoch. Daher wird gerne nach probaten „schnellen Mitteln“ Ausschau gehalten. Warum das zwar verständlich, im Grunde aber keine gute Idee aus Sicht der Sicherheit ist, erläutert Laurie Mercer, Security Engineer bei HackerOne.
„Hacker sind letztlich eine zusätzliche Ressource für Unternehmen, um Lücken in ihrem Wissen über Cybersicherheit und Angriffsflächen zu identifizieren“, erläutert Laurie Mercer.
Beinahe täglich kann man über Cyberattacken lesen, die ganze Unternehmen oder Verwaltungen lahmlegen. Insbesondere Ransomware erfreut sich wachsender Beliebtheit unter Cyberkriminellen, weil eine gelungene Attacke sehr häufig zu kommerziellem Gewinn führt. Darüber hinaus bleiben staatlich geförderte Gruppen von Cyberkriminellen gefährlich, die sich insbesondere auf Industriespionage kaprizieren. Während sie mit einer erfolgreichen Sensibilisierung der Belegschaft bereits einen Sicherheitsgewinn erzielen können, dürfen Organisationen die Absicherung der IT-Infrastruktur nicht vernachlässigen. Insbesondere staatlich geförderte Cyberkriminelle sind häufig technisch versiert und verfügen über geeignete Tools, Sicherheitslücken zu finden und auszunutzen.
Standardlösungen sind gefährlich
Eine besondere Herausforderung für die IT-Sicherheit stellt der zunehmende Einsatz von weit verbreiteten Softwarebibliotheken dar. Viele Organisationen wollen das Rad nicht neu erfinden und greifen darum auf verbreitete Softwarebibliotheken zurück, mit deren Hilfe sich Funktionen realisieren lassen, die nicht spezifisch für eine bestimmte Organisation sind. So verständlich es ist, dass Organisationen verstärkt auf diese Bibliotheken zurückgreifen, so viel Vorsicht ist bei ihrer Nutzung geboten. Die besondere Gefahr dieser Bibliotheken besteht nicht nur darin, dass sich eventuelle enthaltene Sicherheitslücken sehr weit verbreiten, sondern auch darin, dass es sich im Falle von Schwachstellen nicht selten um Zero-Day-Lücken handelt, für die es bei Bekanntwerden keine Lösung gibt. Folglich fokussiert sich ein großer Teil der Cyberkriminellen auf genau diese Lücke, wie es beispielsweise bei der „Log4J“ genannten Sicherheitslücke der Fall war.
Umsicht bei der Implementierung
Die Nutzung dieser Bibliotheken sollte darum mit besonderer Umsicht erfolgen. Es gilt, die Bibliotheken im Vorfeld auf Herz und Nieren zu prüfen. Eine Code-Review durch nicht an der Entwicklung beteiligte Kollegen sollte ebenso zum Repertoire gehören wie der Einsatz entsprechender automatisierter Werkzeuge. Auf diese Weise lassen sich einige Schwachstellen identifizieren. Je umfangreicher und komplexer eine Software-Komponente allerdings wird, desto schwieriger und langwieriger wird es, potenzielle Sicherheitslücken zu finden. Und je später dies im Entwicklungsprozess passiert, desto aufwändiger wird die Beseitigung.
Zudem hat sich durch die moderne, agile Software-Entwicklung mit Continuous Development (CD) und Continuous Integration (CI) die Bereitstellung neuer Komponenten erheblich beschleunigt. Das lässt keine Zeit mehr für lange Prüfzyklen neuer Software.
Tools zur Kontrolle
IT-Sicherheitsverantwortliche können auf eine Reihe von Tools zurückgreifen, die Ihnen helfen Sicherheitslücken zu entdecken und zu patchen. Schwachstellen-Scanner erkennen und klassifizieren Schwachstellen, sodass die IT-Sicherheitsverantwortlichen ihre Behebung entsprechend priorisieren können. Einige Tools können auch helfen, die Wirksamkeit von Gegenmaßnahmen einzuschätzen. In der Regel vergleichen diese Tools die Details der Infrastruktur und Software einer Organisation mit einer Datenbank, die Informationen über bekannte Sicherheitslücken in Diensten und Ports sowie Anomalien im Paketaufbau und Pfade zu ausnutzbaren Programmen oder Skripten enthält. Organisationen können sich auch entschließen, die Sicherheitskontrolle teilweise auszulagern und einen Anbieter mit einem klassischen Penetrationstest zu beauftragen. Die Anbieter dieser Penetrationstest nutzen in der Regel Standardverfahren und ihre eigenen Tools für die Tests, die in ihrer Funktionsweise kaum von den Schwachstellen-Scannern abweichen, mit denen Organisationen selbst Sicherheitslücken auffinden können.
Dein Freund der Hacker
Schwachstellen-Scanner und Penetrationstests haben allerdings einen entscheidenden Nachteil: Sie folgen einem weitgehend standardisierten Verfahren und verfügen nicht über die Kreativität und kriminelle Energie eines Cyberkriminellen. Idealerweise sollten Menschen mit der Kreativität eines Cyberkriminellen die Suche nach Schwachstellen übernehmen. Das scheinen aber per Definition Menschen zu sein, denen man nicht vertrauen kann. Tatsächlich gibt es aber ethische Hacker, deren Know-how und Kreativität beim Aufspüren von Sicherheitslücken für Organisationen einen wertvollen Beitrag leisten können.
Organisationen fehlen oft die Ressourcen und Fähigkeiten, um ihre Angriffsfläche vollständig zu überwachen. Hacker sind letztlich eine zusätzliche Ressource für Unternehmen, um Lücken in ihrem Wissen über Cybersicherheit und Angriffsflächen zu identifizieren und so ihr Risiko zu minimieren. Sie helfen Unternehmen, die potenziellen Einfallstore für Cyberkriminelle in ihrer IT-Infrastruktur zu finden, die ihnen bisher entgangen sind.
Zu finden sind diese ethischen Hacker über Bug-Bounty-Plattformen wie HackerOne, die als Mittler zwischen Organisationen und diesen Hackern fungieren. Zudem tragen sie dafür Sorge, dass alle Beteiligten aus der gemeinsamen Arbeit einen Nutzen ziehen, indem sie als Berater fungieren, die den Erfolg des Programms und die Kommunikation der Beteiligten optimieren. Haben sich die Verantwortlichen einer Organisation für eine Zusammenarbeit mit Hackern entschieden, wird letzteren erlaubt – abhängig von der jeweiligen Vereinbarung und den Zielen – z.B. in Konfigurationen von Anwendungen, Webseiten, Apps oder Infrastrukturen nach Sicherheitslücken zu suchen.
Unternehmen benötigen im Prinzip jemanden „mit krimineller Energie“.
Die Bezahlung der Hacker basiert auf einem zuvor vereinbarten Prämienmodell. Kosten entstehen dem Unternehmen also nur dann, wenn die Hacker Sicherheitslücken finden und die für den Prozess vorgesehenen Verfahrensweisen einhalten. Gewöhnlich unterscheidet sich die Höhe der Prämie je nachdem, wie gravierend die gefundene Schwachstelle ist. Je schwerwiegender eine Sicherheitslücke ist, desto höher fällt die Prämie aus.
Organisationen profitieren dabei von einem skalierbaren Prozess, um Ausgaben und Kosten immer nachvollziehen und überblicken zu können. Darüber hinaus besteht keine Notwendigkeit, zusätzliche Mitarbeiter einzustellen, sondern externe Sicherheitsprofis kümmern sich um das Auffinden von Schwachstellen.
Da jedoch das Vorgehen der Hacker, also das Eindringen in fremde Systeme, im Grunde illegal ist, müssen sich beide Seiten zunächst rechtlich absichern und vereinbaren, was zulässig ist und was nicht. Dies geschieht mittels sogenannter VDPs (Vulnerability Disclosure Program), die ein zentrales Element des Vertrags zwischen den Hackern und der Organisation darstellen. Auf diese Weise sparen sich die Unternehmen die Zeit, einen solchen Vertrag mit jedem Hacker einzeln abzuschließen. Darum kümmert sich an ihrer Stelle die Bug-Bounty-Plattform.
Fazit
Cybergefahren kennen auch künftig nur eine Entwicklung: ihre Anzahl und ihre Bedrohlichkeit werden weiter zunehmen. Für Organisationen ist es wichtig, den richtigen Mix aus Sensibilisierung ihrer Belegschaft, technischen Mitteln wie Schwachstellen-Scannern und dem Know-how und der Kreativität ethischer Hacker zu finden. Letztlich kann nur der menschliche Faktor den menschlichen Faktoren kriminelle Energie (der kriminellen Hacker) und Verführbarkeit (der Belegschaft) genug entgegensetzen, um die Sicherheit der Unternehmensressourcen zu gewährleisten.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Daniel Feix, Geschäftsführer und Head of Portfolio Management bei I-AM Impact Asset Management GmbH führt aus, warum nachhaltig orientierte Investoren große Unternehmen vorziehen (sollten).
Die Krisen der vergangenen Jahre haben ihre Spuren bei vielen Menschen hinterlassen. So haben die Coronapandemie und der Ukraine-Krieg und die daraus folgenden Entwicklungen wie beispielsweise eine hohe Inflation die Sorgen der Menschen verstärkt. Eine regelmäßig erhobene Umfrage in 28 Ländern durch das Meinungsforschungsunternehmen Ipsos offenbart die größten Ängste. So wurden in der Umfrage von August 2022 die Inflation mit durchschnittlich 39 Prozent als wichtigster Faktor genannt, gefolgt von Armut und sozialer Ungleichheit mit einem Anteil von 31 Prozent und Arbeitslosigkeit mit 27 Prozent. Auch der Klimawandel findet sich mit 17 Prozent auf den vorderen Rängen. Vor allem in Westeuropa hat die Sorge vor dem Klimawandel durch den Hitzesommer 2022 stark zugenommen.
Die Corona-Krise und der Ukraine-Krieg haben die Notwendigkeit einer nachhaltigen Transformation der Wirtschaft, aber auch den großen Rückstand bei der nachhaltigen Energiewende schonungslos offengelegt. Gleichzeitig kam es zu einem kurzfristigen Rückschlag bei der Dekarbonisierung der Energieerzeugung. Intensiv wird darüber diskutiert, längst tot geglaubte Energieformen wie Atomkraft und Kohleabbau wiederzubeleben. Dieser Rückschritt in der nachhaltigen Ausrichtung der Wirtschaft kann aber nicht darüber hinwegtäuschen, dass die Produktion mittel- und langfristig auf saubere Energien umgestellt werden muss, um nicht weiter am Tropf autokratischer Regierungen zu hängen und künftigen Generationen eine Hypothek von Umweltschäden aufzubürden.
„Gemäß des Sorgen-Barometers von Ipsos fürchten sich unter anderem die Menschen weltweit vor den Folgen des Klimawandels. Jedoch beschäftigen aktuell die Auswirkungen der hohen Inflation und die Sorge vor Armut die Menschen noch stärker. ESG-Fonds sollten also nicht nur möglichst nachhaltig sein, sondern auch eine auskömmliche Rendite generieren“, führt Daniel Feix aus.
Die Entschlossenheit in der Gesellschaft, die Wirtschaft nachhaltig zu gestalten, manifestiert sich wiederum in der Geldanlage. So verzeichnen nachhaltige Fonds vor allem in Europa eine hohe Nachfrage. Laut Morningstar nahmen bei europäischen Fonds die Nettomittelzuflüsse im zweiten Quartal 2022 um knapp 31 Mrd. USD zu. Damit lagen die Nettomittelzuflüsse zwar 57 Prozent unter dem Wert aus dem Vorquartal, aber konnten trotz eines schwierigen Marktumfelds noch ein zweistelliges Plus verbuchen. Auf Jahressicht stiegen laut dem Forum für nachhaltige Geldanlagen die nachhaltig angelegten Fondsvolumen auf neue Rekordwerte. In Deutschland nahmen nachhaltige Geldanlagen um 50 Prozent auf 501,4 Mrd. Euro zu. Besonders das Anlagevolumen privater Anleger in entsprechende Produkte stieg stark an und verdreifachte sich auf 131,2 Mrd. Euro. In Österreich zeigt sich das gleiche Bild. Hier nahmen nachhaltige Geldanlagen um 62 Prozent auf insgesamt 63 Mrd. Euro zu. Dieser Rekordwert geht ebenso vor allem auf Privatanleger zurück, die ihr Investitionsvolumen in ESG-Produkte 2021 um 164 Prozent gesteigert haben.
Gemäß des Sorgen-Barometers von Ipsos fürchten sich unter anderem die Menschen weltweit vor den Folgen des Klimawandels. Jedoch beschäftigen aktuell die Auswirkungen der hohen Inflation und die Sorge vor Armut die Menschen noch stärker. ESG-Fonds sollten also nicht nur möglichst nachhaltig sein, sondern auch eine auskömmliche Rendite generieren.
Ein hohes Maß an finanzieller Stabilität und Nachhaltigkeit können Anleger vor allem bei Emittenten von Blue Chip-Aktien vorfinden. Bei Blue Chips handelt es sich um umsatzstarke Aktien großer, internationaler Unternehmen mit einem hohen Börsenwert. Letztere verfügen im Gegensatz zu kleineren Unternehmen oftmals über ein etabliertes Geschäftsmodell, das stabiles Ertragswachstum generiert und eine hohe Profitabilität aufweist. Außerdem sind diese Unternehmen typischerweise durch ein hohes Eigenkapital und eine solide Bonität gekennzeichnet. In wirtschaftlich unsicheren Zeiten gelten diese eher als Fels in der Brandung.
Die Entschlossenheit in der Gesellschaft, die Wirtschaft nachhaltig zu gestalten, manifestiert sich wiederum in der Geldanlage.
Daniel Feix
Nachhaltigkeit als zentrales Element der Unternehmensstrategie
Selbst dem rückständigsten Unternehmen sollte durch die gegenwärtige Energiekrise klar geworden sein, dass eine nachhaltig orientierte Geschäftspolitik einen strategischen Wettbewerbsvorteil nicht nur in langfristiger, sondern auch in kurzfristiger Hinsicht darstellt. Nicht nur Investoren bewerten die Risiken bei nachhaltig aufgestellten Unternehmen niedriger. Auch Kunden, Geschäftspartner und Mitarbeiter können sich angesichts der akut hohen Energiepreise und des Materialmangels sicherer wägen, wenn ein Unternehmen ressourcenschonend und in der Produktion auf erneuerbare Energie setzt. Denn nur so können die Kosten für das Unternehmen im Zaum gehalten, die Profitabilität gesteigert und Verträge eingehalten werden. Die stringente Umsetzung einer ESG-Strategie erfordert jedoch nicht nur finanzielle Investitionen und Anstrengungen im ökologischen Bereich, sondern auch die Forcierung sozialer und Governance-bezogener Kriterien. Zum Beispiel haben verschiedene Studien belegt, dass je höher die Diversität in einem Unternehmen ausgeprägt ist, desto stärker dessen Profitabilität ist. Ein Unternehmen, das Nachhaltigkeit in allen drei Bereichen umgesetzt hat, zeigt, dass es in langfristigen Zeiträumen denkt, dynamisch ist und eine positive Einstellung gegenüber Innovation einnimmt. Dies macht es in kritischen Zeiten und konkreten Krisen dank Flexibilität und Anpassungsfähigkeit resilienter.
Große Unternehmen verfügen über ausreichend finanzielle Polster und Stabilität, um Nachhaltigkeit als eigenständige Säule der Unternehmensstrategie zu etablieren und ESG-Maßnahmen umsetzen zu können. Sei es die Umstellung der Energieversorgung auf erneuerbare Energien, die Etablierung nachhaltiger Mobilität, die Förderung von Diversität in Führungspositionen oder die Bekämpfung von Korruption: Es bedarf vielseitiger Anstrengungen und finanzieller Stärke, um ein Unternehmen umfassend nachhaltig aufzustellen. Laut einer Umfrage der Managementberatung Sopra Steria und dem F.A.Z.-Institut von 2022 messen vor allem Konzerne, im Gegensatz zu kleineren Unternehmen, allen drei Nachhaltigkeitsbereichen (E, S und G) die gleiche Bedeutung bei. In der Praxis werden jedoch über alle Unternehmen hinweg bisher vorwiegend Investitionen im Bereich der Ökologie getätigt. Laut der Umfrage spüren vor allem börsennotierte Großunternehmen den Druck vonseiten des Kapitalmarkts, Nachhaltigkeit ganzheitlich zu denken und entsprechend zu implementieren, da diese immer mehr zum entscheidenden Anlagekriterium wird.
Nachhaltigkeit ist für börsennotierte Großunternehmen von einem Nice-to-have- zu einem Must-have-Kriterium geworden. Dabei können Großunternehmen für kleinere Unternehmen eine Leuchtturmfunktion einnehmen. Eine Studie der Unternehmensberatung Staufen von 2022 offenbart beispielsweise, dass lediglich 26 Prozent der Unternehmen in Deutschland eine Nachhaltigkeitsstrategie aufgesetzt haben. Ganz im Gegensatz zu den Unternehmen aus der DAX-Familie: 76 Prozent der im Auftrag des Deutschen Aktieninstituts befragten Entscheider aus diesen Unternehmen gaben an, im Unternehmen eine Nachhaltigkeitsstrategie etabliert zu haben, die bereits praktisch umgesetzt wird.
Bei Blue Chips im Speziellen erweist sich das starke Engagement institutioneller Investoren als Treiber für Nachhaltigkeit. Letztere können durch ihre hohen Besitzanteile gezielt Einfluss auf die Unternehmensstrategie nehmen. Die „European Asset Allocation Insights“-Studie von Mercer offenbart, dass institutionelle Investoren zunehmend Wert auf eine kohlenstoffarme oder klimabezogene Asset Allocation legen. Auch soziale Aspekte rücken stärker in den Fokus. Eine Studie der Boston Consulting Group zum Engagement aktivistischer Investoren zeigt auf, dass ESG zunehmend eine Rolle bei diesen spielt. Aktivistische ESG-Kampagnen werden längst nicht mehr nur von Hedgefonds betrieben, sondern auch von bisher eher passiven Akteuren wie Asset Managern oder Pensionsfonds, die sich Net-Zero-Asset-Manager-Allianzen verschrieben haben.
Blue Chips sind transparenter
Große Unternehmen und Konzerne, die im Durchschnitt mehr als 500 Mitarbeiter aufweisen und kapitalmarktorientiert sind, wurden schon 2017 durch die CSR-Richtlinie der Europäischen Union dazu verpflichtet, zu nichtfinanziellen Themen zu berichten. Dabei müssen Informationen zu Umwelt, Mitarbeiter, Soziales, Menschenrechte, Anti-Korruption/Bestechung sowie unter bestimmten Voraussetzungen zur Diversität geliefert werden. Durch diesen gesetzlichen Rahmen haben große börsennotierte Unternehmen und Konzerne einen zusätzlichen Anreiz bekommen, ESG zentral in der Geschäftsstrategie zu etablieren. Es wurden eigenständige ESG-Abteilungen aufgebaut, die die nachhaltige Transformation strategisch begleiten und Informationen zu den umgesetzten ESG-Maßnahmen sammeln. Diese Informationen werden wiederum von ESG-Ratingagenturen benötigt, um Unternehmen systematisch nach ihrer Nachhaltigkeit bewerten und mit anderen Unternehmen vergleichen zu können.
Eine hohe Datentransparenz hilft wiederum dabei, Greenwashing vorzubeugen. Denn für nachhaltig orientierte Investoren ist es entscheidend, ob ein Unternehmen nur eine grüne Fassade zur Imagepflege und Marketingzwecken aufrechterhält oder Nachhaltigkeit ernsthaft in ihrer Unternehmensstrategie etabliert hat. Hierbei kann ein aktiver Asset Management-Ansatz eine weitere Absicherung bieten. Denn neben den vom Unternehmen bereitgestellten Informationen nutzt ein Fondsmanager den direkten Kontakt zum Unternehmen, um sich ein eigenes Bild von der gelebten Nachhaltigkeit im Unternehmen zu machen.
Ein nachhaltiger, aktiv gemanagter Fonds, der zusätzlich auf die hohe Qualität von Blue Chips setzt, ist der I-AM GreenStars Opportunities (ISIN R-Tranche: AT0000A2GU35) von Impact Asset Management. Dieser Mischfonds investiert in nachhaltige Aktien und Anleihen von Weltklasse-Unternehmen, die eine hohe Profitabilität, ein stabiles Ertragswachstum und eine niedrige Verschuldung aufweisen. Auch in weniger günstigen Wirtschafts- und Zinszyklen sind die Blue Chip-Unternehmen in der Lage, sich flexibel an die jeweilige Marktsituation anzupassen. Neben Ausschlüssen und Best-in-Class-Kriterien setzt das Fondsmanagement auf aktives Engagement und Stimmrechtsausübung. Diese stringente ESG-Anlagestrategie drückt sich in hohen ESG-Ratings aus: neben der höchsten Bewertung von fünf Globen durch Morningstar weist der I-AM GreenStars Opportunities weitere Top-Ratings durch die Nachhaltigkeits-Research-Anbieter MSCI ESG (AAA) und ISS ESG (5 Sterne) auf.
Weltklasse in allen Belangen
Blue Chip-Unternehmen sind nicht nur Weltklasse bei ihrem Produktportfolio und ihrem Geschäftsmodell, sondern auch in puncto Nachhaltigkeit. Ihre etablierte Marktstellung führt zu einer ausgezeichneten finanziellen Lage. Diese ermöglicht wiederum Investitionen in eine umfassende nachhaltige Transformation des Unternehmens. Neben der Regulierung erweist sich auch der Druck von Investoren, Kunden, Geschäftspartnern und Mitarbeitern zunehmend als Treiber für mehr Nachhaltigkeit. Denn Nachhaltigkeit wird immer mehr als selbstverständlich erachtet. Hier haben sich Blue Chips als Vorreiter etabliert.
https://trendreport.de/wp-content/uploads/2022/09/I-AM_Daniel-Feix-scaled.jpg17072560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-09-26 10:00:002022-09-23 15:45:32Warum Bluechips nachhaltiger sind als ihre kleineren Pendants
„Der größte Hemmschuh in Sachen digitale Transformation ist die mangelnde Bereitschaft für eine neue Führungskultur. Es braucht quasi ein neues Betriebssystem bzw. Operating System, damit Digitalisierung nicht nur in einzelnen isolierten Bereichen stattfindet, sondern innerhalb des großen Ganzen“, sagt Helmut Scherer, Managing Director Deutschland bei der Digital- und Innovationsberatung Futurice im Gespräch mit TREND REPORT.
Herr Scherer, wie können Unternehmen durch die digitale Transformation resilienter werden? Werfen wir einen Blick auf die letzten Jahre, dann wird klar, dass Unternehmen von dem Selbstverständnis gelebt haben, dass ihre Produkte den entscheidenden Unterschied im Markt machen. Lange Zeit entsprach dies auch der Realität, da die Märkte stabil waren und dieses Vorgehen Gewinn eingebracht hat. Mittlerweile ist es jedoch so, dass es auf dem internationalen Markt ein großes Angebot an sehr ähnlichen Produkten gibt, welches sich nur noch durch den Preis unterscheidet – so entsteht für die Unternehmen ein enormer Preisdruck, um sich vom Wettbewerb abzugrenzen. Die digitale Transformation eröffnet Unternehmen zunächst einmal neue Differenzierungsmöglichkeiten. Durch Investitionen in die Konnektivität sowie die digitale Infrastruktur können Unternehmen Daten generieren und dafür nutzen, zielgerichtete und auf die Kundenbedürfnisse zugeschnittene digitale Geschäftsmodelle zu entwickeln. Die Kombination aus analogem Produkt und digitalen Services erzielt weitaus höhere Preise als der Verkauf von rein physischen Produkten. Ein weiterer Vorteil ist: Durch die Verbindung, die durch diese digitalen Lösungen und Dienstleistungen entsteht, findet ein regelmäßiger Austausch mit den Kunden statt. So werden Unternehmen, die bisher lediglich Produktlieferant waren, zu echten Geschäftspartnern. Der Einblick in die Daten ermöglicht außerdem ein tieferes Verständnis der Produktnutzung und der Kundenbedürfnisse. Dies hilft wiederum dabei Services zu verbessern und Trends frühzeitig zu erkennen. Auf dieser Basis lassen sich weitere Lösungen und Dienstleistungen schaffen. Kurz gesagt: Die digitale Transformation macht Unternehmen resilienter, da sie Möglichkeiten schafft, sich vom Wettbewerb zu unterscheiden. Zugleich versetzt es sie in die Lage proaktiv auf Bedürfnisse und Trends einzugehen: Statt nur reaktiv Signale aus dem Markt aufzunehmen, ist durch die Vernetzung und die Generierung von Daten ein vorausplanendes und zielgerichtetes Handeln möglich. Zudem können digitale Geschäftsmodelle durch agile Entwicklungsmethoden schneller an veränderte Umstände angepasst werden.
In der Vergangenheit hat man nahezu perfekte Prozesse für die Entstehung, Vermarktung und den Vertrieb eines Produktes geschaffen, bevor man damit auf Kunden zugegangen ist. Bei der Entwicklung digitaler Innovationen kommt es hingegen auf iterative, agile und schlanke Prozesse und Methoden an. Es geht darum, stetig Mehrwert an den Markt zu bringen und zu evaluieren, wie hoch der Nutzen ist.
Helmut Scherer
Was verbreitet sind Ihrer Meinung nach diese Erkenntnisse? Was sind Ihre persönlichen Erfahrungswerte? Entgegen der allgemeinen Meinung, dass deutsche Unternehmen komplett im digitalen Mittelalter leben, sehen wir bei Futurice bei unserer täglichen Zusammenarbeit mit Unternehmen, dass das Bewusstsein für die Notwendigkeit zur Digitalisierung durchaus vorhanden ist. Und das über viele Branchen hinweg, wie z.B. im Mobilitätsektor, Gesundheitswesen oder auch in der Industrie. Das liegt zum einen daran, dass Unternehmen nach Möglichkeiten suchen, den Unternehmenswert zu steigern. Zum anderen an dem stetig steigenden Druck durch den internationalen Wettbewerb. Diesen beiden Aspekten begegnet man am besten durch softwarebasierte Services, die einen signifikanten, messbaren Mehrwert für Kunden bieten. Wir sehen, dass diese Einsicht mittlerweile weit verbreitet ist und viele Unternehmen bereits die ersten Schritte auf dem Weg der digitalen Transformation gegangen sind. In den vergangenen Jahren wurde viel in die Vernetzung, Konnektivität und den Aufbau digitaler Infrastruktur investiert. Die Herausforderung jetzt sind die weiteren Schritte: Wie können die Daten, die generiert werden, effizient genutzt werden? Wie entwickelt man daraus innovative Geschäftsmodelle? Und wie bringt man das Unternehmen als Ganzes einen Schritt weiter?
Sie sagen, es braucht eine neue Führungskultur, ein neues Betriebssystem für Unternehmen. Können Sie das genauer erläutern? Wie bereits erwähnt, sind Unternehmen die ersten Schritte auf dem Weg der digitalen Transformation bereits gegangen. Viele Firmen verwenden bei der täglichen Arbeit digitale Tools und erzeugen somit Daten. Werden Unternehmensstrukturen aber nicht geöffnet und die verschiedenen Abteilungen nicht miteinander verbunden, dann laufen digitale Prozesse isoliert und nur innerhalb bestimmter Bereiche ab. Hier die Verbindung wiederherzustellen – zwischen den Menschen, den Daten, Prozessen und Bereichen – ist eine große Herausforderung. Es geht also nicht nur um den Ausbau digitaler Fähigkeiten, es ist eine neue Unternehmensstruktur und damit auch Führung gefragt, die auch vor einer Umstellung der operativen Abläufe nicht Halt macht. Außerdem funktionieren digitale Innovationen anders als klassische Produktinnovationen. In der Vergangenheit hat man nahezu perfekte Prozesse für die Entstehung, Vermarktung und den Vertrieb eines Produktes geschaffen, bevor man damit auf Kunden zugegangen ist. Bei der Entwicklung digitaler Innovationen kommt es hingegen auf iterative, agile und schlanke Prozesse und Methoden an. Es geht darum, stetig Mehrwert an den Markt zu bringen und zu evaluieren, wie hoch der Nutzen ist. Dinge, die gut funktionieren und hilfreich für die Kunden sind, werden weiterverfolgt. Lösungen, die keinen Zuspruch finden, lässt man schnell wieder fallen. All die beschriebenen Aspekte bedeuten für Unternehmen, die sich bisher eher auf klassische, analoge Produkte konzentriert haben, eine große Herausforderung. Denn um diesen zu begegnen, braucht es einen umfassenden Mindset-, Kultur-, und Organisationswandel – kurz: ein neues Betriebssystem.
„Viele Unternehmer begreifen bisher ihr physisches Produkt als den zentralen Punkt der Kundenbedürfnisse. Einfach gesagt: das Produkt ist die Sonne und der Kunde der Planet, der sich darum dreht. Doch dieses Denken ist nicht mehr zeitgemäß“, erläutert Helmut Scherer.
Was also raten Sie jetzt ganz konkret den Führungskräften? Die Führungskräfte müssen sich darüber klar werden, dass die Zeiten, in denen die Informationshoheit und alle Entscheidungsgewalt bei ihnen lagen, vorbei sind. Das Stichwort ist hier: data driven decision making. Durch die stetige Generierung, Nutzung und Validierung von Daten, stehen diese jedem im Unternehmen zur Verfügung. Das kommt einer Demokratisierung der Entscheidungsfindung gleich. Das Management sollte diese Transparenz unbedingt zulassen – auch wenn es sich im ersten Moment nach einem Machtverlust anfühlt. Denn dadurch entstehen viele Vorteile: es macht Unternehmen agiler und reaktiver und schafft so einen Wettbewerbsvorteil. Für die Implementierung erfolgreicher digitaler Prozesse und die Entwicklung innovativer Services ist größtmögliche Transparenz unerlässlich. Außerdem muss sich der Fokus stärker auf die Customer Experience richten. Viele Unternehmer begreifen bisher ihr physisches Produkt als den zentralen Punkt der Kundenbedürfnisse. Einfach gesagt: das Produkt ist die Sonne und der Kunde der Planet, der sich darum dreht. Doch dieses Denken ist nicht mehr zeitgemäß. Vielmehr ist es heutzutage so, dass der Kunde sich in einem Ökosystem (oder Planetensystem) aus Produkten und Dienstleistungen befindet, die seinen Anforderungen und Bedürfnissen entsprechen. Diejenigen, die in einem solchen System geschickt ihren Platz finden, oder gar ein solches System definieren, zählen zu den Gewinnern. Als letzten Punkt raten wir Unternehmen unbedingt, Investitionen in Digitalisierung und Innovation nicht zurückzufahren. Futurice ist in vielen verschiedenen Ländern tätig und diesen Trend sehen wir vor allem in Deutschland. Sobald sich eine Krise zeigt – und momentan müssen wir mit vielen Krisen und Herausforderungen parallel zurechtkommen – werden Investitionen auf das Kernprodukt beschränkt. Investitionen in digitale Dienste oder Produkte, die den Wert des Kernprodukts erhöhen, werden hingegen stark eingeschränkt. In Skandinavien z.B. sehen wir diesen Trend nicht, Investitionen werden in gleichem Maße im analogen als auch digitalen Teil von Produkten fortgeführt. Beide Aspekte sind gleich wichtig – dieses Bewusstsein ist noch nicht komplett in deutschen Führungsebenen angekommen.
„Der Fisch stinkt immer vom Kopf her!“ – Gibt es Management-Fehler, die sich aus Ihrer Sicht immer wiederholen? Für die Digitalisierung gibt es kein Universalrezept – auch wenn viele Manager das glauben mögen. Problematisch ist immer wieder, dass an Probleme vom falschen Ende aus herangegangen wird. Viele denken zuerst an die Lösungsmöglichkeiten: Künstliche Intelligenz, Machine Learning, Security – das alles sind Technologien, die jeder gerne in seinem Unternehmen verwenden möchte, weil sie als der Inbegriff der Digitalisierung gelten. Aber passen diese Technologien auch wirklich zu den Problemen, die es zu lösen gilt? Sich diese Frage zu stellen wird oft vergessen, ist aber essentiell. Nur so kann man die genannten Begriffe mit Leben füllen und die Herangehensweisen, Prozesse und Lösungen definieren, die zu den jeweiligen Unternehmenszielen passen. Ein weiterer Fehler, der sich oft wiederholt, ist, dass verkannt wird, dass die digitale Transformation eine langfristige Initiative ist. Wie bereits erwähnt, geht es dabei meist um einen umfassenden Kulturwandel im Unternehmen. Das benötigt viel Zeit – kurzfristige KPIs sind da zu kurz gegriffen. Deshalb wäre es beispielsweise viel besser bei Transformationsprojekten nicht auf Quartalszahlen zu schauen, sondern darauf zu blicken, wie sich der gesamte Unternehmenswert über einen längeren Zyklus entwickelt.
Wir leben in einer Zeit, in der sich Technologien gegenseitig beschleunigen im Sinne ihrer Weiterentwicklung. Laufen wir Gefahr zu einer „Wirtschaft der zwei Geschwindigkeiten“ zu werden? Verpassen es Unternehmen die digitale Transformation mitzugehen und bleiben bei rein analogen Angeboten stehen, dann besteht diese Gefahr durchaus. Allerdings ist es doch heute schon so, dass man die digitale von der analogen Welt kaum mehr trennen kann. Beide Zweige sind gleich wichtig und sollten daher auch zusammen gedacht werden. Wenn man hier eine starke Verbindung schafft, dann gibt es auch keine zwei Geschwindigkeiten. Hier kommt auch wieder der Ökosystem-Gedanke ins Spiel. Ein Ökosystem ist ein Netzwerk aus unterschiedlichen Komponenten. verschiedenen Akteuren, Dienstleistungen, Plattformen und Produkten, All diese Aspekte bauen aufeinander auf, sind voneinander abhängig und verstärken sich gegenseitig. Findet man als Unternehmen seinen Platz in einem solchen Ökosystem, kann man gemeinsam mit anderen Playern einen Mehrwert für Kunden erschaffen und von der Zusammenarbeit profitieren.
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Neue Kundenanforderungen verändern die Customer Journey. Der persönliche Austausch vor Ort war und ist aus Pandemiegründen oft nicht möglich – und unabhängig davon aufwendig. So führt der Wunsch nach Beratung in Echtzeit zu mehr Videokommunikation, aber auch Chat-/Voice- oder Sales-Bots werden immer wichtiger. Durch die gestiegene Zahl digitaler Touchpoints beispielsweise für beratungsintensive Artikel können Unternehmen Kundendaten sammeln, analysieren und dadurch die Customer Experience weiter verbessern und personalisieren. Voraussetzung ist, dass sie die Kundeninteraktion automatisieren und die Touchpoints erfolgreich verwalten. Bernhard Egger vom Softwarehersteller BSI fasst wichtige Merkmale zusammen, mit denen der Trend zum automatisierten Kundendialog unter dem Begriff „Conversational Automation“ beschrieben wird.
Der CEX Trendradar 2022, definiert Conversational Automation als „die digitalen und teilweise automatisierten Dialogmöglichkeiten eines Unternehmens, die mithilfe menschlicher und nichtmenschlicher Unterstützung […] stattfinden.“ Der Austausch zwischen Unternehmen und Kundschaft kann dabei text-, sprach- oder videobasiert sein und über Instant-Messenger, Live-Chat, Chatbots, Voicebots, Voice Assistants, Smart Speaker sowie Video erfolgen. Messenger-Dienste nutzen viele bereits privat, so dass sie mit ihnen vertraut sind. Der Vorteil von Bots ist, dass sie Kunden 24 Stunden täglich, also auch außerhalb der regulären Geschäftszeiten, zur Verfügung stehen.
Bernhard Egger: „Conversational Automation eignet sich auch, um proaktiv auf (potenzielle) Kunden zuzugehen.“
Die verschiedenen digitalen Assistenten übernehmen dabei heute auch komplexere Anfragen. Sie entwickeln sich kontinuierlich weiter und verbessern ihre Fähigkeiten mithilfe Künstlicher Intelligenz (KI), Sprache zu erkennen und sogar Absichten zu entschlüsseln. Damit die Bots personalisierte Anliegen bearbeiten können, benötigen sie Zugriff auf unternehmensinterne Informationsquellen – genauso wie ihre menschlichen Kollegen. Im Optimalfall liegen die benötigten Daten nicht verteilt über mehrere Datensilos ab, sondern in einem zentralen Customer-Relationship-Management (CRM)-System. Dann können die Bots Liefertermine mitteilen und Adressänderungen vornehmen, ohne dass menschliche Kolleginnen in den Vorgang eingreifen müssen. Hier gilt allerdings, je unklarer das Anliegen und je stärker dabei kritische Emotionen involviert sind, desto wichtiger ist es, dass ein Mitarbeiter den Prozess kontrolliert. Auf keinen Fall sollte eine Kundin in einem Prozess eine Frage mehrfach stellen oder sogar einem Mitarbeiter erklären müssen, was der vorige Ansprechpartner – Mensch oder Maschine – geäußert hat.
Menschen und Maschinen vernetzen
Der Austausch zwischen Bot und Informationsquelle ist deshalb auch in die andere Richtung unerlässlich, damit die Interaktion zwischen Kunde und Bot dort erfasst wird. Geht es um eine Adressänderung, kann ein Chatbot diese beispielsweise an das CRM-System des Unternehmens weiterleiten. Meldet sich derselbe Kunde nach dem Chat mit dem digitalen Assistenten telefonisch bei einer Mitarbeiterin, kann diese im Gespräch an den vorangegangenen Austausch anknüpfen, indem sie die Informationen aus dem CRM-System zu Rate zieht. Neben Kommunikation mit Bots oder Beschäftigten, gehören auch Webseitenbesuche und Social-Media-Interaktionen weiterhin zu den Touchpoints, die es zu tracken gilt, um ein möglichst umfassendes Bild des Kunden zu haben. Hier setzen Unternehmen häufig auf sogenannte Customer-Data-Plattformen (CDP) als End-to-End-Systeme, die eine dauerhafte, einheitliche Kundendatenbank in Echtzeit erstellen.
Das Beispiel zeigt auch, dass es nicht reicht, nur die Daten aus den digitalen Touchpoints in die Datenbasis eines Unternehmens einzuspeisen. Auch Telefonate und persönliche Gespräche mit Beschäftigten sind zu erfassen, damit alle Informationen zum Kunden an einem Punkt zusammenlaufen und allen Ansprechpartnern – Menschen und Maschinen – zur Verfügung stehen.
Bei den oben genannten Dialogen handelt es sich um Beispiele aus dem Kundenservice, aber Conversational Automation eignet sich auch, um proaktiv auf (potenzielle) Kunden zuzugehen. So interessieren sich laut CEX Trendradar 2022 auch Marketing und Vertrieb mehr und mehr dafür. Die Autoren schreiben dem Trend Potenzial für die Such-, Kauf- und Bestellphase der Customer Journey zu.
Mit Conversational Automation die Customer Experience verbessern
Die gesammelten Informationen aus den Interaktionen einer Kundin mit dem Unternehmen können Marketing und Vertrieb nutzen, um die Customer Journey besser auf sie zuzuschneiden. Kommuniziert sie per Video, chattet sie über die Website oder meldet sie sich im Instant Messenger? Und zu welcher Tageszeit beschäftigt sie sich mit dem Angebot eines Unternehmens? Welche Informationen hat sie auf der Website gesucht und zu welchem Thema persönlich mit ihrem Kundenberater gesprochen?
Laufen die Informationen aller Touchpoints – nicht nur die der Conversational-Automation-Tools – in einer Lösung zusammen, lassen sie sich analysieren, um diese Fragen zu beantworten. Kundenberater, Marketing oder Vertrieb können anschließend mit relevanten Inhalten zum passenden Zeitpunkt über den bevorzugten Kommunikationskanal der Kundin an sie herantreten. Verfügt das Unternehmen über eine Marketing-Automation-Lösung, lässt sich auch dieser Schritt automatisieren. Das verbessert mit wenig Personaleinsatz die Kundenerfahrung und erhöht die Erfolgschancen, die Customer Journey voranzutreiben.
Conversational Automation in der Praxis bei Versicherern
In der „IFZ Conversational Insurance Studie 2022“ geht es um Kommunikationskanäle von Versicherungen. Sie nennt auch Beispiele für den Einsatz von Chatbots selbst in dieser eher konservativen Branche. HDI-Kunden können in Deutschland bereits seit 2019 mit dem Chatbot Lizzy kommunizieren. Lizzy sollte es Kundinnen anfangs hauptsächlich ermöglichen, rund um die Uhr zusätzliche Mitfahrer zu versichern. Mittlerweile hat sich ihr Portfolio stark erweitert und sie führt nach Angaben der Versicherung täglich rund 500 automatisierte Unterhaltungen im Kundenportal.
Das erfolgreiche Beispiel zeig: Ein Chatbot kann Beschäftigten Arbeit abnehmen, ein großer Vorteil in Zeiten mit Fachkräftemangel. Außerdem können Unternehmen Bots zunächst für eine konkrete Aufgabe einsetzen und seine Fähigkeiten nach und nach ausbauen.
Auch der BSI-Kunde Arvato Supply Chain Solutions, ein Anbieter von Order-to-Cash-Lösungen für endkundenorientierte Industrien, setzt für E-Commerce-Kunden aus der Mode-, Beauty- und Lifestyle-Branche einen Chatbot ein. Er ist komplett in das BSI CRM eingebunden, das sorgt für einen nahtlosen Informationstransfer zwischen dem virtuellen Agenten und den Mitarbeiter im Customer Service über alle Kontaktkanäle hinweg. Durch Künstliche Intelligenz kann der Chatbot teil- und vollautomatisierte Prozesse in BSI starten, entsprechende Fragen an den Kunden richten und passende Antworten zur Verfügung stellen. Dabei kann der digitale Assistent den Chat mit dem Kunden jederzeit nahtlos an einen Agenten im Customer Service übergeben.
Conversational Automation – vom Trend zum Alltag
Conversational Automation als Überbegriff für dialogbasierte Kommunikation zwischen Unternehmen und Kunden umfasst ein breites Feld. Verantwortliche, die diesen Trend umsetzen möchten, können mit einer Komponente beginnen und Kunden per Instant Messaging oder Bot zunächst auch nur einzelne Funktionen anbieten. Darauf können sie anschließend aufbauen, um die Customer Experience Schritt für Schritt zu verbessern. Dabei dürfen sie klassische Kommunikationskanäle jedoch nicht aus den Augen verlieren. Menschen kommunizieren gerne mit Menschen. Diese Option sollte deshalb weiterhin an zentralen Stellen der Customer Journey verfügbar sein, auch wenn automatisierte Dialoge weiterentwickelt werden, Bots mehr und mehr Aufgaben übernehmen können und vom Zukunftstrend zum alltäglichen Kommunikationspartner werden.
Über den Autor:
Bernhard Egger ist Retail Community Manager beim Softwarehersteller BSI. Sein Herz schlägt für intelligenten und gleichzeitig menschlichen Kundenservice. www.bsi-software.com
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Ryan Mullins und Sasha Wallinger warteten die 6. Themenwoche der Web3 Learning Journey mit einigen Tipps auf, wie Brands die Beziehung zu ihren Kund:innen pflegen und fördern können – natürlich mithilfe von Web3-Technologien.
In den zwei Wochen der Web3 Learning Journey, in denen wir uns gemeinsam mit Mark Rolston und Journee auf das Metaverse konzentriert haben, lernten wir vor allem Folgendes:
Durch das Metaverse schaffen wir neue Wege, um miteinander zu interagieren
Wir werden neue Verhaltensweisen entwickeln – sowohl virtuell als auch analog
Da stellt sich automatisch die Frage: Wie können Brands die Welt des Web3 nutzen, um in Sachen Kundenbeziehungen und -interaktionen neue Maßstäbe zu setzen? Dafür haben wir Ryan Mullins, Gründer von Aglet, und Sasha Wallinger, Head of Web3 and Metaverse Strategy bei Journey, eingeladen. Sie haben uns genau erklärt, wo die Potenziale liegen und wie Brands diese ausschöpfen können und sollten.
Die Brücke zwischen Brand und Verbraucher
Ryan und Sasha betrachten sich selbst als Brückenbauer, die die Verbindung zwischen modernen und neuartigen Brand Experiences und Verbraucher:innen herstellen. Ryan dazu: „Im Web2 liefern Brands den Verbraucher:innen lediglich statische Informationen. Im Web3 entfernen wir uns davon und bewegen uns mehr in Richtung direkte und interaktive Brand-Kommunikation.“
Sasha vergleicht die Beziehung zwischen Brands und Verbraucher:innen mit einer Art Tanz: „Es entstehen so viele Bereiche, in denen man mit Zielgruppen kommunizieren und sich mit ihnen vernetzen kann. Das Ziel einer Brand sollte es sein, bedeutungsvolle und intime Interaktionen mit und individuelle Erfahrungen für Verbraucher:innen zu schaffen.“
Gamification im Web3
Wo User heute lediglich durch den Instagram Feed einer Brand scrollen, sehen viele in Zukunft stärkere Interaktionen zwischen User und Brand durch Bewegung, virtuelle Präsenz und Gamification. Genau diese Vision verfolgt Aglet: Die App nutzt sowohl Web2- als auch Web3-Features, um eine Community aufzubauen. Diese soll die Brand erleben und „spielen“. Das ergibt Sinn, denn mittlerweile sind viele Digital Natives mit dem Begriff „Gamification“ vertraut.
Sasha ist überzeugt davon, man müsse tief in das Mindset von Verbraucher:innen eintauchen und die neue Generation verstehen: „Warum bedeutet ihnen das Konzept der Gegenkultur so viel? Und wie übersetzen wir diesen Insight für die jeweilige Brand?“ Er sieht ein enormes Potenzial in Gamification. Es platziert Spielszenarien in ein Unternehmensumfeld – inmitten von Menschen, die über ausreichende Mittel verfügen, um Systeme zu verändern und einen Wandel voranzutreiben.
Web 2.5: Ein bisschen liegt noch vor uns
Sasha glaubt, dass wir uns derzeit in einer Zwischen- oder vielmehr einer Brückenbauphase befinden, und bezeichnet den aktuellen Status quo des Internets als „Web 2.5“. Den größten Einfluss, den Verbraucher:innen (und Brands) in diesem Zustand haben: Sie können spannende virtuelle Realitäten schaffen, die interaktiv und für viele User interessant sind.
„Es handelt sich dabei um eine Welt voller Baumeister und Ideenschöpfer“, sagt sie. „Das Web3 soll auch Spaß machen. Es schafft verschiedene Ebenen und Räume für Spielereien und Intimität.“
„Beim Wandel von Web2 und Web3 geht es weniger darum, das Web2 vollkommen hinter sich zu lassen.“ Für Ryan entsteht in Zukunft ein hybrider Raum mit Eigenschaften aus beiden Welten. Brands müssen Kund:innen hier die Wahl lassen, welche Tools sie nutzen wollen – so, wie es Aglet auch macht. In der App können User entweder NFTs sammeln oder aber auch die Sneakerverse-Erfahrung aus der Ferne genießen. „Vielleicht haben dich die NFTs zu uns gelockt, doch die Community und das Spiel sind es, die dich zum Bleiben bewegen.“
In die Keynotes reinhören:
Sasha Wallinger, Head of Web3 & Metaverse Strategy at Journey
Das Metaverse ist in aller Munde und verspricht eine grundlegende Transformation der Internetnutzung, wie wir sie heute kennen. Doch was steckt eigentlich dahinter? Die Veranstaltungsreihe „Beautiful Business in Web3“ befasst sich mit den als Metaverse etablierten Web3-Technologien.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2022/09/peri-stojnic-r3rbIwZ9DJc-unsplash.jpg24001920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-09-25 08:00:002022-09-21 11:35:52Hypebeasts, Pop Culture, and the Sneakerverse: Know Your Audience
Karsten Schulze und Dr. Henning Syllwasschy, Vorstand und Partner bei FTI Andersch, haben für uns Faktoren zusammengetragen, mit denen Unternehmen die kommenden Monate wirtschaftlich vernünftig überstehen können.
Kakteen wachsen in unwirtlichen Umgebungen. Eventuell werden die kommenden Monate für Unternehmen auch eher „unwirtlich“. Dazu müssen sie sich jetzt vorbereiten. Unsere Autoren erklären wie.
Zinserhöhungen, restriktivere Kreditvergaben, auslaufenden Staatshilfen und die konjunkturelle Eintrübung haben das Potenzial, selbst robuste Unternehmen zu überfordern. Darüber hinaus stellen weiterhin stark angespannte Lieferketten, eine drohende Gasnotlage und die damit verbundenen inflationären Auswirkungen Unternehmen vor gravierende Herausforderungen. In einer aktuellen Umfrage durch FTI, dem FTI Resilience Barometer, gehen 74% der deutschen Befragten davon aus, dass ihre Lieferketten dauerhaft gestört sind. Nach einem vergleichsweise geringen Niveau der Insolvenzen im ersten Halbjahr 2022 könnte sich dieses Bild kurzfristig ändern.
Das Gros der Unternehmen versucht nach Einschätzung von FTI-Andersch nach wie vor aktiv einen neuen Modus Vivendi nach der Pandemie zu finden – allerdings nun in einer noch viel komplexeren Weltlage. Noch nicht vollumfänglich eingepreist sind hierbei häufig die Auswirkungen von Ukraine-Krieg und Inflation auf das Konsumklima.
Aktuelle Herausforderungen
Die Probleme in den Lieferketten führen bei vielen Unternehmen zu einer deutlich höheren Kapitalbindung – sowohl durch höhere Bevorratung als auch durch Verzögerungen bei der Auslieferung. Laut Statistischem Bundesamt hat in Folge der Lieferkettenthematik der Auftragsbestand des Verarbeitenden Gewerbes per Juni 2022 einen Höchststand seit Beginn der Erfassung im Jahr 2015 erreicht. Höhere Einkaufspreise und nur sehr restriktive Erhöhungen der Limite durch die Warenkreditversicherer tragen zusätzlich zum Liquiditätsbedarf bei.
74 Prozent der befragten Unternehmen sagen, dass ihre Lieferketten auf Dauer gestört sind. Quelle: Disruption der Lieferketten: FTI Resilience Barometer 2022
Verlässliche Prognosen, bis wann sich bestimmte Tendenzen wieder normalisiert haben sollten, sind derzeit oft nicht möglich. Vor diesem Hintergrund sind klassische Planungsansätze wie z.B. historische Working Capital Laufzeiten (DSO, DIO, etc.) nur sehr eingeschränkt zur Vorschau und Ableitung von Liquiditätsbedarfen geeignet.
Maßnahmen für ein aktives Liquiditätsmanagement
Aufgrund der beschriebenen Unsicherheitsfaktoren sollten Unternehmen sicherstellen, dass Sie selbst bei ungünstigen Entwicklungen über ausreichende Liquiditätsreserven verfügen. Neben engmaschigem Liquiditätsmonitoring ist es wichtig, Szenarioanalysen in der Liquiditätsvorschau zu inkludieren. Auf dieser Basis können dann potenzielle Finanzierungsbedarfe abgleitet und möglichst frühzeitig bei den Finanzierungspartnern adressiert werden.
Karsten SchulzeDr. Henning SyllwasschyDie digitalen Technologien sehen die Autoren als unabdingbar für wirtschaftliche Resilienz.
Darüber hinaus kann ein aktives Cash-Management bisher ungenutzte Liquiditätspotenziale heben. Ungeeignete Tools in uneinheitlichen IT-Landschaften und geringe Erfahrung mit der Implementierung geeigneter Prozesse bremsen die Bemühungen häufig ein. Eine zeitgemäße Working-Capital-Optimierung lässt sich unabhängig von der Unternehmensgröße nur mit digitalen Technologien realisieren. Diese ermöglichen es, Bewegungs- und Bewertungsdaten auf Einzelbelegebene zu erfassen, auszuwerten und zu interpretieren. So kann beispielsweise Process Mining Ablaufprozesse in einem Unternehmen hochgradig automatisiert analysieren und in Echtzeit überwachen. Auf dieser Grundlage lassen sich anschließend Stellschrauben und Maßnahmen zur Optimierung zuverlässig identifizieren und „Jo-Jo-Effekte“ nachhaltig vermeiden.
Einbruch der Verbraucherstimmung: das HDE Konsumbarometer und der GfK Konsumklimaindex sind eindeutig. Quelle: HDE und GfK
Bei der Umsetzung optimaler Cash-Management-Prozesse ist es entscheidend, die wesentlichen Steuerungselemente nicht isoliert umzusetzen, sondern individuell auf die Unternehmenssituation zuzuschneiden und eng miteinander zu verzahnen. Nur dann bedeutet Cash-Management auch nachhaltig mehr Liquidität, mehr Handlungsspielraum und mehr Rechtssicherheit für die handelnden Organe.
Über die Autoren:
Karsten Schulze verantwortet bei FTI-Andersch insbesondere Transformationsprozesse und umsetzungsorientierte Projekte. In ausgewählten Projekten hat er interimistisch Führungspositionen besetzt. Seine Branchenschwerpunkte liegen im Maschinen- und Anlagenbau sowie im Bereich der Erneuerbaren Energien.
Henning Syllwasschy verantwortet bei FTI-Andersch den Bereich Cash-Management/kurzfristige Liquiditätsplanungen. Seine Branchenschwerpunkte sind der Maschinen- und Anlagenbau, Logistik und Handel.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
300 Millionen Menschen auf der Welt besitzen und handeln mit Kryptowährung. Dennoch erfährt der Markt – und folglich auch die Besitzer von Krypto-Geld – zurzeit schwere Verluste. Es stellt sich also unweigerlich die Frage: Braucht es sowohl auf regionaler als auch globaler Ebene strengere gesetzliche Vorgaben, um den Kryptomarkt zu regulieren? Wie steht es aktuell überhaupt um die Regulierung? Und was bedeutet der aktuelle Werteverlust von Kryptowährung?
Über diese Fragen und mehr hat Monika Jiang auf der Web3 Learning Journey mit Luiza Castro gesprochen. Luiza ist Anwältin mit ihrer eigenen Kanzlei in Portugal. Kryptowährungen und Web3-Themen gehören zu ihren Schwerpunkten. Zudem ist sie in den Bereichen Immobilien-, Einwanderungs-, Arbeits-, Steuer- und Unternehmensrecht tätig.
Quo vadis Kryptomarkt: Interview mit der Kryptoexpertin Luiza Castro
Monika Jiang: Luiza, wo stehen wir derzeit in Sachen Crypto-Regulierungen?
Luiza Castro: Der Markt macht eine turbulente Phase durch, doch das Thema Regulierung rückt zunehmend in den Fokus. Zwar versuchen Regierungen weltweit mit dem Tempo mitzuhalten, das das Web3 vorlegt – aber wir wissen ja aus Erfahrung, dass gesetzliche Institutionen ihre Zeit brauchen.
In der Regel erregt ein Hot Topic ihre Aufmerksamkeit, was sie dazu veranlasst, sich einzig und allein auf dieses zu konzentrieren und eine gesetzliche Lösung zu finden. Anstatt sich einzelnen Fällen zu widmen, sollte die Politik abwarten, bis sich vollständige Konzepte etablieren und diese „durchregulieren“. Ansonsten läuft sie Gefahr, dass ihre Entwürfe anfangs zwar Sinn ergeben, nach wenigen Monaten aber nicht mehr, weil sich der Markt viel zu schnell verändert.
Monika Jiang: Was hältst du von MiCA (Market in Crypto Asset) – dem EU-Vorschlag zur Regulierung von Märkten mit Kryptowerten? Kannst du Licht für uns ins Dunkel bringen?
Luiza Castro: Der erste wichtige Punkt: MiCA soll einen Standard setzen für die Anforderung sämtlicher Dokumente, sobald ein Projekt auf den Markt gebracht wird – ein erster Filter also.
Tokens, die als Zahlungs- und Finanzmittel verwendet werden, berücksichtigt MiCA nicht – dies übernimmt die MiFID (Markets in Financial Instruments Directive). Stattdessen schlüsselt MiCA Tokens in verschiedene Kategorien auf und versucht sie dadurch mit den jeweiligen rechtlichen Folgen abzugleichen.
Ein kleines Beispiel zur Erklärung: Im Krypto-Gaming – oder auch Play-to-Earn – gibt es die sogenannten Utility Tokens. Man spielt das Spiel und erhält auf Basis seiner Skills diese Tokens. Bei Utility Tokens handelt es sich um eine Währung, die dann nur innerhalb dieses Settings – also des Spiels – eingesetzt werden kann, zum Beispiel um In-Game bestimmte Gegenstände zu kaufen. Kann der Spieler mit diesen Tokens jedoch „echte“ Kryptowährung erwerben, wird das ganz schnell zu einem Finanzinstrument, was einer Regulierung bedarf. Gleiches gilt, wenn mit diesen Tokens an der Krypto-Börse gehandelt werden darf.
Monika Jiang: Die ursprüngliche Idee war schon immer, dass der Kryptomarkt ein autonomer, sich selbst regulierender, dezentraler Markt ist – anders als der traditionelle Finanzsektor. Jedoch gibt es bereits einige große Player in diesem Bereich, die sich zu Krypto-Monopolen mit sehr hohem Einfluss entwickeln könnten. Wie unterscheidet sich also der Kryptomarkt vom bisherigen Finanzsystem? Und wie stark sollte die Politik wirklich involviert sein?
Monika Jiang
Luiza Castro: Wir haben sowohl die Big Player als auch verschiedene, verstreute Communities, die gerne weltweit geltende, homogene Standards sehen würden. Natürlich wirft das Fragen auf: Sollte der Markt überhaupt reguliert werden? Wie viele Gesetze braucht der Markt wirklich? Für viele spricht eine Regulierung ganz klar gegen die Idee des Web3, nämlich einer dezentralen Struktur, die jenseits von Banken und Regierungen funktioniert. Gleichzeitig wollen sie sich und ihre Unternehmen im Web3 vor steuerlichen Maßnahmen und Regierungseingriffen schützen.
Ich glaube, dass die Regulierungen für das Web3 anders aussehen werden als jene für traditionelle Märkte, denn derzeit besteht keine Möglichkeit für Regierungen, den Kryptomarkt wirklich umfänglich zu regulieren. Denn sie können weder wirklich einsehen, wer wieviel in seinen Wallets sammelt, wie viele Wallets eine Person überhaupt besitzt und wo sie sich befinden. Trotzdem wird die Politik es weiterhin versuchen – schließlich ist Geld im Spiel, und es handelt sich um einen wachsenden, vielversprechenden Markt.
Der Markt wird sich weiterentwickeln und vielleicht sind sich die Experten in ein paar Jahren einig darüber, wie wir vorgehen müssen oder wie es weitergehen soll. Und wenn wir das erreicht haben, dann können wir vielleicht mit der Politik darüber diskutieren, wie wir den Markt besser regulieren können, oder ob er sogar besser gar nicht reguliert werden sollten.
Das Interview wurde für ein besseres Verständnis editiert.
Das Metaverse ist in aller Munde und verspricht eine grundlegende Transformation der Internetnutzung, wie wir sie heute kennen. Doch was steckt eigentlich dahinter? Die Veranstaltungsreihe „Beautiful Business in Web3“ befasst sich mit den als Metaverse etablierten Web3-Technologien.
https://trendreport.de/wp-content/uploads/2022/08/lucas-kapla-wQLAGv4_OYs-unsplash.jpg12801920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-08-26 09:00:002022-08-26 15:17:43Make Web3 more beautiful
Creative Commons LizenzCC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2017/11/bitcoin-2007769_1920.jpg13471920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-09-21 11:02:092022-09-21 11:44:28Crypto, Crypto, Who Will Regulate You After All?
Wir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Webseite besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Webseite anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Webseite und auf die Dienste haben kann, die wir anbieten können.
Wichtige Webseiten-Cookies
Diese Cookies sind unbedingt erforderlich, um Ihnen über unsere Webseite verfügbare Dienste bereitzustellen und einige ihrer Funktionen zu nutzen.
Da diese Cookies für die Bereitstellung der Website unbedingt erforderlich sind, wirkt sich die Ablehnung auf die Funktionsweise unserer Webseite aus. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Dies wird Sie jedoch immer dazu auffordern, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Webseite erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten, aber um zu vermeiden, Sie immer wieder zu fragen, erlauben Sie uns bitte, ein Cookie dafür zu speichern. Sie können sich jederzeit abmelden oder sich für andere Cookies anmelden, um eine bessere Erfahrung zu erzielen. Wenn Sie Cookies ablehnen, entfernen wir alle gesetzten Cookies in unserer Domain.
Wir stellen Ihnen eine Liste der auf Ihrem Computer in unserer Domain gespeicherten Cookies zur Verfügung, damit Sie überprüfen können, was wir gespeichert haben. Aus Sicherheitsgründen können wir keine Cookies von anderen Domains anzeigen oder ändern. Sie können diese in den Sicherheitseinstellungen Ihres Browsers überprüfen.
Google Analytics Cookies
Diese Cookies sammeln Informationen, die entweder in aggregierter Form verwendet werden, um zu verstehen, wie unsere Webseite verwendet wird oder wie effektiv unsere Marketingkampagnen sind, oder um unsere Webseite und Anwendung für Sie anzupassen, um Ihre Erfahrung zu verbessern.
Wenn Sie nicht möchten, dass wir Ihren Besuch auf unserer Website erfassen, können Sie das tracking in Ihrem Browser hier deaktivieren:
Andere externe Dienste
Wir verwenden auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten wie Ihre IP-Adresse erfassen, können Sie diese hier sperren. Bitte beachten Sie, dass dies die Funktionalität und das Erscheinungsbild unserer Website erheblich beeinträchtigen kann. Änderungen werden wirksam, sobald Sie die Seite neu laden.
Google Webfont-Einstellungen:
Google Map-Einstellungen:
Google reCaptcha-Einstellungen:
Einbettung von Vimeo- und Youtube-Videos:
Andere Cookies
Die folgenden Cookies werden ebenfalls benötigt - Sie können auswählen, ob Sie sie zulassen möchten:
Datenschutz-Bestimmungen
Sie können unsere Cookies und Datenschutzeinstellungen im Detail auf unserer Datenschutzrichtlinie nachlesen.