Durch Krisen navigieren und Chancen nutzen: Warum Open-Source-Technologie mehr denn je Sinn macht

Von Hans Roth*

Hans Roth: „Wenn man nicht sieht, was auf einen zukommt, wie kann man dann die Folgen abmildern? Geschwindigkeit ist oft die Antwort. Und mit Wahlfreiheit ist diese Geschwindigkeit realisierbar.“

Die letzten 15 Jahre haben gezeigt, dass jederzeit etwas Unvorhersehbares eintreten kann. Kaum jemand sah die Finanzkrise 2009 kommen, ganz zu schweigen von Covid. Solche Ereignisse haben weitreichende Folgen – für das Leben des Einzelnen, für die Gesellschaft und für die Wirtschaft. Wie können sich Unternehmen nun vor dem Auftreten solcher Krisenszenarien schützen oder – genauer gesagt – wie können sie mit Technologie ihre Resilienz erhöhen?

Krisen kommen unerwartet. Wenn man nicht sieht, was auf einen zukommt, wie kann man dann die Folgen abmildern? Geschwindigkeit ist oft die Antwort. Und mit Wahlfreiheit ist diese Geschwindigkeit realisierbar. Jedes gut geführte Unternehmen wird diesen Ansatz bereits im Finanzwesen verfolgen. Reserven werden oft in einer Mischung aus Vermögenswerten und Währungen gehalten, um die Auswirkungen eines Wechselkursverlustes zu verringern.

An diesem Punkt kann man den Vergleich zur Technologie ziehen. Wenn sich ein Unternehmen auf einen einzigen Anbieter verlässt, ist es abhängig. Sollte etwas mit dem Anbieter schiefgehen, kann das Unternehmen nicht einfach irgendwo anders hingehen, zumindest nicht sofort. Und die Geschichte lehrt uns, dass so etwas passieren kann: 2e2, Nirvanix und Fusion waren einst angesehene Cloud-Computing- und Storage-Firmen, die leider gescheitert sind. Eine drastische Preiserhöhung, ein Sicherheitsvorfall oder ein neuer innovativer Anbieter auf dem Markt machen einen Wechsel dringend erforderlich. Doch je mehr man an den bisherigen Anbieter gebunden ist, desto schwieriger wird dies.

Wenn Anwendungen und Workloads frei zwischen unterschiedlichen Umgebungen migrierbar sind, kann eine Nutzung je nach Bedarf erhöht oder verringert werden. Aus diesem Grund hat sich ein hybrider Ansatz für die Infrastruktur – die Kombination von On-Premises und Cloud, von Private und Public Cloud sowie von verschiedenen Public Clouds – als sinnvolle Strategie durchgesetzt, und zwar in Verbindung mit Open Source Software. Schließlich geht es nicht nur darum, Anwendungen auf eine andere Infrastruktur zu verlagern oder Daten in eine neue Applikation zu übertragen. Open Source ermöglicht auch Agilität, weil eine Community-Unterstützung vorhanden ist. Die Vielzahl der Beteiligten ermöglicht eine schnellere Reaktion auf Krisen als es etwa großen Unternehmen mit strengen Hierarchien und komplexen Entscheidungsstrukturen möglich ist.

Innovationen vorantreiben

Glücklicherweise sind Krisen relativ selten. Unternehmen verbringen also mehr Zeit damit, Innovationen voranzutreiben. Und auch hier ist die Kombination aus Open Source Software und hybrider Infrastruktur der perfekte Ansatz. Es ist dabei die Open Source Community, die den Mehrwert schafft. Die Logik ist einfach: Würde man in einem Raum mit 100 Leuten darauf setzen, dass eine einzelne Person immer die beste Idee hat, oder auf die kollektive Kraft der anderen 99? Innovation findet nie nur an einem Ort statt. Open Source bietet Zugang zu allen und jedem – mehr Kreative, die etwas erschaffen, mehr Augen, die prüfen und mehr Menschen, die Unterstützung bieten.

Bei der Innovation geht es nicht darum, immer die neuesten Lösungen zu kaufen. Wie unser CEO Paul Cormier kürzlich erklärte, ist das weder praktisch noch nachhaltig. Bei der Innovation steht die Modernisierung im Vordergrund; man nimmt das, was man hat, und verbessert es. Wenn ein Unternehmen von der Innovationsfreudigkeit und -fähigkeit eines Anbieters abhängig ist, kann es leicht ins Hintertreffen geraten. Open Source hingegen bietet die Interoperabilität, die eine kontinuierliche Verbesserung ermöglicht – und damit auch einen proaktiveren Ansatz für das Ergreifen neuer Geschäftschancen.

Die Tech-Branche weiß das: Google hat Kubernetes und Flutter, Microsoft hat Azure Docs und VS Code, AWS und Apple verwenden beide Linux. Es gibt kein besseres Beispiel für die Innovationskraft von Open Source als die Kryptowährung Bitcoin, die dank des Einfallsreichtums und des Engagements der Community bereits einmal eine Marktkapitalisierung von über 1,2 Billionen US-Dollar erreicht hat.

Komplexität orchestrieren

Je mehr Lösungen ein Unternehmen nutzt, desto größer kann die Komplexität werden. Eine On-Premises-Umgebung, in der nur eine Handvoll Softwareprogramme läuft, ist übersichtlich und leicht zu verwalten. Eine hybride Infrastruktur mit der Einführung von Open Source Software ist dagegen sehr komplex.

Ohne die richtige Orchestrierung können die Dinge verwirrend und kostspielig werden. So ist es überall: Bibliotheken orchestrieren Informationen, Autos orchestrieren mechanische Komponenten, Navigations- und Entertainment-Systeme oder Smartphones orchestrieren das Leben. Analog verhält es sich bei der Enterprise-Technologie. Eine Orchestrierungsplattform wie Red Hat OpenShift verringert die Komplexität, indem sie sicherstellt, dass Software und einzelne Softwarekomponenten unabhängig von der Betriebsumgebung interagieren können. Dies ist entscheidend für eine effiziente Anwendungsmodernisierung, die es einem Unternehmen ermöglicht, Software mit Containern und Microservices zu verbessern oder komplett neu zu erstellen. Ein darüberliegender Automatisierungs-Layer sorgt dafür, dass alles reibungslos funktioniert.

Kultur – das letzte Puzzleteil

Bei der Orchestrierung geht es nicht nur um die Organisation und Automatisierung von Produkten und Richtlinien. Technologie ist letztlich wertlos ohne die Unterstützung der Menschen. Wie kann man aber nun Menschen „orchestrieren“? Die Antwort lautet: mit Kultur oder – genauer gesagt – mit einer offenen Kultur.

In einer offenen Kultur ist das Vertrauen in die Kolleginnen und Kollegen der Standard und werden Ideen nach ihren Vorteilen beurteilt und nicht nach dem Dienstalter des Vorschlagenden. Eine offene Kultur fördert auch stille Talente und ihre Ideen. Das logische Ergebnis ist eine Vielfalt von Wissen und Erfahrung.

Wenn ein Unternehmen nun die Agilität von hybriden Infrastrukturen und Open Source Software nutzen möchte, muss es auch eine solch offene Kultur etablieren. Und die Mehrheit der Unternehmen verfolgt auch eine Open-Source-Strategie. Eine neue weltweite Untersuchung von Red Hat unter Beteiligung von rund 1.300 IT-Führungskräften hat ergeben, dass für 95 % der Befragten Open Source für die Gesamtinfrastruktur ihres Unternehmens sehr wichtig ist. Als Gründe werden genannt: die größere Flexibilität (79 %), der Zugang zu Innovationen (77 %) und die Unterstützung einer Hybrid-Cloud-Strategie (77 %).

Die Ergebnisse sind ein starkes Argument für Open Source. Ein Unternehmen, das gut gerüstet ist, um Krisen zu überstehen und Chancen zu ergreifen, wird erfolgreicher sein als ein Unternehmen, das starre Strukturen besitzt. Open Source und hybride Infrastrukturen nicht einzuführen, bedeutet zu glauben, dass wir am Ende der Geschichte angelangt sind und die Welt und die Märkte keine unerwarteten Wendungen bringen werden. Schaut man sich um, erkennt man, dass die Realität eine ganz andere Geschichte schreibt.

* Hans Roth ist SVP und General Manager EMEA bei Red Hat

Culture eats strategy for breakfast – und digitales Mindset?

Julian Knorr beschreibt, wie Unternehmen ein digitales Mindset erlangen können.

“Culture eats strategy for breaktfast” – ein häufig zitierter Satz von Peter Drucker, der sehr schön zeigt, dass nachhaltiger Unternehmenserfolg auf den Menschen in der Organisation basiert. Der Fokus dieses Satzes liegt auf der Unternehmenskultur als Basis für eine erfolgreiche Strategie(umsetzung). Doch wie sieht das in der digitalen Transformation aus? Welche Rolle spielt digitales Mindset hierbei und wie hängt die Unternehmenskultur und Mindset zusammen?

Die digitale und technologische Entwicklung beschleunigt sich in allen Branchen immer weiter und beeinflusst die Geschäftsmodelle von Unternehmen. Diese Entwicklung setzt digitale Transformation bei vielen Unternehmen ganz oben auf die Agenda. Jedoch wird hierbei der Fokus häufig nur auf die Nutzung von Technologien und die Veränderungen in der Prozesslandschaft gelegt. Doch digitale Transformation ist viel mehr und beeinflusst die gesamte Wertschöpfung in Unternehmen und betrifft damit jede*n Mitarbeiter*in. Die Mitarbeiter*innen sind hierbei keine passiven Zuschauer*innen, sondern aktive Gestalter*innen. Wenn über Mitarbeiter*innen in Transformationsprozessen gesprochen wird, fallen häufig direkt die Begriffe Kultur und digitales Mindset. Diese beiden Themen können nicht getrennt voneinander betrachtet werden, sondern hängen zusammen und bedingen sich gegenseitig. Kultur wird sichtbar und erlebbar auf Organisationsebene und entsteht erst durch die Zusammenarbeit und das Zusammenleben von mehreren Mitarbeiter*innen innerhalb einer Organisation. Somit bezieht sich Kultur immer auf eine Gruppe. Der US-amerikanische Sozialwissenschaftler und Pionier der Organisationspsychologie Edgar Schein definiert Unternehmenskultur als “ein Muster gemeinsamer Grundprämissen, das die Gruppe bei der Bewältigung ihrer Probleme, externer Anpassung und interner Integration erlernt hat, das sich bewährt hat, und das somit als bindend gilt; und das daher an neue Mitglieder als rational und emotional korrekter Ansatz für den Umgang mit Problemen weitergegeben wird.” Somit prägt die Kultur das Handeln von Mitarbeiter*innen in Unternehmen. Digitales Mindset hingegen bezieht sich auf die Individualebene und somit auf jede*n einzelne*n Mitarbeiter*in. Es handelt sich hierbei um Persönlichkeitsmerkmale, die erfolgskritisch für den Umgang mit digitaler Transformation sind (>> ausführliche Definition). Die folgenden Dimensionen sind Bestandteile des digitalen Mindsets:

  • Offenheit und Agilität vs. Beharrlichkeit
  • Kundenzentriertheit vs. Aufgaben- und Organisationszentriertheit
  • Kritikfähigkeit vs. Harmonieorientierung
  • Proaktivität und unternehmerische Handlungsorientierung vs. Reaktivität und Lageorientierung
  • Kreativität und Gestaltungsmotivation vs. Prozesstreue
  • Offener Umgang mit Scheitern vs. Vermeidung von Misserfolg

Somit existieren ganz viele verschiedene Mindset Ausprägungen der Mitarbeiter*innen in einer Organisation. Das Verhalten der Mitarbeiter*innen ist dann jedoch die Kombination aus Mindset (Persönlichkeitseigenschaften) und Umweltbedingungen (geprägt durch die Unternehmenskultur). Dies zeigt, wie sehr sich diese beiden Themen beeinflussen und auch bedingen.

Lernkultur als Rahmenbedingung für Mindset Entwicklung

Mit Blick auf die Entwicklung von digitalem Mindset spielt die Unternehmenskultur und hier im Besonderen die Lernkultur des Unternehmens einen sehr wichtigen Faktor. Denn Mindset Entwicklung ist ein langfristiger Prozess und bedarf deshalb eines kontinuierlichen Lernens (>> Artikel “Lebenslanges Lernen ist ein Marathon”). Dieses langfristige Lernen kann nur schwierig aufrechterhalten werden, wenn die Lernkultur im Unternehmen das nicht aktiv unterstützt. Im Vergleich zur Entwicklung von Hard Skills (z.B. Programmiersprachen oder Software-Kenntnissen), die durch kurzfristige entstehende Lernmotivation geschafft werden kann, ist die Lernkultur ein kritischer Erfolgsfaktor für eine erfolgreiche Mindset Entwicklung. Eine für Mindset Entwicklung zuträgliche Lernkultur kann ganz unterschiedlich ausgeprägt sein und verschiedene Facetten beinhalten. Jedoch werden alle Facetten vereint durch eine lernfördernde Wirkung. Lernen darf hierbei nicht als Schwäche oder notwendiges Übel dargestellt werden, sondern als ein bereicherndes und wertvolles Element des Alltags.

Wenn digitale Transformation als Eisberg betrachtet wird, besteht der sichtbare Teil oberhalb des Wasserfläche aus Technologie, Prozessen und Geschäftsmodellen. Das Fundament unterhalb der Wasseroberfläche (und damit unsichtbar) ist der Mensch und somit die Mitarbeiter*innen und ihr digitales Mindset. Das Verhalten der Mitarbeiter*innen und damit die Entfaltung und auch Entwicklung des digitalen Mindsets wird durch die Unternehmenskultur beeinflusst. Das Eine geht also ohne das Andere nicht.

Über den Autor:

Julian Knorr ist Gründer und Vorstand der ONESTOPTRANSFORMATION AG. Gemeinsam mit seinem Team unterstützt er Unternehmen bei der Analyse und Entwicklung von digitalem Mindset. Hierfür hat ONESTOPTRANSFORMATION zwei Tech Produkte entwickelt:

Der Digital Competence Indicator (DCI) analysiert digitales Mindset wissenschaftlich valide. Hierauf baut die Lernplattform MIA auf, die individualisierte Lernpfade zur Mindset Entwicklung bereitstellt. Zu den Kunden gehören KMUs (z.B. Sparkasse) bis hin zu Großkonzernen, wie z.B. Lufthansa.


Bildquelle / Lizenz Aufmacher:

Photo by National Cancer Institute on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Unicorn Choco

Bestell-App Choco investiert 80 Millionen Euro in neue Digitalangebote

Die Bestellplattform Choco zieht nach Abschluss der Internorga eine durchweg positive Bilanz des Messeauftritts. Dabei traf die Digital-App, die aktuell das Verfahren der Warenbestellung zwischen Gastronomie und Lieferant:innen weltweit revolutioniert, offensichtlich exakt den Nerv des Messepublikums. Neben weit über 1.000 Neukund:innen, die sich direkt auf dem Messestand für die Choco-App registriert haben, erhielt das Team des Berliner Unternehmens auch direktes Nutzerfeedback und damit wichtige Impulse für neue Produktfeatures.

„…Warenbestellung so einfach, wie eine Chatnachricht zu schreiben.“

Daniel Khachab, Mitbegründer und CEO von Choco
Daniel Khachab

Nach sechs inspirierenden Messetagen steht für Daniel Khachab, Mitbegründer und CEO von Choco, fest: „Mit unserer Idee der Digitalisierung der Bestellprozesse laufen wir aktuell offene Türen ein. Das hat die Internorga ganz deutlich gemacht. Es freut mich sehr, dass unsere Kund:innen – auf der einen Seite die Gastronomie, auf der anderen Seite die Lieferant:innen – unsere Mehrwerte sofort und ohne lange Erklärungen verstehen. Das war uns bei der Entwicklung besonders wichtig, und das positive Feedback zeigt mir, dass wir vieles richtig gemacht haben. Mit Choco wird Warenbestellung so einfach, wie eine Chatnachricht zu schreiben. Das spart Zeit und Geld. Die Transparenz in allen Prozessen hilft zudem dabei, dass deutlich weniger Lebensmittel in der Tonne landen. Das ist nicht nur ökologisch sinnvoll, sondern macht sich auch im Portemonnaie der Gastronom:innen bemerkbar.“

In den Gesprächen mit bestehenden und potenziellen Kund:innen wurde ebenfalls deutlich, dass die Digital-App weiterhin viel Ausbaupotenzial besitzt. So gab es auf der Internorga auch wichtige Impulse für eine Weiter- und Neuentwicklung von Funktionen, etwa rund um Payment oder wiederkehrende Bestellungen.

Ausbau um Payment- und weitere Servicefeatures geplant

„Wir werden in den nächsten zwölf Monaten rund 80 Millionen Euro in den Ausbau unserer Software investieren. So sollen Lieferanten künftig nicht nur die Rechnungstellung komplett über die Plattform abwickeln, sondern Choco auch als Zwischenfinanzierer nutzen können. Das erhöht die Liquidität für die Lieferant:innen und reduziert den finanziellen Druck auf die Gastronom:innen. Außerdem haben wir viele praktische Features geplant, wie etwa Erinnerungsfunktionen, damit in der Hektik des Alltags nichts vergessen wird: Auf KI-Basis werden regelmäßige Bestellungen getrackt und dann Gastronom:innen und Lieferant:innen daran erinnert. Das Ziel auch hier: Prozesse einfacher und transparenter gestalten und mögliche Bestellfehler verhindern“, so Khachab weiter.

„Lebensmittelverschwendung ist eins der größten Probleme unserer Zeit.
Wir sind uns sicher, dass die Digitalisierung der Bestellprozesse hier erheblich zur Reduzierung beitragen wird.“

Wie groß das Risiko von Fehlbestellungen tatsächlich ist, offenbart eine Umfrage des Choco-Teams in Frankreich. Dort ist jede vierte Bestellung der Gastronomie bei den jeweiligen Lieferanten bislang fehlerhaft und führt zur Verschwendung von Lebensmitteln. Weltweit soll gar ein Drittel aller Lebensmittel in der Tonne landen. Eine Katastrophe für Khachab: „Lebensmittelverschwendung ist eins der größten Probleme unserer Zeit. Wir sind uns sicher, dass die Digitalisierung der Bestellprozesse hier erheblich zur Reduzierung beitragen wird.“

Über Choco

Choco ist ein Unternehmen, das Gastronom:innen und deren Lieferant:innen auf einer gemeinsamen digitalen Plattform miteinander verbindet. Waren zu bestellen wird dadurch so einfach, wie eine Chatnachricht zu schreiben. Durch die Optimierung der Einkaufsprozesse können Kund:innen Zeit, Geld und Lebensmittel sparen. Gegründet wurde Choco von den Serial-Entrepreneuren Daniel Khachab und Julian Hammer sowie Grégoire Ambroselli. Seit der Gründung 2018 ist das Unternehmen schnell gewachsen und heute aktiv in Märkten wie den USA, Deutschland, Frankreich, Spanien, Österreich, Großbritannien und Belgien. Im Februar 2022 betrug der Gesamtwert der über Choco gehandelten Waren mehr als 1,17 Milliarden Euro. Im April 2022 stieg Choco mit einer Bewertung von über einer Milliarde US-$ in die Riege der Einhörner auf.

https://choco.com/de/

Quelle / Lizenz Personenfoto: Saskia Uppenkamp; Fotograf; Berlin; Portrait; Photographer; PR; Presse; PR-Foto

Ende der Homeoffice-Pflicht

Das Ende der Homeoffice-Pflicht – Fachanwalt zeigt, wie sich Unternehmen nun am besten positionieren

Mit der Modifizierung des Infektionsschutzgesetzes fällt für die Unternehmen die Pflicht weg, ihre Mitarbeiter aus dem Homeoffice agieren zu lassen. Doch welche Voraussetzungen sind für deren Rückkehr eigentlich zu schaffen und welche Risiken können dabei auftreten?

Fragen, die RA Domenic C. Böhm in diesem Beitrag gerne beantwortet. Der Rechtsanwalt für das Arbeitsrecht erläutert dabei unter anderem, warum die Unternehmen ihre Angestellten unverzüglich ins Büro beordern sollten, um der Gefahr des Gewohnheitsrechts entgegenzuwirken.

RA Domenic C. Böhm

Klare Regelungen werden benötigt

Wer die sich aus der neuen Situation ergebenden Fragen beantworten möchte, kommt an rechtlichen Grundlagen nicht vorbei. Diese können in einer Betriebsvereinbarung festgelegt werden, die zwischen dem Arbeitgeber und der Arbeitnehmervertretung für alle Kollegen geschlossen wird. Ebenso ist an eine individuelle Lösung zu denken: Die Frage, ob und wie oft aus dem Homeoffice gearbeitet werden darf, wird mit jedem Angestellten persönlich besprochen und anschließend in dessen Arbeitsvertrag eingefügt.

Das Recht auf Homeoffice

Leider wurde in vielen Unternehmen bislang die Chance verpasst, die Arbeitsverträge entsprechend anzupassen oder eine Betriebsvereinbarung zu treffen. Ob die Angestellten von zu Hause aus arbeiten dürfen, bleibt folglich unbeantwortet. Mittlerweile wurde das Infektionsschutzgesetz jedoch verändert. Nunmehr haben die Arbeitnehmer zwar noch immer ein Recht, ins Homeoffice zu wechseln, für die Unternehmen ergibt sich daraus aber keine Verpflichtung, diesen Anspruch auch tatsächlich anzuerkennen.

Besteht eine Pflicht für das Homeoffice?

Existieren tatsächlich keine angepassten Verträge und keine Vereinbarungen mit der Arbeitnehmervertretung, so ist auf jene Rechtsgrundlage zurückzugreifen, die schon vor der Pandemie einschlägig war: Aus den Arbeitsverträgen ergibt sich konkret, von wo aus jeder Angestellte seinen Dienst zu verrichten hat. Ist dabei das Büro im Unternehmen genannt, so besteht für den Arbeitgeber folglich keine Verpflichtung, seinem Arbeitnehmer den Wechsel ins Homeoffice zu gestatten.

„Vorsicht: Wer es jetzt verpasst, die Belegschaft wieder ins Büro zu beordern, der löst damit eventuell das Gewohnheitsrecht aus.“

Es droht der Eintritt des Gewohnheitsrechts

Für die Unternehmen mag die Pflicht weggefallen sein, ihren Angestellten die Arbeit aus dem Homeoffice zu ermöglichen. Aber Vorsicht: Wer es jetzt verpasst, die Belegschaft wieder ins Büro zu beordern, der löst damit eventuell das Gewohnheitsrecht aus. Denn je länger die Kollegen von zu Hause aus arbeiten dürfen, obwohl sie darauf keinen Anspruch mehr besitzen, desto stärker können sie auch künftig auf dieses Privileg pochen – und es sogar juristisch durchsetzen.

Es werden klare Regelungen benötigt

Umso wichtiger ist es jetzt, für eindeutige Rahmenbedingungen zu sorgen. Diese sollten idealerweise nicht nur in der Gegenwart gelten. Vielmehr müssen sie auch bei einer Verschlimmerung der Pandemie in den kommenden Monaten ein hohes Maß an Rechtssicherheit bieten. Es stellt sich dabei die Frage, von wo aus und wie die Angestellten ihrer Arbeit am besten nachkommen können, um für das Unternehmen einen besonders großen Nutzen zu entfalten.

Über den Gastautor

RA Domenic C. Böhm:

RA Domenic C. Böhm ist Partnervon SYLVENSTEIN Rechtsanwälte, einer der am schnellsten wachsenden Wirtschaftskanzleien im digitalen Bereich. Sie betreuen ausschließlich Unternehmer und sind spezialisiert auf alle Aspekte rund um das Führen eines Unternehmens: vom Vertragsrecht über das Arbeitsrecht bis hin zum Medienrecht. Weitere Informationen unter: https://sylvenstein-law.de/.

Volkswagen Financial Services baut digitale Finanzdienstleistungen aus

Die Automobilindustrie befindet sich im tiefgreifenden Wandel, der von der Elektrifizierung über autonome Fahrzeuge bis hin zum pandemiebedingten veränderten Verbraucherverhalten reicht. Die Verbraucher verlangen – vom Kauf, über Leasing bis hin zu Carsharing-Vereinbarungen – zunehmend nach flexiblen Zahlungsoptionen, was die Anforderungen an die Finanzinstitute in der Automobilindustrie erhöht.

Um in diesem Markt eine führende Position einzunehmen, setzen die Volkswagen Financial Services einen starken Fokus auf die Digitalisierung. Um hier Fortschritte zu erzielen, musste das Unternehmen neue Wege gehen. Denn die Bestandsapplikationen waren nicht mehr in der Lage, die rasch wachsenden Anforderungen in den Bereichen „Perfomance“ und „Time to Market“ abzudecken.

„Unsere Vertragsmanagement-Software ist eine absolut kritische Anwendung“, sagt Marc Miether, Head of Middleware and Container Services bei Volkswagen Financial Services. „Sie ist die Anwendung für das Leasinggeschäft für unsere Länderorganisationen. Ohne sie kann für keine der Marken des Volkswagen Konzerns auch nur ein einziger neuer Vertrag abgeschlossen werden.“

„Unsere Vertragsmanagement-Software ist eine absolut kritische Anwendung“, sagt Marc Miether, Head of Middleware and Container Services bei Volkswagen Financial Services.

Um diese umfangreichen Anforderungen an die Anwendung zu erfüllen, benötigte das Unternehmen eine Plattform, die gleichermaßen flexibel, hochverfügbar und sicher ist. Denn sie muss die zahlreichen unterschiedlichen Anwendungsfälle im Unternehmen – einschließlich solche auf Basis von Containertechnologie – unterstützen können. Diese neue IT-Plattform des Finanzinstituts muss die strengen Auflagen der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) erfüllen und entsprechend auf dem neusten sicherheitstechnologischen Stand sein.

VMware-Lösung automatisiert Management der digitalen Anwendungen

Um Standard-Anwendungen wie zum Beispiel eine Vertragsmanagement-Software schnell und skalierbar bereitstellen zu können, implementierte Volkswagen Financial Services eine moderne digitale Plattform auf Basis von VMware Tanzu Kubernetes Grid Integrated Edition (TKGI) zusammen mit der Netzwerk- und Security-Lösung VMware NSX-T. Die Implementierung versetzt Volkswagen Financial Services in die Lage, ein zentrales Anwendungsportfolio für die schnelle wachsenden Märkte zur Verfügung zu stellen, neue Geschäftsfelder zu erschließen und die eigene Position im hart umkämpften Mobilitätssektor zu sichern.

„Wir haben uns für die TKGi Lösung entschieden, da wir im Haus bereits eine sehr stabile und effizient gemanagte vSphere-Lösung haben, auf deren Basis nun die Containerumgebung aufgebaut wurde. Nach einem Jahr in Produktion hat sich gezeigt, dass dies eine gute Entscheidung war: Bisher haben wir noch keinen plattformbedingten Ausfall zu verzeichnen. Neben Stabilität ermöglicht uns die hohe Integration in unsere Bestandsumgebung es auch, Themen aus der IT Security und Governance schnell und einfach über die vorhandenen Mechanismen zu bespielen“, erklärt Marc Miether.

Landesgesellschaften erhalten schneller Zugriff auf gesamtes Anwendungsportfolio

Durch die Einführung der neuen Plattform auf Basis von VMware TKGI und VMware NSX-T profitiert die Volkswagen Financial Services AG von gesteigerter Netzwerkautomatisierung, die durch Containertechnologie die Bereitstellung der Anwendungen deutlich erleichtert und damit beschleunigt. „Mit TKGI können viele Anwendungen gleichzeitig auf einer standardisierten Plattform betrieben werden; und das mit einem kleinen, schlagkräftigen Team ”, erklärt Marc Miether. „Da jetzt Marktstandards wie Container zum Einsatz kommen, vereinfacht sich die Zusammenarbeit mit den Anbietern von Softwareanwendungen.” Dazu ist die IT-Sicherheit für VW Financial Services von größter Bedeutung. Das System schützt vollumfänglich sämtliche Anwendungen und sorgt für die vollständige Einhaltung von regulatorischen Vorschriften und Governance-Anforderungen.

Durch die neue Plattform hat Volkswagen Financial Services bereits Wachstumsregionen wie den Niederlanden und Mexiko schnell und unkompliziert eine Anwendung zur Abwicklung von Leasinggeschäft bereitgestellt. So können die Länderorganisationen ihr Leasinggeschäft auf- und ausbauen und die Position des Unternehmens im hart umkämpften und turbulenten Marktumfeld stärken und stabilisieren.

Über die Volkswagen Finanzdienstleistungen

Die Volkswagen Finanzdienstleistungen sind ein Geschäftsbereich der Volkswagen AG, einem der größten Automobilhersteller der Welt. Die Volkswagen Financial Services AG mit ihren Beteiligungsgesellschaften ist Teil der Volkswagen Finanzdienstleitungen – zusammen mit der Volkswagen Bank GmbH, der Porsche Financial Services sowie den direkt oder indirekt der Volkswagen AG gehörenden Finanzdienstleistungsgesellschaften in den USA und Kanada – mit Ausnahme der Marke Scania sowie der Porsche Holding Salzburg. Zu deren wesentlichen Geschäftsfeldern zählen Händler- und Kundenfinanzierung, das Leasing, das Bank- und Versicherungsgeschäft, Flottenmanagementgeschäft sowie Mobilitätsangebote. Präsent in 48 Märkten weltweit und mit mehr als 16.558 Mitarbeitern ist Volkswagen Financial Services einer der größten Anbieter in der Mobilitätsbranche.


Bildquelle / Lizenz Aufmacher:

Photo by Ammar Devedžić on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Slalom: Neuer Standort in Deutschland

Das Beratungsunternehmen, das von seinen Kunden und Partnern für sein Fachwissen in den Bereichen Strategie, Technologie und Geschäftstransformation geschätzt wird, genießt auch den Ruf als bester Arbeitsplatz

Slalom, ein globales Beratungsunternehmen mit Fokus auf Strategie, Technologie und Geschäftstransformation, hat die Eröffnung eines Standorts in Deutschland angekündigt.

Slalom verfügt über umfangreiche Erfahrungen in der Beratung und Betreuung von Unternehmen u. a. in den Bereichen Gesundheitswesen und Biowissenschaften, Medien und Kommunikation, Technologie, Fertigung und Finanzdienstleistungen und ist damit ein hervorragender Partner für deutsche Unternehmen, die ihre Visionen verwirklichen wollen.

„Wir gehen unser Wachstum auf eine für Slalom typische Art und Weise an, geleitet von unseren Werten und einer konsequenten Kundenorientierung“, so John Tobin, Slalom-Mitbegründer und Executive Vice President, EMEA & APAC. „Unsere Partner und Kunden haben uns gebeten, sie auf den Märkten in aller Welt zu begleiten. Wir freuen uns darauf, unsere globale Präsenz zu erweitern, weil wir Menschen und Unternehmen helfen möchten, größer zu träumen, schneller voranzukommen und eine bessere Zukunft für alle zu schaffen.”

Slalom genießt auch in Deutschland den Ruf eines „besten Arbeitsplatzes“; für die Unternehmenskultur wurden zahlreiche Auszeichnungen vergeben, die auf dem Feedback derjenigen beruhen, die das Unternehmen am besten kennen – seine Mitarbeiter. „Wir streben danach, dass jedes Teammitglied seine Arbeit und sein Leben liebt – und ermutigt wird, sein authentisches Selbst in unser integratives, flexibles Umfeld einzubringen“, fügt Heather Sneddon, Interimschefin für Deutschland, hinzu.

Slalom arbeitet bereits mit namhaften Unternehmen in Deutschland zusammen und rechnet damit, bis zum Ende des Jahres bis zu 75 Mitarbeiter einzustellen, um die Transformationsinitiativen der Kunden zu unterstützen, einschließlich der Entwicklung neuer digitaler Produkte, die moderne und agile Arbeitsmethoden nutzen. Slalom Deutschland wird Kunden im ganzen Land betreuen, wobei das Büro heute in München eröffnet wurde und schnell auf andere Standorte wie Frankfurt, Köln, Düsseldorf und Berlin ausgeweitet wird.

Slalom pflegt starke Partnerschaften mit über 400 führenden Technologieanbietern, darunter Amazon Web Services, Google Cloud, Microsoft, Salesforce und Tableau, sowie mit regionalen Innovationszentren. Slalom wurde vom Fortune Magazine, Glassdoor, Forbes Magazine, Human Rights Campaign und vielen anderen als eines der besten Unternehmen ausgezeichnet.

Mit der Expansion nach Deutschland hat Slalom nun Niederlassungen in sechs Ländern, darunter Australien, Kanada, Japan, das Vereinigte Königreich und die Vereinigten Staaten.

Dies ist eine Pressemitteilung des Unternehmens Slalom Germany.

Bildquelle / Lizenz Aufmacher:

Photo by Possessed Photography on Unsplash

Information Security World 2022

Smarte Sicherheit für eine vernetzte Gesellschaft​! Die Information Security World ist zurück.

Nach dreijähriger Corona-Abstinenz veranstalten NTT DATA, ein globaler Marktführer für digitale Geschäfts-, IT- und Telekommunikations-Dienstleistungen, und NTT Ltd., ein weltweit führender Technologie-Dienstleister, die erfolgreiche Cybersecurity-Konferenz und -Messe wieder als Präsenzevent. Am 31. Mai und 1. Juni treffen sich Expertinnen und Experten der NTT Gruppe und führende Anbieter aus der Cybersecurity mit voraussichtlich 300 Gästen wie CIOs, CISOs, IT-Security-Verantwortlichen und IT-Managern. Im Kempinski Hotel Gravenbruch in Neu-Isenburg diskutieren sie an den zwei Tagen über Strategien und konkrete Lösungen für alle Herausforderungen in der Cybersicherheit. ​

Die neue Arbeitswelt nach der Pandemie hat neue Bedrohungslagen geschaffen, die sich durch den Konflikt in der Ukraine noch einmal verschärft haben. Weil sich gleichzeitig die Digitalisierung und Vernetzung in der Gesellschaft und Wirtschaft rasant beschleunigen, stoßen etablierte Sicherheitskonzepte an ihre Grenzen – es braucht neue Strategien zum Schutz vor Angriffen.

Unter dem Motto „Smart Security for a connected Society“ wirft die ISW 2022 einen Blick in die Zukunft: Mit welchen Bedrohungen müssen wir in den kommenden Jahren rechnen, welche neuen Regularien sind zu erwarten und wie sieht ein ganzheitlicher Schutzschirm gegen immer individuellere und komplexere Angriffe aus?

„Wer jetzt nicht endgültig in ausreichende Schutzmaßnahmen zur Abwehr investiert, ist gegen die Flut an Cyberattacken nicht gewappnet“

Kai Grunwitz
Kai Grunwitz,
Geschäftsführer der NTT Ltd. in Deutschland

Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland, erklärt: „Während der Corona-Pandemie und jetzt durch den Krieg in der Ukraine hat sich die Bedrohungslage durch Cyberangriffe massiv verschärft. Cyberkriminelle nutzen die Situation aus und nehmen Unternehmen, Betreiber kritischer Infrastrukturen sowie Einrichtungen der öffentlichen Hand mit Angriffen vermehrt ins Visier. Wer jetzt nicht endgültig in ausreichende Schutzmaßnahmen zur Abwehr investiert, ist gegen die Flut an Cyberattacken nicht gewappnet“, erklärt Grunwitz.

„Zusammen mit den wichtigsten Anbietern aus dem IT-Security-Bereich zeigen wir auf der diesjährigen ISW, welche Lösungen Unternehmen helfen, um sich vor den aktuellen Bedrohungen schützen zu können. Die aktuelle Lage hat uns wieder einmal verdeutlicht, wie bedeutend eine umfassende, durchgängige Cybersecurity-Strategie ist.“


Stefan Hansen,
CEO und Vorsitzender der Geschäftsführung NTT DATA DACH

„Gemeinsam mit unseren Partnern und Kunden bündeln wir unsere Kräfte und entwickeln neue Strategien und Lösungen für eine sichere Gesellschaft der Zukunft“

„Cybersecurity ist eine der größten weltweiten Herausforderungen und gewinnt immer mehr an Bedeutung. Gemeinsam mit unseren Partnern und Kunden bündeln wir unsere Kräfte und entwickeln neue Strategien und Lösungen für eine sichere Gesellschaft der Zukunft“, sagt Stefan Hansen, CEO und Vorsitzender der Geschäftsführung NTT DATA DACH.

„Dabei profitieren wir von unserer globalen Stärke und der Vielfalt unserer Kompetenzen.“

ISW 2022 – Fakten

Auf der ISW 2022 zeigen die wichtigsten Anbieter, NTT-Experten und Referenzkunden aus der IT-Security an zwei geballten Tagen einen informativen und spannenden Mix aus 50 Fachvorträgen in jeweils fünf parallelen Thementracks:

Themen-Tracks

31. Mai:

Cyber Defense Solutions
Hybrid Infrastructure
Application Security
Identity & Key Management
Data Security & Protection

1. Juni:

NTT Services
Hybrid Infrastructure
OT & IT
Governance Risk & Compliance
Digital Workplace

Highlights

Die Keynote am ersten Tag hält der österreichische Jurist, Autor und Datenschutzaktivist Max Schrems zum Thema „Von Safe Harbor zum globalen Grundrechtsschutz“. Im Demo Theatre zeigen NTT-Experten Sicherheitsprodukte und Serviceangebote in einer simulierten Unternehmensumgebung. Am Ende des ersten Tages bleibt Zeit für Networking, eine Security Night mit Dinner und ein Live Hacking wird für reichlich Diskussionsstoff sorgen.

Den zweiten Tag eröffnet Tony Richards, Senior Security & Compliance Specialist, Office of the CISO, Google Cloud, und spricht in seiner Keynote über „Cloud Security Megatrends“. Das Interview mit Journalist und Schriftsteller Wolf Harlander, der in seinem Thriller „Systemfehler“ das Szenario eines totalen Internetausfalls entwirft, der unsere Zivilisation in die Knie zwingen würde, bildet den Abschluss der diesjährigen ISW.

ISW-Presse-Roundtable: Ransomware wird überbewertet​

Für Journalisten findet am 31. Mai 2022 von 14 bis 16 Uhr der ISW-Presse-Roundtable statt. Patrick Schraut, Senior Vice President Cybersecurity NTT DATA DACH, und Bernhard Kretschmer, Vice President Service and Cybersecurity NTT Ltd. in Deutschland, stellen sich den Fragen der Medienvertreter. Zudem erhalten Medienvertreter einen exklusiven Live-Einblick in ein Security Operations Center (SOC) der NTT Gruppe und können direkt Fragen an das Team stellen.

Date and Time

Dienstag, 31.Mai 2022
Mittwoch, 01. Juni 2022

Veranstaltungsort

Kempinski Hotel Frankfurt Gravenbruch

Graf zu Ysenburg und Buedingen Platz 1
63263 NEU ISENBURG
Deutschland

Weitere Informationen zur Veranstaltung, zur kostenlosen Anmeldung sowie die vollständige Agenda finden sich unter: https://ntt-isw.com/#section-1-17

Aufmacherbild / Personenfotos
Quelle Lizenz NTT Ltd. und NTT DATA


Lizenz Pressemitteilung

Hostile Tech

Wie Unternehmen Technologien verantwortungsvoll und im Sinne ihrer Stakeholder nutzen können, erläutert Erik Dörnenburg, Developer und Head of Technology bei Thoughtworks.

Technologien nehmen eine immer wichtigere Rolle in unserem Leben ein. Zum Teil ohne dass wir es bemerken. Aber werden vermehrt Entscheidungen und Aufgaben an besagte neue Technologien übertragen, dann wollen wir, dass diese unseren ethischen Erwartungen und Werten entsprechend getroffen bzw. umgesetzt werden. Dies führt unweigerlich dazu, dass sich auch Unternehmen Gedanken darüber machen, wie neue Technologien, wie Quantencomputer, das Internet der Dinge (IoT), künstliche Intelligenz (KI), Robotik oder Blockchain, richtig gehandhabt und gesteuert werden können. Viele Unternehmen sind sich heute sehr wohl der Tatsache bewusst, dass die von ihnen geschaffenen Technologien nicht im luftleeren Raum genutzt werden, sondern (gesellschaftspolitischen) Machtdynamiken unterliegen und damit weitreichende ethische Auswirkungen haben können.

Doch welche Technologien werden uns noch weiter im Alltag begleiten und Einfluss auf Unternehmen und Gesellschaft haben? Der aktuelle Looking Glass Report von Thoughtworks beleuchtet 100 Technologietrends. Hostile Tech ist eines von sechs Schwerpunktthemen, deren Chancen und Risiken der Report bewertet.

Alles eine Frage der Perspektive

Ob Technologien als „feindselig“ angesehen werden, ist oftmals eine Frage der Perspektive. In der Regel wird der Begriff „Hostile Tech“ vor allem mit kriminellen Handlungen, wie Ransomware oder Datenklau assoziiert. Aber auch legale und oft allgemein anerkannte Aktivitäten, wie Werbung und gezielte Kundenansprache, können von Nutzer:innen als Bedrohung angesehen werden. Während einige Menschen personalisierte Werbung als angenehm empfinden, weil sie so auf sie zugeschnittene Angebote erhalten, nehmen andere Menschen die dahinterstehende Sammlung ihrer personenbezogenen Daten als unangebracht oder gar bedrohlich wahr. 

Die zunehmende Besorgnis über die Nutzung und den Einfluss sozialer Medien in politischen Kampagnen, sowie die Art und Weise, wie politische und gesellschaftliche Debatten über soziale Medien geführt werden, rückt Hostile Tech immer weiter in den Fokus. Die zunehmende Regulierung rund um Datenerfassung, -nutzung und -speicherung, wie zum Beispiel in der europäischen Datenschutzgrundverordnung (DSGVO), spiegelt die kritische Haltung der Verbraucher:innen wider. 

Wenn der Algorithmus diskriminiert

Auch die unbeabsichtigten Verzerrungen in Algorithmen oder maschinellen Lernsystemen können bedrohlich sein. Besitzt die Technologie einen hohen Automatisierungsgrad, steigt die Wahrscheinlichkeit für ungewollte Verzerrungen rapide an. So stufte die Google-Bilderkennung im Jahr 2015 Menschen mit dunkler Hautfarbe als Gorillas ein. Ein weiteres Beispiel zeigt, dass alle Menschen von Verzerrungen betroffen sein können. Viele Einstellungsprogramme großer Unternehmen nutzen etwa Künstliche Intelligenz für die Prüfung von Bewerbungen und die Auswahl der besten Talente. Amazon hatte solche KI-Systeme eingesetzt, die sich später als frauenfeindlich herausstellten. 

Diese Verzerrung liegen darin begründet, dass ein Algorithmus immer nur so gut ist, wie die Daten auf deren Grundlage er arbeitet. Die zugrundeliegenden Daten sind das Blut in den Adern der Algorithmen. Sie bilden die Basis für selbstlernende Systeme, sowie ultimative Vorlagen für alle späteren Kalkulationen und Empfehlungen. Denn moderne Lernalgorithmen nutzen vorgegebene Datensammlungen, um darin Muster oder Verbindungen zu erkennen und Gesetzmäßigkeiten offenzulegen, auf die sich spätere Entscheidungen stützen können. Da diese Daten durch Menschen generiert und verarbeitet werden, sind sie nie neutral. Sie spiegeln beispielsweise weit verbreitete Vorurteile wider oder erfassen nur bestimmte Personengruppen. Arbeitet ein “intelligentes” System auf der Grundlage eines solchen Datensatzes, ist das Ergebnis oft Diskriminierung. Dieser Umstand wird mit der voranschreitenden Verbreitung des maschinellen Lernens zur großen Herausforderung.

Negative Auswirkungen und Interessenskonflikte

Das Grundproblem bei der Entwicklung neuer Technologien: In der Regel haben die Verantwortlichen bestimmte Stakeholder im Sinn, deren Bedürfnisse erfüllt werden sollen. Doch oftmals hat das Produkt Auswirkungen auf andere Interessengruppen, die entweder nicht bedacht oder billigend in Kauf genommen werden. So könnte ein Produkt etwa negative Auswirkungen auf die Umwelt haben. Das Training eines einzigen Modells zur Verarbeitung natürlicher Sprache kann beispielsweise einen CO2-Ausstoß von 500t verursachen, was 125 Hin- und Rückflügen zwischen Tokio und Toronto entspricht  – eine Auswirkung, die nur wenige berücksichtigen.

Meta (früher: Facebook) nimmt nachweislich billigend in Kauf, dass 32 Prozent der Teenager-Mädchen sich durch Instagram noch schlechter fühlten, wenn sie sich in der Vergangenheit bereits wegen ihres Körpers schlecht gefühlt haben. Das zeigen interne Forschungsergebnisse, die das Unternehmen zwei Jahre lang geheim gehalten hat. In einem internen Bericht hieß es sogar, dass der Druck, nur die besten Momente zu teilen und perfekt auszusehen, Teenager in Depressionen, geringes Selbstwertgefühl und Essstörungen stürzen kann. Obwohl Meta die negativen Auswirkungen seiner geschäftlichen Aktivitäten bewusst war, änderte das Unternehmen nichts daran – es versuchte das Ganze sogar geheim zu halten. 

Die digitalen Ungleichheiten, die durch die Pandemie und die anhaltende Klimakrise noch deutlicher zu Tage befördert werden zeigen eindrücklich, warum es für Unternehmen an der Zeit ist, die feindseligen Auswirkungen ihrer technologischen Entscheidungen zu analysieren und zu berücksichtigen. Zudem verlangen Mitarbeiter:innen, Kund:innen, Investor:innen und andere Stakeholder, dass Unternehmen verantwortungsvoll und fair mit Daten, Technologien und digitalen Anwendungen umgehen. Ihnen ist es wichtig zu wissen, ob ein Unternehmen die rechtlichen Anforderungen erfüllt und ethische Konflikte adressiert. Für viele Firmen ist es deshalb längst überlebenswichtig, diese Anforderungen zu erfüllen. 

Doch wie können Technologien verantwortungsvoll und im Sinne der Gesellschaft genutzt werden?

Verantwortungsvolle Technologie – Der Schlüssel zum Erfolg?

Der Begriff der verantwortungsvollen Technologie („Responsible Tech“) ist die Oberkategorie für unterschiedliche Konzepte, die sich mit dem bewussten Umgang mit Technologie beschäftigen. Dabei soll das Verhalten von Technologie und Unternehmen mit den Interessen der Einzelnen und der Gesellschaft in Einklang gebracht werden. Er berücksichtigt gesellschaftliche Werte, unbeabsichtigte Umstände sowie den negativen Einfluss der Technologie und reduziert damit die Risiken, die durch die Technologie entstehen können. Verantwortungsvolle Technologie bezieht sich dabei nicht nur auf die Produkte, die Unternehmen entwickeln, sondern erstreckt sich über die gesamte Wertschöpfungskette. 

Die Zero-Trust-Architektur kann eine gute Möglichkeit sein, um verantwortungsvoll mit Technologien umzugehen und Datenlecks zu verhindern. Der strategische Ansatz basiert auf dem Grundsatz „Never trust, always verify“.  Galt lange Zeit die Grenze des Netzwerks als wesentliche Schwelle für den Schutz von IT-Systemen, müssen nun alle Zugriffe auf Ressourcen, sowohl intern als auch extern, laufend überprüft und verifiziert werden. Alles, was sich außerhalb der lokalen Domain abspielte, wurde als potenziell bedrohlich eingestuft und durch Sicherheitsmaßnahmen wie Malware-Scans und Firewalls kontrolliert. Geräte im eigenen Netzwerk galten hingegen als grundsätzlich vertrauenswürdig, da sie sich innerhalb dieser geschützten Umgebung befinden. Mit der Weiterentwicklung von Technologien hat sich die Lage allerdings wesentlich verändert. Durch Cloud-Services, Remote Work und die Verwendung von eigenen Geräten verschwimmt die Grenze zwischen dem eigenen Netzwerk und der äußeren Bedrohung zunehmend. Gleichzeitig stellt der rasante Anstieg von Cyberangriffen neue Anforderungen an die Sicherheitsstrategie von Unternehmen.

Auch dieIntegration diverser Teams – unabhängig von Faktoren wie der Herkunft, dem Geschlecht oder der sexuellen Orientierung– ermöglicht es Unternehmen, unterschiedliche Perspektiven einzubringen und kritisch über die wirtschaftlichen und sozialen Auswirkungen, die ihre bewussten oder unbewussten Handlungen nach sich ziehen können, zu reflektieren. Diese Meinungsvielfalt bildet eine Grundvoraussetzung für die Entwicklung von Technologien und Innovationen, die einen positiven gesellschaftlichen Wandel unterstützen, anstatt ihn zu untergraben. 

Mehr Sicherheit in der Software-Lieferkette

Hacker machen sich außerdem zunehmend die asymmetrische Natur von Angriff und Verteidigung zunutze – sie müssen nur eine Schwachstelle finden, während Unternehmen die gesamte Angriffsfläche absichern müssen – und setzen dabei immer ausgefeiltere Hacking-Techniken ein. Beim Angriff auf die Software-Lieferkette schalten sich die Angreifenden in der Regel im Vorfeld oder in der Mitte der Lieferkette ein, um mit ihren feindseligen Aktivitäten und deren Folgen bei möglichst viele Nutzer:innen Schaden zu hinterlassen. Im Vergleich zu isolierten Sicherheitsverletzungen weisen erfolgreiche Supply-Chain-Angriffe im Regelfall ein wesentlich größeres Ausmaß sowie weitreichendere Auswirkungen auf. 

Daher ist es besonders wichtig, Unternehmen für den verantwortungsvollen Umgang mit Technologien zu sensibilisieren. So können diese ihre IT gegen Datenschutz- und Sicherheitsverletzungen stärken sowie besser gegen neuere Bedrohungen und negative Auswirkungen, resultierend aus der zunehmenden Verbreitung feindseliger Technologien, schützen. Die Verbesserung der Sicherheit der Software-Lieferketteist dabei ein entscheidender Bestandteil, wenn Unternehmen an einer Strategie arbeiten, um ihre Systeme sicher zu halten. 

Ziel ist es, Sicherheit und Ethik zu einer Disziplin zu machen, die in allen Bereichen des Unternehmens zum Tragen kommt.

Wie viel Verantwortung können Unternehmen tragen?

Klar ist: (Globale) Unternehmen tragen eine immense Verantwortung – gegenüber ihren Mitarbeitenden, ihren Shareholdern, aber auch gegenüber der Gesellschaft. Dennoch stellt sich die Frage, wie viel Verantwortung Unternehmen tatsächlich tragen können. Müssen gesamtgesellschaftliche Fragen diesen Ausmaßes nicht von und mit politischen Entscheidungsträger:innen getroffen werden?

Der Dialog mit politischen Entscheider:innen ist unerlässlich, um auf Verbesserungen der gesetzlichen Vorschriften zum Schutz der Privatsphäre und des Datenschutzes zu drängen und um auf mögliche Rückschritte hinzuweisen. Unternehmen sollten ihr Bestes tun, um die negativen Auswirkungen ihrer Technologien sichtbar zu machen und zu bekämpfen. Aber vor allem die Politik ist in der Pflicht. Zwar gibt es auch in Deutschland und der Europäischen Union positive Entwicklungen, wie den Schutz der personenbezogenen Daten durch die DSGVO oder die Investition der Europäischen Kommission in ein umfangreiches Forschungs- und Entwicklungsprogramm für verantwortliche Innovation. Darüber hinaus haben die EU-Länder Erklärungen verabschiedet, die unterstreichen, dass Innovation verantwortungsvoll erfolgen muss. 

Ein gutes Beispiel für ein Projekt, das eine Win-Win-Situation für Unternehmen und Gesellschaft darstellt, ist Cloud Carbon Footprint (CCF), ein Open-Source-Tool, das unter Verwendung von Cloud-APIs die geschätzten CO2-Emissionen visualisiert. Damit können Unternehmen nun ihren CO2 Ausstoß verringern und gleichzeitig Kosten einsparen. 

Auch die Green Software Foundation (GSF) will durch neue Standards und Best Practices, die Entwicklung von Open-Source-Werkzeugen, Schulungen sowie den Aufbau einer Community „Grüner Software Botschafter“ das Verantwortungsbewusstsein und die Handlungsfähigkeiten fördern. Konkret soll der durch Software verursachte C02-Ausstoß bis zum Jahr 2030 um 45 Prozent reduziert werden. Das entspricht dem Beschluss des Pariser Klima-Abkommen (2015). Diese Initiativen wurden von den Unternehmen selbst ins Leben gerufen. Dennoch sollten auch zukünftig Anreize für Unternehmen geschaffen werden, um verantwortungsvolles Handeln im Sinne der Gesellschaft voranzutreiben.

Verantwortungsvolle Technologie: Eine Chance für Unternehmen sich zu positionieren

Eine aktuelle Umfrage von Cisco ergab, dass fast 80 Prozent der Verbraucher:innen den Datenschutz bei Kaufentscheidungen berücksichtigen und bereit sind, mehr für Produkte oder Anbieter mit höheren Datenschutzstandards zu bezahlen. Widerstandsfähige Datenschutzpraktiken werden damit für einige Unternehmen zu einem starken Unterscheidungsmerkmal.

Auch Apple nutzt seine Maßnahmen zum Datenschutz als Verkaufsargument und Unterscheidungsmerkmal gegenüber anderen Konzernen. Der Erfolg des Unternehmens zeigt: Der verantwortungsvolle Umgang mit Technologien, ihren Auswirkungen und dem Schutz von Daten, bietet einen klaren Vorteil zur Positionierung für Unternehmen. Diese investieren einerseits in den Schutz vor Hackerangriffen und achten andererseits darauf, Kundenwünsche zu respektieren, indem sie das unseriöse Sammeln von Daten vermeiden. 

Das alles trägt zum Vertrauen der Kund:innen bei und fördert eine positive Wahrnehmung des Unternehmens. Firmen sollten den Schutz gegen Cyberattacken aber nicht als Allheilmittel betrachten. Sie tun gut daran, ein solides Rahmenwerk für ihre Datenethik zu entwickeln und die möglichen negativen Auswirkungen, der von ihnen verwendeten Technologien, anzuerkennen.


Über den Autor

Erik Dörnenburg ist Software Engineer und leidenschaftlicher Technologe. Als Head of Technology bei Thoughtworks hilft er Kunden, ihre geschäftlichen Herausforderungen mit modernen Technologien, Plattformen und Praktiken zu lösen. Auf seiner 25-jährigen Reise durch die Tech-Branche ist Erik einer Fülle neuer Technologien begegnet. Dabei ist es ihm wichtig deren Potenzial zu bewerten und gleichzeitig bewährte Praktiken für die neuen Technologien zu adaptieren.

Während seiner gesamten Laufbahn war Erik ein Verfechter von agilen Werten und Open-Source-Software. Er ist regelmäßiger Redner auf internationalen Konferenzen, hat an einigen Büchern mitgewirkt und unterhält mehrere Open-Source-Projekte. Erik hat einen Abschluss in Informatik von der Universität Dortmund und hat Informatik und Linguistik am University College Dublin studiert.


Bildquelle / Lizenz Aufmacher:

Photo by Adi Goldstein on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Datensicherheit als Treiber der digitalen Souveränität

Wie Unternehmen digital selbstbestimmt handeln und so die Wettbewerbsfähigkeit langfristig sichern können, berichtet Ari Albertini, Chief Operating Officer der FTAPI GmbH.

Die fortschreitende Digitalisierung birgt neben den enormen Vorteilen, die für Unternehmen und Behörden entstehen, auch neue Bedrohungen und Risiken. Denn mit den wachsenden technologischen Abhängigkeiten, insbesondere von den großen, nicht-europäischen Hyperscalern, ist die digitale Souveränität massiv in Gefahr. Die Sicherheit von Systemen und Infrastrukturen stellt dabei eine besondere Herausforderung für Unternehmen und Behörden dar. Um auch in Zukunft digital souverän agieren zu können, sind Investitionen in die Cybersicherheit notwendig. Dabei spielen drei Bereiche eine besondere Rolle: die Verfügbarkeit von Technologien Made in Germany, die Interoperabilität von IT-Systemen und die Vertrauenswürdigkeit und Integrität der gespeicherten und verarbeiteten Daten. Denn nur, wenn die eigenen Daten vor Zugriffen von außen geschützt sind, ist die Vertrauenswürdigkeit jederzeit gewährleistet. Und nur dann können Unternehmen in Deutschland und Europa langfristig souverän agieren.

Was bedeutet digital souverän?

Der Ruf nach digitaler Souveränität, also der Reduzierung von Abhängigkeiten und der Möglichkeit zum selbstbestimmten Handeln in Bezug auf digitale Technologien, wird in Deutschland und Europa immer lauter. Gerade in politisch turbulenten Zeiten wird es immer wichtiger, die Verfügbarkeit von Systemen und den Zugang zu Daten jederzeit sicherzustellen. Denn ein selbstbestimmtes unternehmerisches Handeln ist nur dann möglich, wenn geschäftsentscheidende Prozesse nicht von Dritten beeinflusst werden können. Wenn die Funktionsfähigkeit von Systemen und Technologien durch Manipulationen oder Angriffe gestört wird, kann das enorme wirtschaftliche Schäden nach sich ziehen.

Digitale Souveränität bedeutet also, die fortschreitende Digitalisierung in Deutschland und Europa auch in Zukunft selbstbestimmt und unabhängig voranzutreiben. Dafür müssen Lösungen “Made in Germany” und “Made in Europe” entwickelt und eingesetzt werden, welche die Abhängigkeiten von internationalen Technologieanbietern minimieren.

Sicherheitsmerkmal Made in Germany

Auf dem Weg zur digitalen Souveränität spielt der Standort der Anbieter von digitalen Technologien oder Anwendungen eine wichtige Rolle. Aktuell dominieren, insbesondere im Technologieumfeld, nicht-europäische Anbieter den Markt. Diese globalen Player, auch Hyperscaler genannt, hosten ihre Services und Infrastrukturen außerhalb der EU – und unterliegen damit nicht den europäischen Sicherheitsanforderungen und Regularien wie beispielsweise der EU-DSGVO.

Setzen Unternehmen auf globale Player, riskieren sie neben einem Verlust der Daten auch eine mögliche Weitergabe an staatliche Institutionen, beispielsweise durch den Cloud-Act oder den US Patriot Act. Diese starken Abhängigkeiten stellen signifikante Bedrohungen für die Cybersicherheit von Unternehmen dar und schränken die Handlungsfreiheit von Unternehmen unter Umständen massiv ein.

Bei Lösungen und Systemen, die in Deutschland oder Europa gehostet oder sogar entwickelt wurden, bilden Standards und Regularien wie die EU-DSGVO oder Qualitätssiegel wie “Made in Europe” oder “Hosted in Germany” einen einheitlichen Rahmen, um eine sichere Infrastruktur und damit ein offenes und vertrauenswürdiges Datenökosystem zu schaffen. Unternehmen können darauf vertrauen, dass Technologien den europäischen oder deutschen Sicherheitsstandards entsprechen und Regularien, die den Datenschutz und die Datensicherheit betreffen, eingehalten werden. So können Daten vertrauensvoll ausgetauscht und sicher zur Weiterverarbeitung genutzt werden.

Sinnvolle Schnittstellen und Lösungen aus einer Hand

Dafür ist es außerdem relevant, dass IT-Systeme möglichst nahtlos zusammenarbeiten. Geeignete Schnittstellen ermöglichen dabei eine medienbruchfreie Kommunikation zwischen verschiedenen Systemen. Ist dies sichergestellt, können darüber hinaus Daten-Workflows, die häufig ein Einfallstor für Cyberkriminelle darstellen, automatisiert und damit zusätzlich abgesichert werden. Durch eine automatisierte, verschlüsselte und damit abgesicherte Übertragung von Dokumenten und Dateien werden bei Unternehmen zeitliche Ressourcen freigesetzt, die aktuell noch in der Ausführung monotoner und zeitintensiver Workflows gebunden sind. Durch die Automatisierung dieser Abläufe kann die gewonnene Zeit in die Entwicklung neuer, innovativer Lösungen und Geschäftsmodelle investiert werden, womit sich Unternehmen langfristig einen Wettbewerbsvorteil verschaffen.

Bei der Wahl des Technologieanbieters ist es darüber hinaus empfehlenswert, auf Lösungen zu setzen, die sich nicht nur einfach in bestehende Systeme integrieren lassen, sondern darüber hinaus in einer Plattform eingebunden sind, die mehrere Lösungen ineinander vereint. Hier haben sich bereits verschiedene Anbieter auf dem europäischen Markt etabliert, die Lösungen für den sicheren Datentransfer, virtuelle Datenräume oder Lösungen zur Prozessautomatisierung auf einer Plattform bündeln und die Vertrauenswürdigkeit und Integrität der erhobenen, übermittelten und weiterverarbeiteten Daten zu jeder Zeit sichern.

Vertrauenswürdigkeit durch Datensicherheit

Die Integrität und Vertrauenswürdigkeit der Daten ist für eine souveräne Datennutzung enorm wichtig. Dafür müssen Technologien, Anwendungen aber auch Daten jederzeit vor unbefugtem Zugriff geschützt sein, um sicher und manipulationsfrei in andere Systeme übertragen werden können.

Basis für eine sichere Übertragung der Daten ist eine durchgängige Verschlüsselung der gängigen Kommunikationswege. Durch eine entsprechende Absicherung der Kommunikationskanäle, beispielsweise des E-Mail-Verkehrs durch Ende-zu-Ende-Verschlüsselung oder durch ein geschütztes Input-Management, sind die Daten zu jedem Zeitpunkt der Übertragung vor Zugriffen von außen geschützt.

Um Daten darüber hinaus auch über Unternehmensgrenzen hinweg sicher bereitzustellen und einen sicheren Zugang zu ermöglichen, eignen sich virtuelle, sichere Datenräume: sie ermöglichen es Organisationen, Daten zu teilen, ohne dabei die Hoheit über die eigenen Daten zu verlieren. Unternehmen behalten hier zu jedem Zeitpunkt die Hoheit über die eigenen Daten, sodass ihre Vertrauenswürdigkeit und Integrität jederzeit geschützt ist. Durch eine feingranulare Administration von Zugriffsrechten behalten Unternehmen darüber hinaus jederzeit einen Überblick darüber, wer auf welche Daten zugreifen und diese bearbeiten kann.

Auf diese Weise bieten die geteilten Daten einen Mehrwert und tragen dazu bei, die Innovationspotenziale der erhobenen Daten voll auszuschöpfen. Die Sicherheit und Vertrauenswürdigkeit der ausgetauschten Daten sind erfolgsentscheidende Kriterien, wenn es darum geht, die Chancen der Digitalisierung und der zunehmenden Vernetzung optimal zu nutzen. Unternehmen müssen zu jeder Zeit die Kontrolle über die eigenen Daten behalten – auch dann, wenn sie für gemeinsame Projekte mit anderen Unternehmen geteilt werden.

Digitale souverän – nicht autark, aber selbstbestimmt

Trotz aller Bestrebungen in Richtung digitaler Souveränität wird es Unternehmen in Deutschland und Europa nur in Ausnahmefällen gelingen, von internationalen Technologieanbietern gänzlich unabhängig zu agieren. Das müssen sie auch gar nicht. Sie sollten aber ihre Bestrebungen darauf richten, einen selbstbestimmten, sicheren und reflektierten Umgang mit digitalen Technologien dort zu ermöglichen, wo er notwendig und gewünscht ist. Auf diese Weise können sie die Digitalisierung des eigenen Unternehmens selbstbestimmt, verantwortungsvoll und sicher gestalten und einen wichtigen Grundstein für eine digital souveräne und vor allem zukunftssichere Wirtschaft schaffen.

Über den Autor:

Ari Albertini ist Chief Operating Officer des Spezialisten für sichere Datenflows FTAPI Software GmbH. Nach Stationen in der Wissenschaft und der Projektberatung ist er seit 2015 bei FTAPI. Als Wirtschaftsinformatiker (M.Sc.) und Alumni der TU München verfügt er über mehr als 10 Jahre Erfahrung im Bereich der Strategieentwicklung, IT-Beratung, Software-Development sowie Produktkonzipierungen. Bei FTAPI kümmert er sich zudem um Themen wie agiles Arbeiten und Innovationen und ist regelmäßig als Autor von Fachbeiträgen sowie als Sprecher bei Branchen-Events tätig.


Bildquelle / Lizenz Aufmacher:

Photo by Christine Sandu on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hybride Customer Journey

Studie: Produkt-Suchen beginnen immer häufiger auf den Online-Shops von Händlern und Brands

Laut der „Shopper Story 2022 Deutschland“ von Criteo sind die Konsumenten in Deutschland heute zufriedener mit ihrer Kundenerfahrung als noch 2019

Das globale Technologieunternehmen Criteo mit der weltweit führenden Commerce Media Plattform, hat in seiner Studie „Shopper Story 2022 Deutschland“ untersucht, wie Konsumenten nach Produkten suchen und welche Faktoren ihre Kaufentscheidung beeinflussen. Die Befragung von 1.011 Konsumenten in Deutschland ergab, dass die Relevanz von Online-Shops durch eine bessere User Experience gerade zu Beginn der Shopping Journey im Vergleich zu 2019 deutlich an Relevanz gewonnen hat.

Die Online-Shops von Händlern und Brands spielen heute für Konsumenten, die bereits wissen, was sie kaufen möchten, eine zentrale Rolle; fast jeder Dritte (30 Prozent) sucht zuerst hier nach Informationen zu seinem Wunschprodukt. 2019 waren dies noch 22 Prozent. Umgekehrt nutzen 22 Prozent Suchmaschinen zu diesem Zweck, vor zwei Jahren waren dies noch 31 Prozent. Ein ähnliches Bild zeigt sich, wenn die Konsumenten nur wissen, welche Art von Produkt sie kaufen möchten. 26 Prozent beginnen ihre Produktsuche direkt in Online-Shops (2019: 19 Prozent), auf Suchmaschinen 23 Prozent (2019: 33 Prozent).

Investitionen in die User Experience zahlen sich aus

Der wesentliche Grund dafür, dass Konsumenten mehr direkt bei Händlern suchen, liegt laut der Studie in einer besseren User Experience begründet. Drei von vier Befragten gaben an, dass sie im Vergleich zu 2019 eine gewisse oder große Verbesserung sowohl bei der Suche nach Produkten als auch beim Finden der gewünschten Produkte auf den Online-Shops von Händlern und Brands feststellen.

„Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.“

Robert Kießling,
Head of Retail Media DACH

Diese positiven Erfahrungen der Nutzer spiegeln sich auch in ihren Online-Rezensionen wider. So gaben 72 Prozent der Konsumenten an, in den vergangenen sechs Monaten eine positive Rezension auf Grund einer guten Kundenerfahrung verfasst zu haben, 10 Prozent mehr als noch 2019. Gleichzeitig sank die Zahl derer, die eine negative Rezension verfasst haben, von 65 Prozent auf 54 Prozent.

Robert Kießling, Head of Retail Media DACH – Retail & Partnerships bei Criteo, erklärt dazu: „Mit der Pandemie hat sich die Art und Weise, wie Konsumenten online shoppen, nachhaltig verändert. Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.

Und das mit Erfolg, wie die Studie belegt. Immer mehr Konsumenten starten ihre Produktsuche auf Händlerseiten, was deren bereits hohe Attraktivität als Werbeumfeld für Brands weiter steigern und auch dem Thema Retail Media zusätzlichen Schub verleihen dürfte.“

Must-haves: Einfache Bestellung, kostenlose Lieferung und Rabatte

Ob sich ein Kunde nach seiner Suche aber auch wirklich für die Bestellung in einem bestimmten Online-Shop entscheidet, hängt von einer Reihe von Faktoren ab. Laut Studie an erster Stelle steht für etwas mehr als die Hälfte der Befragten dabei eine einfache und schnelle Bestellung, 54 Prozent bewerteten sie als äußerst wichtig. Es folgen eine kostenlose Lieferung (51 Prozent) sowie Rabatte und Sonderangebote (49 Prozent).

Ob der Händler beziehungsweise die Brand eine Shopping App anbietet, spielt bei der Frage nach der Kaufentscheidung bei diesem Anbieter nur eine nachgelagerte Rolle: Lediglich 19 Prozent empfinden eine App in diesem Zusammenhang als äußerst wichtig.

Studiensteckbrief:

Criteo, „Shopper Story 2022“, n=1.011 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum November 2021, durchgeführt mit Qualtrics als Umfrageplattform und Dynata als Panel-Provider. Vergleich mit Criteos „Shopper Story 2019“, n=1.015 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum Juli bis August 2019, Qualtrics/Dynata. 

Zum Download der Studie gelangen Sie hier

Mobile App Trends 2022

Adjust, die globale Mobile Marketing Analytics Plattform, veröffentlicht ihren jährlichen Mobile App Trends Report, der zeigt, dass sich das Wachstum von Mobile Apps 2021 weltweit weiter beschleunigt hat.

Nach einem Jahr voller Veränderungen in der Branche und regelrechten Umwälzungen infolge der Corona-Pandemie sind die Anzahl der Installationen und Sitzungen von Apps branchenübergreifend gewachsen. Apps der Kategorien Fintech, E-Commerce und Gaming sind dabei die Spitzenreiter und verzeichneten laut den Daten von Adjust im Jahr 2021 außerdem die höchsten monatlichen In-App-Umsätze, die je gemessen wurden.

Mit der Einführung von Apples iOS 14.5 und dem AppTrackingTransparency (ATT)-Framework im April 2021 war die Mobile-Marketing-Branche gezwungen, ihren Umgang mit Datenschutz und dem Tracking von iPhone-Nutzern grundlegend neu zu denken. Frühe Prognosen gingen davon aus, dass nur rund 5 % der iPhone-User der Nutzung ihrer Daten zustimmen würden. Die Daten von Adjust zeigen aber, dass Opt-in-Raten für iOS 14.5+ höher liegen als prognostiziert. Über alle Kategorien hinweg betrug die globale Opt-in-Rate im Mai 2021 16 % und stieg auf etwa 25 % an. Apps aus der Kategorie Gaming erreichten 2021 sogar Opt-in-Raten von 30 %.

Der Mobile App Trends Report basiert auf den 2.000 Apps, die 90 % des gesamten Datenverkehrs ausmachen und zusätzlichen Daten aus der gesamten Adjust-Datenbank. Der Bericht analysiert langfristige Trends bei Installationen, Sessions, Verweildauer in der App, Nutzerbindung, Reattributions-Raten und mehr im internationalen Vergleich. Die daraus gewonnenen Erkenntnisse liefern App-Entwicklern und Marketern wertvolle Einblicke in ihre Zielgruppen und die Gesamtlage der App-Branche.

„Das vergangene Jahr war eine echte Herausforderung“, sagt Simon „Bobby“ Dussart, CEO von Adjust. „Trotzdem hat sich das Mobile-App-Ökosystem weiterhin gut entwickelt und zeigt, wie robust und anpassungsfähig die App-Marketing-Branche ist. Man muss die Nutzer dort abholen, wo sie sind. Darum ist es für Marketer und Profis für die Nutzerakquise unerlässlich, datenbasierte Strategien zu entwickeln, um die Nutzerbindung zu verbessern und immer wieder neue und bestehende Zielgruppen zu identifizieren, zuzuordnen und zu messen.“

Die wichtigsten Erkenntnisse aus dem Mobile App Trends Report sind:

  • Installationen und Sessions von Fintech-Apps stiegen weltweit um 34 % bzw. 53 % im Vergleich zum Vorjahr
  • Trading- und Krypto-Apps machten zwar nur 7 % bzw. 2 % aller App-Installationen in der Kategorie Fintech aus, verzeichneten aber 17 % (Trading) bzw. 6 % (Krypto) aller Sessions in dieser Kategorie. Krypto-Apps wiesen mit über 15 Minuten auch die längsten durchschnittlichen Sessions auf.
  • Im internationalen Vergleich der Installationszahlen von Fintech-Apps lag Nordamerika mit einem Anstieg von 69 % im Jahr 2021 an der Spitze, gefolgt von LATAM (62 %), APAC (29 %) und EMEA (16 %).
  • In-App-Umsätze in Fintech-Apps stiegen von Januar 2020 bis Dezember 2021 konstant an, wobei der März 2021 der umsatzstärkste Monat war.
  • Mobile E-Commerce performt stärker denn je: Die Installationen von E-Commerce-Apps stiegen in 2021 um 12 % im Vergleich zum Vorjahr. Spitzenmonat war dabei der November mit 20 % mehr Installationen als im Jahresdurchschnitt.
  • Die beiden Märkte mit dem größten Wachstum an Installationen von E-Commerce-Apps waren EMEA und LATAM mit einem Zuwachs von 18 % bzw. 14 % im Jahresvergleich.
  • E-Commerce-Apps wiesen im Mai 2021 die höchsten In-App-Umsätze auf, die Adjust jemals in dieser Kategorie gemessen hat. Weltweit stiegen die Umsätze hier im Jahr 2021 um 46 % gegenüber dem Vorjahr.
  • Marketplace-Apps wiesen eine deutlich höhere Nutzerbindung auf als andere E-Commerce-Apps: So lag die Retention Rate am ersten Tag bei 27 % und bei 10 % am 30. Tag, gegenüber 19 % und 7 % im Jahr 2020.
  • Hyper-Casual Games sind auf dem Vormarsch und machten in der Kategorie Gaming den größten Anteil der Installationen aus (27 %), während Actionspiele den größten Anteil der Sessions ausmachten (30 %).
  • Installationszahlen stiegen 2021 in der Kategorie Gaming weltweit um 32 % im Vergleich zum Vorjahr und setzten damit das von der Pandemie ausgelöste Wachstum von 2020 fort. Das zweite Halbjahr 2021 übertraf dabei das erste Halbjahr sogar um 12 %.
  • Die Installationen von Gaming-Apps stiegen 2021 in mehreren Schlüsselregionen konstant an. LATAM und EMEA verzeichneten mit 35 % bzw. 33 % hier die höchsten Zuwachsraten, gefolgt von APAC und Nordamerika.
  • Die Länge der Sessions, die Sessions pro Nutzer und Tag sowie die in Apps verbrachte Zeit sind 2021 gestiegen.
  • Im Januar 2021 wurden die weltweit höchsten In-App-Umsätze gemessen, die Adjust je verzeichnet hat.

„Das Jahr 2022 bringt neue Herausforderungen, aber auch viele neue Chancen mit sich“, sagt Federico Hernandez, Head of Sales DACH und Nordics bei Adjust. „Der Bedarf und die Nachfrage nach Apps sind ausgeprägter denn je. Apps liefern uns nicht nur außergewöhnliche, weltweit führende Unterhaltungsformate und praktische Tools zur Erledigung von Aufgaben und zur Gestaltung unseres Alltags, sondern sie lösen echte Probleme und helfen so den Nutzern in Märkten auf der ganzen Welt“.
 


Der vollständige Mobile App Trends Report von Adjust steht hier zum Download zur Verfügung.

Mobile App Trends 2022 – E-Book

Lizenz: Pressemitteilung

Die Cloud – nicht nur ein Markt für Hyperscaler

Jennifer Desirée Hüsch: „Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung.“

Von Jennifer Désirée Hüsch*

Der technologische Fortschritt der letzten Jahre hat dazu geführt, dass eine immer schnellere Internet-Infrastruktur und leistungsfähigere Server zur Verfügung stehen. Infolgedessen sind auch Public-Cloud-Angebote attraktiver geworden. Auf der einen Seite hat sich das Preis-Leistungs-Verhältnis enorm verbessert und auf der anderen Seite ist auch das Angebot an Cloud-Dienstleistungen kontinuierlich gestiegen. Beispiele dafür sind Desktop-as-a-Service oder die Auslagerung ganzer Arbeitsplätze in die Cloud. Darüber hinaus hat die Corona-Pandemie mit dem plötzlich steigenden Bedarf an intelligenten Heimarbeitsplätzen, Homeschooling, E-Learning-Angeboten, Liefer- oder auch Streamingdiensten der Digitalisierung und der Cloud einen zusätzlichen Booster verschafft.

Anbieter wie Microsoft und Amazon haben besonders von dem geänderten Nachfrageverhalten profitiert. Die Hyperscaler verfügen über ein riesiges Angebot an Services und Dienstleistungen, können aber dennoch nicht alle Kundenanforderungen erfüllen. Oft sind die geografische Nähe, der persönliche Kontakt, ein bestehendes Vertrauensverhältnis aus der bisherigen Zusammenarbeit oder ein speziell auf den Kunden zugeschnittener Service die Entscheidungsgründe für die Wahl eines anderen Anbieters.

Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung. Laut Microsoft etwa führen 60 Prozent der Rechenkerne in Azure Workloads auf Linux aus. Da Unternehmen auch künftig nur ungern alles in die Cloud auslagern wollen und die großen Cloud-Service-Provider nicht alle Kundenbedürfnisse abdecken können, liegt die Zukunft vielfach in der Nutzung hybrider Modelle. Für traditionelle IT-Fachhändler, die Cloud-Technologie-Lösungen anbieten möchten, oder für Cloud-Service-Provider mit bestehenden Cloud-Managed-Services besteht dadurch eine große Marktchance. Sie können spezielle, auf den Kunden abgestimmte Services anbieten.

Tech Data unterstützt seine Partner dabei mit einem umfassenden Cloud-Know-how und Ökosystem unterschiedlicher Angebote. Ein Beispiel dafür ist auch das Certified Cloud and Service Provider (CCSP) Program von Red Hat. Es bietet unseren Vertriebspartnern die Möglichkeit, Lösungen von Red Hat in ihre eigenen Services zu integrieren beziehungsweise Services rund um die Produkte von Red Hat zu definieren und anzubieten. Das flexible Programm unterstützt verschiedenste Service-Modelle wie Hosting, Outsourcing, Managed Service, Public Cloud Service oder auch eine Mischung dieser Varianten. Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Im Rahmen des Programms stehen verschiedene Produkte und Subskriptionstypen zur Verfügung. Partner können sie für Demonstrations- und Simulationszwecke oder für das Einrichten, Testen und Betreiben eines Cloud-Services nutzen. Für Partner besteht zudem die Möglichkeit, die Lösungen an ihre Kunden zur Nutzung zu übergeben und zu hosten.

Red Hat und Cloud – was heißt das nun konkret? Schlüsseltechnologien von Red Hat für eine Open-Hybrid-Cloud sind das bewährte Betriebssystem Red Hat Enterprise Linux, aber vor allem auch die Container-Lösung Red Hat OpenShift und Ansible für die Automatisierung von Applikationen und Netzwerken. Bei der Nutzung der verschiedenen Technologien sehen wir bei Tech Data einen deutlichen Wandel im Markt. Viele Partner haben im Managed-Services-Umfeld rund um das Betriebssystem von Red Hat den Anfang gemacht. Derzeit steigt darüber hinaus die Nachfrage nach Containerisierung mit OpenShift und Automatisierung mit Ansible deutlich.

Wichtig ist, dass Red Hat OpenShift nicht nur als reine Container-Umgebung dient, sondern die gesamte Kette von der Applikations-Entwicklung bis zum Deployment (CI/CD) abdecken kann. Die Applikationsmodernisierung ist dabei ein zentrales Thema. Der Vorteil von Ansible mit mehreren tausend Modulen liegt in der nahezu unbeschränkten Automatisierungsmöglichkeit – von einfachen Dateioperationen bis hin zu komplexen Software-Deployments. Ansible und OpenShift nehmen den Nutzern dabei einen Großteil an Arbeit ab, sodass sie sich auf das Wesentliche konzentrieren können.

Tech Data informiert und berät Unternehmen beim Einstieg in eine CCSP- Partnerschaft mit Red Hat und unterstützt beim Aufbau und bei der Entwicklung des CCSP-Business. Dazu gehört etwa die Analyse unterschiedlicher Geschäftsmodelle, Use Cases und Zielmärkte unter vertrieblichen und technischen Gesichtspunkten.

Vertiefend bieten wir Ende Mai für interessierte und bestehende CCSP Partner die CCSP Bootcamp Woche an.

Anfragen können Interessenten sehr gerne richten an jennifer.huesch@techdata.com.

Möchten Sie unseren Newsletter zu Red Hat Themen und Events erhalten, melden Sie sich hier an Newsletter Anmeldung: Red Hat (techdata.com)

* Jennifer Désirée Hüsch ist BDM (Business Development Manager) Red Hat – CCSP & ISV bei Tech Data


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

IFAT Munich 2022

Weniger Müll, Rohstoffe wiederverwenden, sauberes Wasser, klimaresiliente Städte – vom 30. Mai bis 3. Juni 2022 werden auf der IFAT Munich Technologien und Lösungen für eine umwelt- und klimafreundliche Zukunft gezeigt. Es ist das größte Netzwerk für Umwelttechnologien, das Industrie, Politik, Kommunen und Wissenschaft zusammenführt.

Drei Fragen zur Messe an Stefan Rummel, Geschäftsführer der Messe München:

Herr Rummel, nach der Corona-bedingten Zwangspause findet nach vier Jahren wieder die IFAT Munich statt. Ist sie noch mit der Messe von 2018 vergleichbar?

Absolut. Die Bedeutung von Umwelttechnologien sowie die Nachfrage wächstglobal. Gleichzeitig sind die aktuellen Herausforderungen wie Lieferengpässe und die Folgen des Krieges in der Ukraine auch in der Umweltbranche ein gro-ßes Thema. Es gibt daher wieder viel Bedarf an persönlichem Austausch und Information. Rund 2.900 Aussteller bilden alle Segmente der IFAT ganzheitlich ab: Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft.

Darunter knapp 50 Startups, so viele wie noch nie. Mehr als 50 Länder sind in der Ausstellung vertreten. Neben Deutschland sind die Top-Ausstellerländer Italien, die Niederlande, Österreich, die Türkei und Frankreich. Auch die USA sind sehr präsent und Unternehmen aus Ägypten über Singapur bis Australien sind an Bord. Das alles ist einklares Votum für die größte Umwelttechnologiemesse der Welt.


„Klares Votum für die größte Umwelttechnologiemesse der Welt“

Stefan Rummel, Geschäftsführer der Messe München

Auch das Rahmenprogramm ist umfangreich, was sind Ihre Highlights?

Bundesumweltministerin Steffi Lemke und der Bayerische Umweltminister Thorsten Glauber werden die Messe eröffnen. Direkt im Anschluss diskutieren herausragende Persönlichkeiten die Frage, wie wir Veränderung mit Umwelttechnologie schaffen: unter anderem die Gründerin Mikela Druckman (Expertin für KI im Recycling sowie Teil des WEF Global Future Council,), Sucheta Govil (Chief Commercial Officer von Covestro), Prof. Dr. Erich Zahn (Mit-Autor des Club of Rome-Berichts „Die Grenzen des Wachstums“) und Dr. Johannes Kirchhoff (Vorstand der Initiative Circular Economy vom Bundesverband der deutschen Industrie).

Ganz konkretes Wissen vermitteln die neuen, geführten Lösungstouren zu 16 Themen. Und dann natürlich die Vielzahl an Sonderschauen und Fachvorträgen. Das Themen-Spektrum reicht vom digitalen Zwilling in der Wasserwirtschaft über Bauschutt-Recycling bis hin zum klimaneutralen Lastverkehr.

Auch für die Messe selbst stellen Sie den Anspruch einer nachhaltigen Durchführung – was genau sind Ihre Maßnahmen hier?

Wir haben uns einen Code of Conduct gegeben, um die IFAT in einem kontinuierlichen Prozess nachhaltiger zu gestalten – und können dabei auf eine bereits sehr „grüne“ Infrastruktur der Messe München aufbauen. Bei der Messedurchführung geht es dann um Dinge wie die Auswahl von Materialien, den Umgang mit Abfall – und wir ermutigen auch unsere Aussteller und Besucher, ihre Messebeteiligung klimaschonend zu gestalten. So wird das GoGreen-Ticket sehr gut angenommen, um den CO2-Fußabdruck zu kompensieren.

Der nachhaltigste Messeauftritt wird von uns mit dem Sustainability Award ausgezeichnet, ganz prominent während der Eröffnung. Wir verzichten beispielsweise auf Teppiche in den Hallen und erzielen so eine CO2-Einsparung, die 1.000 Kurzflügen entspricht. Und die Projektleitung der IFAT unterzieht sich selbst einem Audit zur klimaneutralen Messedurchführung.

Zur Veranstaltung

IFAT – Weltleitmesse für Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft

Wann: 30. Mai bis 3. Juni 2022

Wo: Messe München

Rund 2.900 Aussteller aus mehr als 50 Ländern

Das Rahmenprogramm der IFAT finden Sie hier.
Schwerpunkte:
Abfall & Sekundährrohstoffe
Wasser & Abwasser

https://ifat.de/de/

People Analytics als Mittel zur Verbesserung der Lohngleichheit

Der Gender Pay Gap ist real. Dr. Margrét Vilborg Bjarnadóttir, Gründerin von PayAnalytics, beschäftigt sich in ihrem Gastbeitrag dabei mit den Möglichkeiten, die Analytic-Tools bieten – aber auch mit ihren Grenzen.

Lohnungleichheit ist ein drängendes Problem, das sich durch die Pandemie verschärft hat. Millionen von Frauen sind aus dem Erwerbsleben ausgeschieden, und viele Menschen haben den Arbeitgeber gewechselt. People Analytics, die Anwendung quantitativer Instrumente auf die Wertschöpfungskette der Mitarbeiter*innen, kann Unternehmen bei der Verwirklichung von Lohngleichheit und der Schaffung gerechterer Arbeitsplätze unterstützen. Diese Instrumente müssen jedoch mit Bedacht eingesetzt werden, denn selbst wenn sich Firmen um Lohngleichheit bemühen, können ihre Daten immer noch historische Vorurteile widerspiegeln und zu Diskriminierungen aufgrund von ethnischer Zugehörigkeit, Geschlecht und Klasse führen.

Die Grenzen von KI-basierten Tools erkennen

Heutzutage werden KI-basierte People-Analytics-Tools von Manager*innen eingesetzt, um die Produktivität zu messen, wichtige Entscheidungen über Einstellungen, Vergütungen, Beförderungen und Schulungsmöglichkeiten zu treffen und Gehaltsunterschiede in Bezug auf Geschlecht, ethnische Zugehörigkeit oder andere wichtige demografische Kategorien zu erkennen und zu beseitigen. Der zunehmende Einsatz von KI in der Personalabteilung muss jedoch überwacht werden, um zu gewährleisten, dass die Daten qualitativ hochwertig und zuverlässig sind, denn die Analysen der KI sind nur so gut wie die ihnen zugrundeliegenden Daten und Annahmen. Folgende Faktoren müssen dabei berücksichtigt werden:

  1. Daten sind nicht neutral und können Voreingenommenheit enthalten. People-Analytics-Tools basieren in der Regel auf den historischen Daten eines Arbeitgebers zur Rekrutierung, Bindung, Beförderung und Vergütung der Arbeitskräfte. Solche Daten erfassen die Entscheidungen und Einstellungen der Vergangenheit. Führungskräfte müssen sich darum bewusst sein, dass ihre retrospektiven Daten sowohl alte als auch aktuelle Voreingenommenheiten widerspiegeln können und ihnen möglicherweise nicht in vollem Umfang dabei helfen, die Komplexität des Personalmanagements in einer zunehmend vielfältigen Belegschaft zu bewältigen. So können beispielsweise Noten als Indikator für Intelligenz oder berufliche Lizenzen oder Zertifikate als Maßstab für Fähigkeiten herangezogen werden. Diese Maßstäbe sind jedoch unvollständig und enthalten oft Verzerrungen. Deswegen ist es wichtig, bei der Anwendung von diesen Tools die potenziellen Diskrepanzen zwischen dem, was Unternehmen messen wollen (z. B. Intelligenz oder Lernfähigkeit), und dem, was sie tatsächlich messen (z. B. die Leistung in damaligen Schultests), zu berücksichtigen.

  2. Die Leistung eines People-Analytics-Tools hängt auch vom Algorithmus ab. Arbeitgeber sollten bedenken, dass Modelle bei Personen aus demografischen Mehrheitsgruppen wahrscheinlich am besten abschneiden, bei weniger gut vertretenen Gruppen jedoch schlechter. Dies liegt daran, dass Algorithmen in der Regel die Gesamtgenauigkeit maximieren. Dadurch hat die Leistung für die Mehrheitsbevölkerung bei der Festlegung der Algorithmus-Parameter mehr Gewicht als die Leistung für die Minderheitenbevölkerung. Außerdem gibt es kein wirklich „ethnisch blindes“ oder „geschlechtsblindes“ Modell, und das explizite Weglassen der ethnischen Zugehörigkeit oder des Geschlechts in einem Modell macht diese nicht „demografisch neutral“ – im Gegenteil, es kann sie sogar verschlechtern. Wenn die demografischen Kategorien nicht gleichmäßig über die gesamte Organisation verteilt sind, was fast immer der Fall ist, werden selbst sorgfältig erstellte Modelle nicht zu gleichen Ergebnissen für alle Gruppen führen.

Verzerrungen zuverlässig feststellen

Um sicherzustellen, dass die People-Analytics-Tools eine nützliche und vorteilhafte Entscheidungshilfe liefern, können Unternehmen eine Reihe von Werkzeugen einsetzen. Ein besonders hilfreiches Werkzeug ist ein Bias-Dashboard. Ein Dashboard fasst zusammen, wie das Tool in verschiedenen Gruppen abschneidet, und ermöglicht so die frühzeitige Erkennung potenzieller Verzerrungen. Es hebt sowohl die statistische Leistung als auch die Auswirkungen seiner Anwendung auf verschiedene Gruppen hervor. Beim Einstellungsprozess kann das Dashboard zum Beispiel die potenziellen Bewerber*innen zusammenfassen, die auf verschiedenen Websites (z. B. LinkedIn) kontaktiert wurden, sowie den Anteil jeder Gruppe, der sich beworben hat, ein Vorstellungsgespräch erhalten hat und schließlich eingestellt wurde.

Neben der Überwachung statistischer Leistungskennzahlen können Führungskräfte auch explizit auf Verzerrungen testen. So können sie beispielsweise untersuchen, wie individuelle Merkmale wie Erfahrung oder Ausbildung zu Gehaltserhöhungen in verschiedenen Gruppen beitragen. Sie können auch die Ergebnisse des jährlichen Beurteilungsprozesses untersuchen. Wenn beispielsweise Mitarbeiter*innen einer bestimmten ethnischen Gruppe überproportional häufig für eine Gehaltserhöhung vorgeschlagen werden, ist dies ein Zeichen dafür, dass das KI-Tool oder der Entscheidungsprozess möglicherweise verzerrt ist und die Empfehlungen des KI-Tools die Voreingenommenheit verstärken. Es könnte aber auch sein, dass das Tool unverhältnismäßig viele Minderheiten als Kandidat*innen für eine Gehaltserhöhung identifiziert, weil sie in Firmen tendenziell unterbezahlt sind; in diesem Fall hilft das KI-Tool, das Problem zu lösen.

Es ist wichtig zu bedenken, dass kein Modell vollständig ist. Zum Beispiel können die zwischenmenschlichen Fähigkeiten der Arbeitskräfte ihren Erfolg im Unternehmen beeinflussen, ohne dass dies unbedingt in den Personaldaten zum Ausdruck kommt. Die Nutzer*innen von People-Analytics-Tools müssen sich dieser zusätzlichen Faktoren bewusst sein und lernen, wie sie diese systematisch in den Entscheidungsprozess einbeziehen können. Wenn es quantifizierbare Daten zu diesen Faktoren gibt, sollten sie in Betracht ziehen, diese zu sammeln. Wenn ein KI-Algorithmus zur Entscheidungsfindung eingesetzt wird, muss die Firma in der Lage sein, allen Beteiligten zu erklären, was das Ergebnis bedeutet und wie es zustande gekommen ist. Algorithmen können bei der Interpretation vergangener Daten und der Erkennung von Mustern helfen, aber People Analytics ist immer noch ein Bereich, in dem der Mensch im Mittelpunkt der Entscheidungsfindung steht – die endgültigen Entscheidungen und die Verantwortung für diese Entscheidungen liegen also bei den Menschen.

Fazit

Personalanalysetools, insbesondere solche, die auf KI basieren, sind aus dem modernen Personalwesen nicht mehr wegzudenken. Quantitative Modelle sollen jedoch das menschliche Urteilsvermögen unterstützen, nicht ersetzen. Unternehmen müssen sich der Verzerrungen durch maschinelles Lernen und der Grenzen von Modellen bewusst bleiben. Um den größtmöglichen Nutzen aus KI und anderen People-Analytics-Tools zu ziehen, sollten Führungskräfte konsequent überwachen, wie die Anwendung in Echtzeit funktioniert, welche expliziten und impliziten Kriterien zum Trainieren des Tools verwendet werden und ob die Ergebnisse der vom Tool empfohlenen Entscheidungen verschiedene Gruppen auf unbeabsichtigte Weise unterschiedlich beeinflussen. Um People Analytics angemessen zu nutzen und wirklich gerechte Arbeitsplätze zu schaffen, müssen Manager*innen lernen, die richtigen Fragen zu ihren Daten, ihren Entscheidungen, ihren quantitativen Modellen und ihrer Software zu stellen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Lieferketten „Zurück auf Anfang“

Auftragsvolumen bricht ein, Zahlungen verspäten sich: Ukraine Krieg macht Aufschwung zunichte

Die russische Aggression gegen die Ukraine schickt globale Lieferketten in den freien Fall und treibt Energieknappheit und Rohstoffpreisvolatilität voran. Die Auftragsvolumina verlieren so stark wie noch nie seit den ersten Lieferverboten. Verspätete Zahlungen an Lieferanten verdoppeln sich im Vergleich zu den sechs Monaten vor der Pandemie. Zulieferer in Mexiko und Kanada verzeichnen einen Anstieg der Aktivitäten, da US-Unternehmen ihre Beschaffung näher an ihr Heimatland verlegen. Mckinsey prognostiziert, dass in den nächsten fünf Jahren bis zu 26 Prozent der weltweiten Produktion durch Reshoring und Nearshoring verlagert werden. 

Der Krieg in der Ukraine und die Abriegelungen in China haben das weltweite Auftragsvolumen in den ersten drei Monaten des Jahres 2022 einbrechen lassen, so die neuen Daten von Tradeshift. Der Q1 2022 Index of Global Trade Health von Tradeshift zeigt, dass die Gesamttransaktionen (Rechnungen und Bestellungen) zwischen Einkäufern und Lieferanten auf der Plattform im ersten Quartal 2022 um weitere 7 Punkte unter den prognostizierten Bereich gefallen sind. Die Auftragsvolumina wurden durch eine Mischung aus hoher Inflation, längeren Lieferzeiten und Engpässen bei wichtigen Komponenten besonders stark beeinträchtigt. Die Auftragseingänge fielen im ersten Quartal um 16 Punkte, was den stärksten Schwungverlust seit den ersten Sperrungen im Jahr 2020 darstellt.

Unternehmen halten Geld zurück, Lieferantenzahlungen weiter stark verspätet

Die großen Unternehmen scheinen sich auf eine schwierige Zeit einzustellen und halten eigenen Bargeldreserven zurück. Das hat Auswirkungen auf die Lieferanten, die dadurch in den kommenden Monaten erneut unter Druck geraten werden. Die aktuellen Daten von Tradeshift zeigen, dass die Zahl der verspäteten Lieferantenzahlungen in den letzten sechs Monaten durchschnittlich 15,9 Prozent des Gesamtvolumens betrug und damit fast doppelt so hoch war wie in den sechs Monaten vor der Pandemie. 

„Die Aggression Russlands in der Ukraine und die Abriegelung von Großstädten in ganz China führen zu einer Konvergenz von neuem und bekanntem Druck“, sagt Christian Lanng, CEO und Mitbegründer von Tradeshift. „Der Aufbau von Bargeldreserven mag wie ein Akt der Selbsterhaltung seitens der Einkäufer erscheinen. Er kann aber schnell zu einem Akt der Selbstverletzung werden, wenn die Lieferanten zu kämpfen beginnen. Große Unternehmen müssen aufhören, Lieferanten als billige Kreditlinie zu betrachten. Stattdessen sollten sie anfangen, nach Finanzierungsoptionen zu suchen, die sowohl sie selbst als auch ihre Lieferanten in einem hochvolatilen Umfeld zahlungsfähig halten.“

Euro-Raum weiteren Belastungen ausgesetzt

Die Transaktionen fielen um weitere 14 Punkte gegenüber der erwarteten Spanne, wodurch ein Großteil der Erholung der letzten 18 Monate zunichte gemacht wurde. Die Auftragsvolumina fielen um alarmierende 28 Punkte, da die Ukraine-Krise die Rohstoffpreise in die Höhe trieb und weitere Störungen in wichtigen Lieferketten verursachte.

In Deutschland gaben 40 Prozent der Industrieunternehmen an, dass sie Probleme mit Lieferengpässen erwarteten, so der Think Tank IW. Die Automobilhersteller haben aufgrund des Mangels an Kabelbäumen, die in der Ukraine von der deutschen Firma Leoni hergestellt werden, Montagebänder geschlossen. 

Das Rechnungsvolumen blieb im ersten Quartal 2022 relativ robust, was darauf hindeutet, dass die Zulieferer immer noch einen Rückstand an bestehenden Aufträgen abarbeiten. Einige Engpässe könnten sich abschwächen, aber die Aussichten deuten darauf hin, dass noch einige schwierige Monate bevorstehen, da neue Störungen auftreten. Nach Angaben von JP Morgan sind die Asien-Europa-Routen am stärksten von Problemen wie akuter Überlastung der Häfen und Unterbrechungen im Frachtverkehr aufgrund der Schließung des russischen Luftraums betroffen. Angesichts der Starrheit bzw. Unflexibilität der meisten Lieferketten dürfte es sich als sehr schwierig erweisen, schnelle und praktikable Lösungen für diese Probleme zu finden.  


„Die Globalisierung mag zwar auf dem Rückzug sein, aber die Widerstandsfähigkeit wird davon abhängen, dass die Lieferketten vernetzter, vielfältiger und kollaborativer werden als je zuvor.“

Christian Lanng, CEO und Mitbegründer von Tradeshift

Christian Lanng

Einkäufer und Lieferanten sind in USA, China und Großbritannien einem ähnlichem Druck ausgesetzt

USA: Die Dynamik ging um 6 Punkte zurück. Die US-Häfen machten sich auf neue Überlastungen infolge von Sperrungen in Asien gefasst. Die steigenden Energiekosten wirkten sich ebenfalls auf die Aufträge aus.

China: Die Transaktionen gingen im ersten Quartal 2022 um weitere 3 Punkte zurück, was das dritte Quartal in Folge ist, in dem die Aktivität hinter den Erwartungen zurückbleibt.

Großbritannien: Das Transaktionswachstum insgesamt lag im ersten Quartal um einen Punkt über dem prognostizierten Bereich, aber das Gesamtwachstum seit der Pandemie ist immer noch kaum halb so hoch wie erwartet. 

Reshoring und Nearshoring im Kommen? 

Kommentatoren wie der CEO von Blackrock, Larry Fink, glauben, dass der Krieg in der Ukraine die Unternehmen veranlassen wird, sich aus ihren globalen Lieferketten zurückzuziehen. Derweil prognostiziert McKinsey, dass in den nächsten fünf Jahren bis zu 26 Prozent der weltweiten Produktion durch Reshoring und Nearshoring verlagert werden. Die Daten von Tradeshift deuten darauf hin, dass Zulieferer in den an die USA angrenzenden Ländern bereits von den Bemühungen multinationaler Unternehmen profitieren, ihre Lieferketten zu „nearshoren“. Das Rechnungsaufkommen mexikanischer Lieferanten ist im vergangenen Jahr um das 4,1-fache des weltweiten Durchschnitts gestiegen. Die Rechnungen kanadischer Zulieferer waren 3,1-mal so hoch wie der Durchschnitt.

„Das Jahr 2022 hat ein neues Kapitel in einem Zeitalter der Unsicherheit für den Welthandel aufgeschlagen“, so Lanng weiter. „In dieser neuen Realität werden Rückstände und Pannen zur neuen Normalität, während Konnektivität, Transparenz und Agilität eher grundlegende Betriebsprinzipien als vage Ambitionen sind. Die Globalisierung mag zwar auf dem Rückzug sein, aber die Widerstandsfähigkeit wird davon abhängen, dass die Lieferketten vernetzter, vielfältiger und kollaborativer werden als je zuvor.“ 

Weitere Index-Daten nach Branchen und IT-Ausgaben

Transport & Logistik: Die geopolitischen Spannungen und die erneuten Abriegelungen in China stellen die Logistikunternehmen vor große Herausforderungen. Die Tradeshift Daten zeigen, dass das Transaktionsvolumen in der gesamten Transport- und Logistikbranche weiterhin höher ist als erwartet, was auf einen harten Wettbewerb um begrenzte Kapazitäten hindeutet. 

Hersteller: Die Lieferketten des verarbeitenden Gewerbes sind mit einer schwierigen Kombination aus Lieferkettenengpässen und steigenden Rohstoffpreisen konfrontiert. Die Tradeshift Daten zeigen, dass das Transaktionsvolumen im ersten Quartal 25 Prozent unter dem erwarteten Niveau lag. Ein Großteil dieser Verlangsamung ist auf einen steilen Rückgang der Auftragseingänge zurückzuführen, die das erste Quartal 2022 auf dem niedrigsten Stand seit der ersten COVID-Sperre beendeten. 

Einzelhandel: Die Transaktionen in den Lieferketten des Einzelhandels scheinen sich nach einer Phase extremer Volatilität in den letzten zwei Jahren stabilisiert zu haben. Die Aktivität bleibt jedoch leicht hinter den Erwartungen zurück, wobei eine Kombination aus steigenden Kosten und schwindendem Verbrauchervertrauen wahrscheinliche Faktoren sind.

Technologie-Einkäufe: Auch die Einkäufe von Software und Technologie lagen im ersten Quartal unter den Erwartungen. Umfragedaten von Enterprise Technology Research zeigen, dass einige Käufer im ersten Quartal angesichts der makroökonomischen Bedingungen eine abwartende Haltung eingenommen haben. 

Q1 2022 Index of Global Trade Health

Den vollständigen Q1 2022 Index of Global Trade Health in englischer Sprache finden Sie unter: https://tradeshift.com/global-trade-report/

Quellennachweis: 

1.     https://tradeshift.com/global-trade-report/
2.     https://www.nasdaq.com/articles/ukraine-conflict-adds-to-european-supply-chain-snags
3.     https://www.just-auto.com/special-focus/ukraine-crisis/ukraine-harness-shortage-hits-vw-report/
4.     https://www.reuters.com/markets/europe/ukraine-conflict-adds-european-supply-chain-snags-2022-03-09/
5.     https://www.opportimes.com/reshoring-and-nearshoring-will-relocate-up-to-26-of-world-production/
6.     https://www.blackrock.com/corporate/investor-relations/larry-fink-ceo-letter
7.     https://siliconangle.com/2022/04/01/new-data-c-suite-taps-brakes-tech-spending/

Lizenz: Pressemitteilung

In zehn Schritten in die Cloud

Der Autor Marcus Eisele ist Developer Strategist bei Red Hat

Die Cloud-Nutzung ist mit verschiedenen Herausforderungen verbunden. Dabei geht es keineswegs nur um technische Fragestellungen. Ebenso wichtig ist ein strategisches und stufenweises Vorgehen auf dem Weg in die Cloud. Red Hat zeigt auf, wie Unternehmen in zehn Schritten die erfolgreiche Cloud-Reise antreten können.

In der IT-Welt und vor allem in Bezug auf die Cloud dreht sich vieles um Container und ihre Orchestrierung. Thematisiert werden Packungsdichten oder Microservices. Aber über den konkreten Weg in diese verheißungsvolle neue Welt wird nur selten gesprochen. Dabei zeigen zehn einfache Überlegungen zur Cloud-Nutzung, worauf zu achten ist.

1. Die Cloud-Reise beginnt im Kopf
Mit dem Schritt in die Cloud beweisen Unternehmen Mut zur Veränderung. Zwangsläufig sind damit auch organisatorische Änderungen verbunden, denn eines muss klar sein: Die Cloud ist nicht nur eine weitere Kostenstelle für die IT, sondern ein Paradigmenwechsel, der mit neuen Anwendungsarchitekturen und Prozessen die Produktionszeiten verkürzt. Vorhandene starre Prozesse müssen dabei beseitigt werden, um Flexibilität und Geschwindigkeit in der gesamten Organisation zu etablieren. Die zugrundeliegende Technik ebnet dafür schließlich nur den Weg.

2. Die richtigen Metriken müssen definiert werden
In der Cloud wird viel gemessen, beispielsweise die Anzahl von Containern oder Microservices, die Durchlaufzeiten oder der Speicherverbrauch. Auch Bedarfsprognosen werden erstellt. Aber sind diese Werte wirklich wichtig? Schließlich geht es um den Erfolg. Richtig ist: Ein Erfolg kann erst belegt werden, wenn er messbar ist. Unternehmen sollten somit frühzeitig festlegen, wie ihr Erfolg aussehen soll und welche Ziele sie erreichen wollen. Auf dieser Basis können sie dann die Metriken festlegen.

3. Entwickler dürfen nicht eingeschränkt werden
Entwickeln ist immer auch eine kreative Kunst. Wie bei jeder Kunst steckt auch in einer Entwicklung bahnbrechendes Potenzial oder großes Chaos. Das eine ohne das andere geht nicht. Folglich dürfen Entwickler in ihrer Tätigkeit und Produktivität auch nicht begrenzt werden.

4. Daten sind die Treiber der Strategie
Keine moderne Anwendung, egal in welcher Architektur, kommt ohne Daten aus. Sie waren, sind und werden auch zukünftig die Währung digitaler Unternehmen bleiben. Ihr digitales Gewicht entscheidet über den Ort ihrer Lagerung. Und dieser Ort bestimmt dann auch die Cloud-Strategie.

5. Selber bauen ist aufwendig
Beim Hausbau heißt es oft: Wer selber baut, wird nie fertig. Alternativen sind Kauf oder Miete. Auch die Cloud-Nutzung kann man damit vergleichen und es gibt verschiedene Angebote. Angesichts der vielfältigen Aufgaben hinsichtlich Plattformfunktionen, Architektur, Kubernetes oder Security ist die Do-it-yourself-Variante selten die beste Wahl. Einfacher ist es, die passende Cloud zur konkreten eigenen Anforderung auszuwählen.

6. Die eigenen Anwendungen muss man kennen
Entwickler begleiten ihre Anwendungen von der Idee bis zum produktiven Leben. Und alle haben unterschiedliche Anforderungen. Manche müssen extrem gut skalieren, andere nur einmal im Jahr arbeiten. Diese Unterschiede sollte ein Unternehmen auf dem Weg in die Cloud kennen und folglich seine Applikationen kategorisieren.   

7. Migrationsszenarien sind festzulegen
Nur weil sich die Infrastruktur ändert, müssen Anwendungen nicht automatisch neu entwickelt werden. Manchmal reicht es schon, Bestehendes einfach zu migrieren. Vielleicht kann auch eine moderne Erweiterung helfen. Nur was wirklich veraltet ist und so nicht mehr brauchbar ist, sollte eliminiert oder eben neu entwickelt werden. Prinzipiell muss ein Unternehmen anwendungs- und anforderungsspezifisch immer eine geeignete Migrationsstrategie festlegen, sei es Rehosting, Replatforming oder Refactoring.

8. Das Richtige bauen und betreiben
Einfach so in die Cloud geht nicht. Ohne erprobte Baupläne sollte man nicht starten. Dabei geht es um Aspekte wie Architektur, Produkte, Entwicklung und Betrieb.

9. Der Betrieb ist die hohe Kunst der Cloud
Egal wie schön etwas verpackt ist, der Teufel steckt zumeist im alltäglichen Umgang. Das betrifft auch den Betrieb. Ist alles nach starren Prozessen ausgerichtet, ist auch der Stillstand vorprogrammiert. Auch hier gilt es, die richtigen Metriken für Site Reliability Engineering (SRE) zu finden, das unter anderem auf die Optimierung und Automatisierung von Operations-Aufgaben abzielt. 

10. Innovationen starten mit Zusammenarbeit
Unternehmen müssen ihre Teams zusammenbringen. Nur durch Kollaboration kann schließlich etwas Innovatives entstehen. Geniale Ideen sind immer der Weg in die Zukunft. Und mit Open Source ist sie nur einen kleinen Schritt weit entfernt.

Der Weg in die Cloud wird kein leichter sein, könnte man sagen. Ohne richtige Vorbereitung und Strategie ist diese Einschätzung auch zutreffend. Die genannten Schritte in die Cloud können aber eine erste Hilfestellung geben, um die Cloud-Reise gefahrlos und letztlich erfolgreich anzutreten.

Der Autor Marcus Eisele ist Developer Strategist bei Red Hat

Moderne Marktmanipulation: Cyberkriminelle zunehmend agressiver gegen Finanzunternehmen

Der fünfte jährliche VMware-Report über moderne Banküberfälle zeigt, dass zerstörerische Angriffe auf Finanzinstitute und Ransomware weiter massiv zunehmen. Thomas Herrguth, Director VMware Financial Services, ordnet die Lage ein und zeigt Auswege.

Wir alle erinnern uns an die spektakulären Banküberfälle unserer Kindheit. Ein bisschen von aufgeregtem Voyeurismus war zugebenermaßen dabei, wenn man in den Nachrichten die Live-Bilder von Bankräubern in Sturmhauben verfolgte, die mit der erbeuteten Million von einem sorgenfreien Leben auf einer einsamen Insel träumten. Oder welches Kind verfolgte nicht mit Spannung die immer wieder erfolglosen Einbruchversuche der Panzerknacker in den Donald Duck Comics? Der von der Zeichentrickfigur inspirierte „Dagobert“ mit seinem legendären Erfindergeist war natürlich auch ein Krimineller, aber eine Spur von Faszination über sein Ideenreichtum schwang bei der Berichterstattung über seine Taten immer mit.

Moderne Banküberfälle sind unsichtbar

Kaum etwas anderes spiegelt so sehr den Wandel unserer Zeit wider wie die Veränderung der Banküberfälle. Die physischen Angriffe haben sich quasi komplett auf die virtuelle Ebene verlagert. In seinem fünften jährlichen Report „Modern Bank Heists“ berichtet VMware über das sich verändernde Verhalten von Cyberkriminellen und die defensive Ausrichtung des Finanzsektors. Befragt wurden führende CISOs und Sicherheitsverantwortliche der Finanzbranche. In unserem Bericht stellen wir fest, dass Finanzinstitute vermehrt mit zerstörerischen Angriffen konfrontiert und noch mehr als in den vergangenen Jahren Opfer von Ransomware werden. Ausgeklügelte Cyberkriminalitätskartelle gehen schon lange über den reinen Überweisungsbetrug hinaus. Sie zielen vor allem darauf ab, Börsenmaklerkonten zu übernehmen und in Banken einzudringen.

Thomas Herrguth zeigt in seinem Beitrag Handlungsoptionen auf.

Man muss sich die Dimension einmal vor Augen halten: In dem Bericht gaben 63 % der Finanzinstitute an, dass sie eine Zunahme zerstörerischer Angriffe erlebt haben. Darüber hinaus hatten 74 % im vergangenen Jahr mindestens einen Ransomware-Angriff zu verzeichnen. Ich glaube nicht, dass früher auch nur annähernd jede zweite Bank regelmäßig von Bankräubern heimgesucht wurde.

Zumindest sehen sich die Bankangestellten nicht mehr mit vorgehaltener Pistole bedroht…

Aber die Erfolgsaussichten der Kriminellen sind durchaus hoch: Denn die große Mehrheit (63%) der angegriffenen Organisationen bezahlte im letzten Jahr das im Zuge von Ransomware-Attacken geforderte Lösegeld.

Es geht nicht nur um’s Geld

Der VMware-Report stellt auch fest: Anders als früher, als es um den schlichten Gelddiebstahl ging, sind die modernen Bankräuber aber auch an Informationen interessiert. Cyberkriminelle Kartelle haben es inzwischen vor allem auf nicht-öffentliche Marktinformationen abgesehen, z. B. Gewinnschätzungen, öffentliche Angebote und wichtige Transaktionen. Tatsächlich waren 2 von 3 (66 %) Finanzinstitute von Angriffen betroffen, die auf Marktstrategien und Information, die für Aktieninsiderhandel nützlich sind, abzielten. Diese moderne Marktmanipulation ist nichts anderes als Wirtschaftsspionage. Übrigens gab die Mehrheit der befragten Finanzinstitute an, dass die meisten Angriffe aus dem Cyberspace aus Russland zu verzeichnen sind – und das schon im Jahr 2021.

Island Hopping – eine fortgeschrittene Cyberangriffstechnik

Hierzu passt auch folgende Erkenntnis aus der VMware-Umfrage: 60 % der Finanzinstitute verzeichneten eine Zunahme des „Island Hopping“. Das sind 58 % mehr als im Vorjahr. Der Begriff „Island Hopping“ stammt übrigens aus der militärischen Kriegsführung, bei der gezielt einzelne Inseln besetzt werden. In der Cyberwelt gehen Kriminelle ähnlich vor: Das von den Hackern ausgesuchte Zielunternehmen wird durch kleinere Unternehmen infiltriert. Dabei handelt es sich beispielsweise um externe Personal-, Gehaltsabrechnungs-, Marketing- oder Gesundheitsunternehmen, die eng mit dem Hauptunternehmen zusammenarbeiten. Da kleinere Firmen häufig über anfälligere Sicherheitssysteme verfügen, sind sie für Hacker ein leichtes Ziel. Wenn die Kriminellen erst einmal ein Partnerunternehmen gehackt haben, können sie durch E-Mails oder gestohlene Zugangsdaten viel leichter an sensible Daten des Hauptunternehmens gelangen.

Der Anstieg beim Island Hopping steht für eine neue Ära der Kriminalität, in der das Kapern der digitalen Transformation eines Finanzinstituts zum ultimativen Ziel geworden ist.

67 % der Finanzinstitute beobachteten auch die Manipulation von Zeitstempeln, einen Angriff namens Chronos, benannt nach dem Gott der Zeit in der griechischen Mythologie.   Besonders bemerkenswert ist, dass 44 % der Chronos-Angriffe auf Marktpositionen abzielten. Und: nahezu alle (83 %) sind über die Sicherheit von Kryptowährungsbörsen besorgt. Der Vorteil für Cyberkriminelle, die es auf Kryptowährungsbörsen abgesehen haben, besteht darin, dass erfolgreiche Angriffe sofort und direkt in Cybergeld umgewandelt werden können.

Was können wir tun?

Alarmanlagen installieren, Tresorwände erweitern, Elektrozäune ziehen?

Finanzinstitute wissen, dass die Angreifer von heute von physischen Raubüberfällen zu virtuellen Übernahmen übergegangen sind. Die Mehrheit der Finanzinstitute plant, ihr Security-Budget in diesem Jahr um 20 bis 30 % zu erhöhen. Zu den wichtigsten Prioritäten für Investitionen gehören die erweiterte Erkennung und Reaktion (Extended Detection and Response, kurz XDR), Workload-Sicherheit und mobile Security. Das Wichtigste wird die Collaboration sein: Die Zusammenarbeit zwischen der Cybersicherheits-Community, staatlichen Stellen und dem Finanzsektor ist von entscheidender Bedeutung, um diese zunehmenden Bedrohungen zu bekämpfen. Ohne diese wird es im zunehmend geopolitischen Cyberkrieg nicht gehen.


Über den VMware Modern Heists Report 5.0

VMware führte im Februar 2022 eine Online-Umfrage zu den sich entwickelnden Bedrohungen der Cybersicherheit für Finanzinstitute durch. 130 CISOs und Sicherheitsverantwortliche des Finanzsektors aus der ganzen Welt nahmen daran teil. Davon haben 41 Prozent der Finanzinstitute ihren Hauptsitz in Nordamerika, 29 Prozent in Europa, 16 Prozent im Asien-Pazifik-Raum, 12 Prozent in Mittel- und Südamerika und 2 Prozent in Afrika. Die Befragten wurden gebeten, nur eine Antwort pro Frage auszuwählen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hyperautomatisierung – der Mensch im Zentrum

Timo Weber, Advisory Solution Consultant, Platform Intelligence bei Servicenow, beschreibt, was Hyperautomation bedeutet und warum sie nur dann erfolgreich eingesetzt werden kann, wenn sie um den Menschen herum gebaut wird.

Der Begriff Automatisierung erweckt bei vielen Menschen nicht unbedingt positive Assoziationen: Roboter, Künstliche Intelligenz, maschinelles Lernen und zum Schluss die Redundanz menschlicher Arbeitskräfte. Die Pandemie hat viele Unternehmen jedoch beinahe über Nacht dazu gezwungen, Prozesse zu verändern, zu digitalisieren oder zu automatisieren. Dabei zeigt sich: Automatisierung ist nichts, wovor man Angst haben muss, denn sie hat viele Vorteile. Während also die Automatisierung vermehrt in Fahrt kommt, sprechen wir bereits von der Hyperautomatisierung. Was klingt wie ein großer Schritt, macht aber durchaus Sinn, denn Hyperautomation rückt den Menschen und seine Bedürfnisse ins Zentrum und ist die logische Konsequenz für die Unternehmen von morgen.

Timo Weber: Die Hyperautomatisierung löst nicht von allein alle Herausforderungen, doch will eine Firma künftig am Markt erfolgreich sein und bleiben, gehört Automatisierung unausweichlich dazu.

Die ersten Schritte zur digitalen Transformation effizienter gestalten

Spätestens seit Beginn der Pandemie stehen viele Unternehmen täglich vor den Herausforderungen der digitalen Transformation. Die jeweiligen Fortschritte sind dabei sehr verschieden. Während viele Firmen bereits sehr weit gekommen sind, stehen andere Unternehmen vor einer scheinbar unüberwindbaren Aufgabe. Denn häufig sammeln sich über Jahre und Jahrzehnte der Unternehmensgeschichte verschiedene Systeme an, die eine (schnelle) Transformation erschweren. Bei manchen Tools erweckt es den Eindruck, als hätten sie über die lange Zeit der Nutzung eine Art Eigendynamik entwickelt, sie sind daher oft nur schwer zu ändern oder gar zu ersetzen. Keine Frage, diese gewohnten Systeme haben oft über Jahre gute Dienste geleistet, dennoch sind sie auch zu Zeitfressern mutiert, deren Pflege Ressourcen bindet und Prozesse unproduktiv werden lässt. Ungewollt stehen in vielen Unternehmen oft nicht mehr die Mitarbeiter und deren produktive Arbeit im Fokus, sondern es dreht sich vielmehr um die Pflege der technischen Hilfsmittel. All das wirkt sich auch negativ auf die Workflows im Unternehmen aus und kostet unnötige Arbeitskraft und Ressourcen. Wer sein Geschäft nachhaltig durch die digitale Transformation leiten möchte, sollte wieder auf den Menschen fokussieren, Hyperautomatisierung bietet dafür Lösungen. Eine Kerntechnologie dabei ist die Robotic Process Automation (RPA). Sie ermöglicht, dass die zeitfressenden, repetitiven Prozesse von Software-Robotern übernommen werden. Dabei ersetzen die Maschinen nicht die menschliche Arbeitskraft. Denn auch die Technologie kommt an einigen Stellen an ihre Grenzen. Bots können komplexe Aufgaben manchmal nicht allein lösen, sodass weiterhin menschliche Intelligenz von Nöten ist, um eine vollständige digitale Transformation zu vollziehen. Die Hyperautomation ist dabei auf der Prozessebene angesiedelt. Ziel ist es nicht ausschließlich, Prozesse und Workflows zu automatisieren, sondern diese zu erkennen, zu vereinfachen, zu verbessern, zu messen oder auch zu (neu) gestalten.

Hyperautomation umsetzen

Wie bereits festgehalten, hängt der Startpunkt der digitalen Transformation und der Hyperautomatisierung davon ab, auf welchem Stand der Automatisierung sich das Unternehmen befindet. Gerade bei Firmen, die bisher noch keine Berührungspunkte damit hatten, ist es von enormer Bedeutung mit kleinen Projekten zu beginnen. Darüber hinaus sollten die Unternehmen ihre Mitarbeiter jederzeit im Blick behalten, sie frühzeitig in das Projekt einbeziehen, ihre Bedenken ernst nehmen und sie selbst die positiven Auswirkungen erfahren lassen. Denn die ersten Schritte in Richtung Hyperautomation können Unternehmen bereits helfen zu erkennen, welche Arbeitsschritte Mitarbeiter machen, die sie nur aufgrund der genutzten Tools tun und nicht, weil es Teil ihres Aufgabenbereichs ist. Durch den Einsatz von Process Mining beispielsweise können zeitraubende Prozesse aufgedeckt und besser verstanden werden. Die Erkenntnisse, die durch den Einsatz dieser Technik gewonnen werden, können Unternehmen wiederum nutzen, um diese Prozesse zu rationalisieren und zu automatisieren und damit den Mitarbeitern wiederholende und ermüdende Routineaufgaben ersparen. In diese Richtung zielt auch die Partnerschaft von Celonis, als führendem Anbieter von Process Mining, mit ServiceNow.

Auch für bisher völlig ungeschulte Mitarbeiter kann die Nutzung einer Low-Code Plattform ein erster Berührungspunkt mit dem Thema Hyperautomation sein. Als sogenannte Citizen Developer können sie mit kaum Erfahrung und Know-how Apps entwickeln, um alltägliche Prozesse darzustellen, zu optimieren und zu automatisieren. Möglich ist das zum Beispiel durch visuell-basierte Module, die automatisch Code generieren.

Für Unternehmen, die bereits einen Schritt weiter sind und schon Prozesse automatisiert haben, stellt sich zu Beginn die Frage, wie sich die unterschiedlichen Technologien wie beispielweise ML, KI, Low-Code Anwendungen oder RPA kombinieren lassen, oder ob es noch fehlende Anwendungen gibt.

Das Beratungs- und Analyseunternehmen Gartner beschreibt die Umsetzung der Hyperautomation in drei Schritten:

  1. Geschäftliches Ziel definieren
    Unternehmen sollten sich vor der Umsetzung fragen, was die Hyperautomation bewirken soll und daraus ein konkretes Ziel, wie beispielsweise eine Umsatzsteigerung oder eine Risikominimierung, ableiten.
  1. Prozessoptimierung
    Vor der Implementierung sollten Unternehmen ihre bestehenden Prozesse bereits so weit wie möglich skalieren und optimieren. Das erspart doppelte Arbeit und führt dazu, dass die Kombination verschiedener Tools im Anschluss direkt zu spürbaren Erfolgen führt.
  1. Auswahl und Kombination von Technologien und Tools
    Passt RPA, KI und ML zu meinem Unternehmen? Die Auswahl der richtigen Tools und deren Kombination miteinander ist ein entscheidender Schritt, der gut durchdacht sein sollte. Denn die IT-Werkzeuge müssen den Anforderungen des jeweiligen Unternehmens entsprechen, möglichst hoch skalierbar sein und alle Sicherheitsfragen klären.

Zusammenarbeit von Software und Mensch

Die Hyperautomatisierung löst nicht von allein alle Herausforderungen, vor denen Unternehmen im Rahmen der digitalen Transformation stehen. Doch klar ist: Will eine Firma künftig am Markt erfolgreich sein und bleiben, gehört Automatisierung unausweichlich dazu.

Hyperautomation kann Prozesse beschleunigen und sich den Bedürfnissen von Unternehmen und Mitarbeitern anpassen, um Workflows zu verbessern. Es ist daher nicht gleichzusetzen mit lückenloser Prozessautomation. Der Einsatz entsprechender Tools kann verschiedene Unternehmensprozesse verändern, was sich nicht nur auf die Arbeitskraft der Menschen, sondern auch auf die Geschwindigkeit des Outputs der Firmen auswirkt. Software und Mensch arbeiten Hand in Hand. Erst trainieren Mitarbeiter die Tools und lehren sie einfache Entscheidungen selbst zu treffen. Anschließend können Mensch und Maschine in eine wirkliche Zusammenarbeit gehen. Der Roboter und auch ML arbeitet eigenständig und entlastet den Menschen, der aber weiterhin ein wichtiger Entscheidungsträger bleibt. Denn die korrekte Anwendung der Tools sowie die Interpretation und Auswertung der Daten und Analysen bleiben weiterhin Aufgaben, die eine menschliche Denkweise und vielleicht sogar Emotionalität erfordert. Der Mitarbeiter wird durch Hyperautomation nicht ersetzt. Die Technologie bietet eine Grundlage, deren Ergebnisse von Menschen weiter genutzt werden können, die Arbeitsproduktivität erhöhen und den Menschen mehr Raum für Kreativität ermöglicht.

Über den Autor

Timo Weber arbeitet seit mehr als 15 Jahren in der IT-Branche und ist heute Advisory Solution Consultant, Platform Intelligence bei Servicenow. In dieser Rolle verantwortet er die Bereiche Predictive Intelligence, Virtual Agent, Performance Analytics und ist Experte für Automation und Hyperautomation.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Was bleibt: Der hybride Arbeitsplatz

Die Arbeitswelt befindet sich in einem stetigen Wandel. Längst lassen sich viele Jobs und Tätigkeiten ortsunabhängig erledigen. Dennoch war es für den überwiegenden Teil der Menschen völlig normal, täglich ins Büro zu gehen – auch, weil das vom Arbeitgeber so gewünscht war. Mit Corona hat sich das schlagartig geändert: Von einem Tag auf den anderen fanden sich viele Arbeitende im Homeoffice wieder. Unternehmen mussten ihren Mitarbeitern umgehend vernetzte digitale Arbeitsplätze zur Verfügung stellen, damit diese sicher und zuverlässig von verschiedenen Standorten aus erreichbar waren. Klaus Schulz, Manager Portfolio & Offering Management bei Konica Minolta Business Solutions Deutschland zeigt in diesem Beitrag auf, wie Lösungen für digitale Arbeitsmodelle und den intelligent vernetzten Arbeitsplatz aussehen.

Der Arbeitsalltag im klassischen Büro ist dem „ArbeitsÜBERALLtag“ gewichen: Mobiles und hybrides Arbeiten dominieren in vielen Unternehmen und eine Rückkehr zum alten Status Quo ist nicht zu erwarten. Die vergangenen Monate belegen, dass digitale Arbeitsmodelle erfolgreich möglich sind und die Mitarbeitenden Leistungen auch ohne direkte Anwesenheit im Unternehmen erbringen. Mobile Work ist damit ein Teil der neuen, hybriden Arbeitswelt. Dabei ist es besonders wichtig, gleiche technische Rahmenbedingungen zu schaffen, die Mitarbeitende auch im Büro vorfinden – vom Zugriff auf relevante Dateien über Datensicherheit bis hin zu Kommunikationstools. Das Fundament bilden vernetzte Lösungen, die Teams eine standortunabhängige Zusammenarbeit ermöglichen – angefangen von der IT-Infrastruktur bis hin zu spezifischen Geschäftsanwendungen oder Geräten, die aus der Ferne zugänglich sind.

Intelligenter Arbeitsplatz vernetzt Menschen, Arbeitswelten und Informationen

Die Dringlichkeit der digitalen Transformation und des Cloud-Computings in Unternehmen ist rasant gestiegen. Gefragt sind passende Werkzeuge und entsprechendes Know-how. Damit Mitarbeitende im Homeoffice genauso schnell und effizient arbeiten können wie im Büro, ist eine stabile Netzwerkinfrastruktur mit passenden IT-Lösungen für einen intelligent vernetzten „Digital Workplace“ gefragt. Der Arbeitsplatz daheim muss jederzeit den vollständigen Remote-Zugriff auf geschäftskritische Arbeitsabläufe und Daten ermöglichen. Umfassende Komplettlösungen aus Hardware, Software sowie einer ganzen Bandbreite an Applikationen und Managed Services sind dafür besonders geeignet. Sie vereinfachen Prozesse, automatisieren Arbeitsschritte und fördern die unternehmensweite Zusammenarbeit. Im Fokus stehen dabei die individuellen Bedürfnisse der Mitarbeitenden – und genau darauf ist der intelligente Arbeitsplatz ausgerichtet und verbindet Menschen, Arbeitswelten und Daten bestmöglich miteinander.

Klaus Schulz, Manager Portfolio & Offering Management bei Konica Minolta Business Solutions Deutschland, heißt Unternehmen in der Cloud willkommen zum „ArbeitsÜBERAlltag“.

Mehrwert durch Daten

Allerdings hat jede Organisation ihre ganz eigenen Bedürfnisse und einen unterschiedlichen Digitalisierungsgrad. Um diesen zu steigern, müssen die tatsächlichen Anforderungen sowie die Potenziale innerhalb eines Unternehmens identifiziert werden. Nur so lässt sich ein echter Mehrwert durch Daten generieren und der beste Weg zum Betrieb des idealen, intelligent vernetzten Arbeitsplatzes einschlagen.

Von essenzieller Bedeutung ist ein zielgerichteter, digitaler Transformationsprozess. Dieser stellt Betriebe meist vor große Herausforderungen. Die Geschwindigkeit von Unternehmensabläufen ist ein entscheidender Wettbewerbsfaktor, deshalb erhält das moderne Informationsmanagement einen besonderen Stellenwert. Strukturierte Geschäftsprozesse sowie eine sichere IT-Infrastruktur sind von grundlegender Bedeutung, um auf den heutigen Märkten wettbewerbsfähig zu bleiben.

Bei einer erfolgreichen Transformation unterstützen kompetente Partner, die alles aus einer Hand anbieten: von diversen IT-Lösungen über Smart Managed Services bis hin zu klassischen Drucklösungen, die sich einfach und unkompliziert integrieren lassen. Ideale Wegbegleiter sind moderne Multifunktionssysteme, die nicht nur Dokumente digitalisieren, sondern Menschen, Orte und Systeme vernetzen – egal ob beim Drucken, Scannen, Kopieren oder Digitalisieren von Unterlagen. Entsprechende Services lassen sich auf benutzerfreundlichen Plattformen individuell zusammenstellen und vereinfachen die tägliche Büroarbeit auf allen internetfähigen Geräten – vom Smartphone bis zum Laptop. Oberste Priorität haben dabei ausgereifte Sicherheitskonzepte für das Netzwerk und umfassende Sicherheitsfeatures bei den Multifunktionssystemen (MFP). Auch hier gibt es maßgeschneiderte Lösungen, die entsprechende Zugriffskontrollen und -rechte, Einstellungen für die MFP-Netzwerksicherheit sowie Aktivierung von Sicherheitsfunktionen für Festplatten und Hauptspeicher bieten.

Mehr Zeit für das Kerngeschäft

Cloud-Services wie Printing sowie das Management druck- und dokumentennaher Cloud-Prozesse beschleunigen tägliche Routineaufgaben und schaffen so mehr Zeit für das Kerngeschäft. Die Dienste sind so gestaltet, dass sie Unternehmen einen einfachen Weg von papier- zu cloudbasierten Prozessen bieten und damit auch die Richtung der Digitalisierung aufzeigen. Weitere wesentliche Anwendungen sind cloudbasierte Lösungen zur Zusammenarbeit, die die Synchronisierung von Dokumenten und den sicheren Datenaustausch managen. Mitarbeiter können damit ihre eigenen Arbeitsstrukturen erstellen und verwalten. Frühere Versionen von Dokumenten lassen sich unverändert festhalten und zuverlässig individuelle Eingaben als auch Beiträge speichern. Die Möglichkeit, Dateien und Dokumente zu kommentieren und automatisch Benachrichtigungen an Beteiligte zu senden, erhöht die Effizienz bei der gemeinsamen Arbeit an Dokumenten.

Der Mensch im Mittelpunkt

Arbeitsweisen wie Mobile Work und hybrides Arbeiten sind längst zur Normalität geworden. Mitarbeiter möchten auch in Zukunft die Wahl haben, wie, wann und ganz wesentlich von wo aus sie am besten arbeiten. Trotzdem werden Büros nicht gänzlich aussterben, denn kreative Teamarbeit wird auch in Zukunft im Büro stattfinden. Ein weiterer wichtiger Aspekt ist der zwischenmenschliche Austausch mit Kolleg:innen beim gemeinsamen Mittagessen oder der Kaffeepause, dies trägt erheblich zur Arbeitsatmosphäre bei. Damit künftig das Zusammenspiel von Mobile Work, hybridem Arbeiten und dem klassischen Büroalltag funktionieren kann, braucht es eine andere Führungskultur, die auf Vertrauen statt Kontrolle basiert. Die Gestaltung der hybriden Arbeitswelt wird künftig im Fokus stehen, denn der „New Way of Work“ stellt den Menschen wieder in den Mittelpunkt. Daher müssen Unternehmen sich bei der Implementierung neuer Technologien zukünftig auf das „Warum“ und nicht auf das „Wie“ fokussieren. Und dazu benötigt es entsprechende Büros, die zu Begegnungsstätten werden, in denen es Spaß macht, sich zu treffen und gemeinsam zu arbeiten.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Softwarerisiko ist ein unternehmerisches Risiko

Zeit für Führungskräfte jetzt aktiv zu werden

Es ist fast schon ein Gemeinplatz die Aussage, dass heute jedes Unternehmen ein Softwareunternehmen ist. Aber was genau ist damit gemeint? Ein Softwareunternehmen zu sein, bringt zunächst einmal beides mit sich – Chancen ebenso wie Risiken. Die Chancen liegen eindeutig in den potenziellen Wettbewerbsvorteilen.

Was die Risiken anbelangt, ist es nicht ganz so simpel. Das liegt nicht zuletzt daran, dass die Risiken oft nicht wirklich verstanden werden und, dass sie seitens der Führungsebene unzureichend gemanagt werden. In diesem Gespräch erläutert Jason Schmitt, was Unternehmens- und Technologie-Leader tun sollten, um ihr Unternehmen erfolgreich zu transformieren und gleichzeitig die Software-inhärenten Risiken in den Griff zu bekommen.

Herr Schmitt, wie verändert die digitale Transformation die Beziehung eines Unternehmen zu Software?

Unternehmen betreiben die digitale Transformation nicht um ihrer selbst willen. Sie ist Mittel zum Zweck, mit dem Unternehmen sich Wettbewerbsvorteile verschaffen wollen. Software fungiert dabei als Enabler. Das Ziel ist ja nicht, mehr digitale Assets zu schaffen. Vielmehr geht es darum, die Leistungsfähigkeit der Technologie im Sinne der Transformation zu nutzen. Entweder durch die Automatisierung aktueller Prozesse oder um die Kundenerfahrung/Customer Experience neu zu gestalten. Software eröffnet neue, unternehmerische Wege, aber sie birgt auch Risiken.

Welchen Softwarerisiken sind Unternehmen aktuell ausgesetzt? 

Es gibt eine ganze Reihe von Risiken, die mit Software verbunden sind. Dazu zählen eine mangelnde Softwarepflege grundsätzliche Sicherheitsbelange und die Zuverlässigkeit von Software.

Diese Risiken entstehen, weil Unternehmen dem Thema Sicherheit bei der Entwicklung, Beschaffung und dem Management ihrer geschäftskritischen Software noch immer keine Priorität einräumen.

Wir unterstützen Unternehmen dabei, Sicherheit deutlich früher in den Prozess einzubeziehen.

Jason Schmitt



Unser Interviewpartner

Jason Schmitt ist General Manager der Synopsys Software Integrity Group. In dieser Position kombiniert Schmitt sein Wissen im Bereich Sicherheit mit seiner Expertise bei der Bereitstellung von SaaS- und Cloud-basierten Lösungen. Sein Ziel ist es, die Art und Weise, wie Unternehmen Software entwickeln und bereitstellen, grundlegend zu verändern.

Es gilt, Firmen dabei zu unterstützen, Innovationen zu beschleunigen und gleichzeitig unternehmerische Risiken zu minimieren.


Es ist wichtig, Vertrauen darin zu schaffen, wie Ihre Software entwickelt, erstellt und getestet wurde – unabhängig davon, ob sie intern entwickelt oder von Dritten bezogen wurde. Denn sobald Sie eine Software einsetzen oder verwenden, tragen Sie auch das damit verbundene Risiko. Schwachstellen in einer Software können Kundendaten und geistiges Eigentum offenlegen. Das wiederum zieht finanzielle und rechtliche Risiken nach sich. Scheinbar harmlose Fehler oder Versäumnisse wachsen sich schnell zu einer existenziellen Bedrohung für ein Unternehmen aus. Versäumt man es, diesen Risiken den nötigen Stellenwert beizumessen, schädigt das in den weitaus meisten Fällen die Reputation. Aber es führt eben auch zu finanziellen und juristischen Konsequenzen.

Inwiefern trägt Open Source Software zu dieser problematischen Gemengelage bei?

Open Source ist nicht per se stärker risikobehaftet. Dennoch ist es hilfreich, an dieser Stelle über ausreichende Transparenz zu verfügen. Wo beispielsweise wurde die Software entwickelt? Von wem? Open Source hat in den letzten Jahren stark an Popularität gewonnen. Nicht zuletzt, weil sie die digitale Transformation unterstützt. Aber wenn Sie Software einsetzen und Sie zu einem wichtigen Bestandteil Ihres Unternehmens machen, wirft das Fragen auf. Fragen, wie genau diese Software entwickelt wurde, aber auch hinsichtlich der Qualität und Zuverlässigkeit. 

Was können Technologieführer tun, um ihre Software besser zu kontrollieren?

Das Wichtigste ist, die Risiken zu priorisieren. Wägen Sie ab, wie hoch der potenzielle Schaden sein könnte und was für Ihr Unternehmen noch innerhalb des Toleranzbereichs liegt.

Gehen Sie bei Ihren Überlegungen davon aus, was für den Betrieb des Unternehmens zwingend notwendig ist. Einige Risikosäulen wie Gesetze und Vorschriften sind nicht verhandelbar. Sie sollten also den Toleranz- und Gefährdungsbereich für Ihre Firma objektiv quantifizieren und qualifizieren. Eine risikobasierte Priorisierung ermöglicht es Ihnen, sich auf das Wesentliche zu konzentrieren. Dann wird Sicherheit auch nicht zu einem Hemmschuh für die Leistungsfähigkeit des Unternehmens.

Wie können Unternehmen das Problem entschärfen, ohne die Produktivität auszubremsen oder Innovationen zu hemmen? 

Die Unternehmensführung sollte sich auf die Geschäftsziele konzentrieren. Und die bestehen in erster Linie darin, Wettbewerbsvorteile zu entwickeln. Zunächst müssen Sie erkennen, dass Software-Risiken nie ein ausschließlich technologisches Problem sind. Sie sind immer auch ein unternehmerisches. Sie sollten sich jederzeit bewusst sein, dass Software die Integrität von Kundenbeziehungen gefährden und die Marktposition des Unternehmens kompromittieren kann.

Sie brauchen Prozesse, die sich mit den Risiken von Software befassen, und zwar sehr früh innerhalb dieses Lebenszyklus – sobald die Software im Unternehmen eingeführt wird. Dies gilt unabhängig davon, ob Sie die Software selbst entwickeln, sie von der Stange kaufen, sie aus einer Open-Source-Distribution herunterladen oder sie sogar auslagern und jemanden mit der Entwicklung beauftragen. Solche Probleme frühzeitig zu erkennen, ermöglicht es Unternehmen, schneller zu handeln und Innovationen voranzutreiben. Und daraus dann strategische Vorteile zu ziehen.

Was empfehlen Sie Ihren Kunden bei der Behebung von Softwarerisiken?

Die meisten Anbieter für Softwaresicherheit arbeiten reaktiv – also mit anderen Worten, wenn es bereits zu spät ist. Wir krempeln diese Vorgehensweise um und setzen auf einen ganzheitlicheren Ansatz. Dabei konzentrieren wir uns darauf, frühzeitig Vertrauen in die Software zu schaffen und aufrechtzuerhalten. Unternehmen sind dann nicht gezwungen, unter Druck zu reagieren, sondern können sich darauf konzentrieren, ihr Geschäft voranzutreiben. Führungskräfte sind dringend gehalten, Software als Business Asset zu betrachten, und zwar von der Entwicklung oder der Einführung im Unternehmen an.

Wir unterstützen Unternehmen dabei, Sicherheit deutlich früher in den Prozess einzubeziehen. Dazu wird sie bereits im Fundament einer Software und in den entsprechenden Entwicklungsprozessen verankert. Indem Sie eine systematische Methode zur Entwicklung Ihrer Software verwenden und weiterentwickeln, wird sie zu einem vertrauenswürdigen Asset. Statt zu Etwas, das per se verdächtig ist…