Die Cloud kurbelt die Digitalisierung im Mittelstand an​

Kleine und mittelständische Unternehmen sehen in der Digitalisierung noch viel zu oft eine Last. Dabei bietet sie große Vorteile, wie die Entwicklung neuer Geschäftsfelder und größerer, internationaler Kundenstämme.

Die Einführung neuer Technologien braucht Zeit und die Mitarbeiter entsprechende Skills und Know-how. Die Reise zu beginnen ist dennoch ohne großen Aufwand möglich, wenn die Planung gut durchdacht ist.

Dass sich der Weg lohnt, zeigen die steigenden Umsätze digitaler Unternehmen, während analoge Betriebe es schwer haben, wettbewerbsfähig zu bleiben. Zoho rät kleinen und mittelständischen Unternehmen daher, die folgenden drei Schritte auf ihre Digitalisierungsagenda zu setzen:


1. Die Macht der Cloud nutzen.

Die Zeit, auf klassische IT-Infrastrukturen zu setzen, ist schon allein aus Kostengründen vorbei: Clouds sind im Preis-Leistungs-Verhältnis deutlich günstiger als Legacy-Systeme im eigenen Betrieb. Vor allem deshalb, weil Unternehmen nicht in eine eigene Server-Infrastruktur investieren müssen. Überdies bieten sie quasi endlose Ressourcen auf Knopfdruck und eine weitreichende Skalierbarkeit. Die Cloud stellt sicher, dass Daten, Anwendungen und Services jederzeit und von überall über das Internet verfügbar sind und aktualisiert sie in Echtzeit. Der Digitalisierung von Betriebsabläufen aller Abteilungen steht so nichts mehr im Wege. Auch als Basis für weitreichendere Analyse- und Monitoring-Szenarien ist die Cloud geeignet. Viele Provider bieten zu diesem Zweck native Services an, die Unternehmen nahtlos in die eigene Infrastruktur implementieren können.


2. In nachhaltige Technologien investieren.

Die Pandemie hat beim Mittelstand für einen Digitalisierungsschub gesorgt: KMUs mussten, wie alle anderen Unternehmen auch, auf die gesetzlichen Homeoffice-Vorgaben reagieren. Viele Betriebe haben in Sachen Software allerdings überstürzt gehandelt und auf temporäre Insellösungen gesetzt. Um ihre Arbeitsmodelle zukunftsfähig zu gestalten, müssen sie aber auf nachhaltige Technologien setzen. Eine Plattform, die alle für den Betrieb genutzten Werkzeuge enthält und die Möglichkeit zur nahtlosen Anbindung von Drittanbieter-Anwendungen bietet, ist das Optimum. Der richtige Ort für eine solche Lösung ist die Cloud, denn sie gewährleistet, dass den Mitarbeitern alle relevanten Daten und Werkzeuge jederzeit und an jedem Ort zur Verfügung stehen. Die Erweiterbarkeit einer solchen Cloud-basierten Software-Plattform ist darüber hinaus für die langfristige Planung unabdingbar, da Unternehmen nur neue Apps und Services reibungslos in den Arbeitsalltag integrieren können, wenn die Umstände es zu gegebener Zeit verlangen. 


„Auch und vor allem kleine und mittelständische Unternehmen können durch die richtige Cloud-basierte Digitalisierungsstrategie schnell vorankommen.“

Suvish Viswanathan, Head of Marketing bei Zoho Europe

3. Den Fokus auf Automatisierung legen.

Umfangreiche Digitalisierungsprojekte fördern die Erstellung und die Speicherung von Daten. Als flexibler und skalierbarer Speicherort ist die Cloud für große Datenmengen besonders gut geeignet und dient somit als Basis für die Nutzung von künstlicher Intelligenz und Machine-Learning-Methoden. Die digitalen Helfer sind für Unternehmen extrem wertvoll und sparen viel Zeit – und damit Geld. Indem sie zum Beispiel relevante Informationen aus den Datensätzen automatisiert extrahieren, zusammenfassen und für die jeweiligen Entscheidungsträger bereitstellen, sind kostbare Mitarbeiterressourcen anderweitig einsetzbar. Je länger und intensiver Experten die künstliche Intelligenz schulen, desto weitreichender können die Automatisierungsszenarien letztlich ausfallen.

Ein konkreter Anwendungsfall, der gerade kleinen und mittelständischen Unternehmen hilft, sind KI-basierte Tools für das Customer Relationship Management (CRM). Sie können mühselige und sich wiederholende Aufgaben automatisiert durchführen, etwa das Anfertigen wöchentlicher Berichte nach einem bestimmten Schema oder das Senden von personalisierten E-Mails an Kunden nach dem Kauf eines Produkts. Elaboriertere Tools identifizieren darüber hinaus Muster in den täglichen CRM-Tätigkeiten und schlagen dazu passende Workflows vor, die die Nutzer dann individuell anpassen und implementieren können. Das spart viel Zeit und schafft Freiheit für die Mitarbeiter, sich um andere wichtige Aufgaben zu kümmern.  

Digitalisierung ist allerdings nur dann möglich, wenn auch die Belegschaft sie mitträgt. Das klappt nur, wenn die digitale Transformation offensichtliche Vorteile für den Einzelnen mit sich bringt. Eine Software-Plattform, die via Cloud-Anbindung jederzeit und an jedem Ort ein einheitliches und positives Nutzererlebnis bietet, ist in dem Zusammenhang Gold wert.

„Digitalisierung ist nicht nur ein Buzzword für Industriegiganten“, betont Suvish Viswanathan, Head of Marketing bei Zoho Europe. „Auch und vor allem kleine und mittelständische Unternehmen können durch die richtige Cloud-basierte Digitalisierungsstrategie schnell vorankommen. Sie kann das Unternehmen zum Beispiel in die Lage versetzen, sich sofort international aufzustellen und damit das Wachstum beschleunigen sowie die Wettbewerbsfähigkeit steigern. Wer die Digitalisierung verschläft, den lassen andere Unternehmen hinter sich.“ ​

Störungen der Lieferketten kosten 2023 rund 920 Mrd. Euro

Die Bewältigung der Herausforderungen erfordert eine Neuerfindung der Lieferketten, während sich eine neue Wirtschaftsordnung abzeichnet.

Die Herausforderungen in den Lieferketten, die sich aus der COVID-19-Pandemie und dem Angriff Russlands auf die Ukraine ergeben, könnten bis zum Jahr 2023 zu einem potenziellen kumulierten Verlust von 920 Milliarden Euro beim Bruttoinlandsprodukt (BIP) der Eurozone führen, so eine heute von dem Beratungsunternehmen Accenture (NYSE: ACN) veröffentlichte Studie. Der potenzielle Verlust entspricht 7,7 Prozent des Bruttoinlandprodukts (BIP) der Eurozone im Jahr 2023.

Die auf der Jahrestagung des Weltwirtschaftsforums in Davos veröffentlichte Studie „From Disruption to Reinvention – The future of supply chain in Europe“ untersucht drei mögliche Szenarien, wie sich der Krieg im kommenden Jahr entwickeln könnte, und modelliert die Auswirkungen jedes Szenarios auf die Eurozone in Bezug auf die Kosten und den Zeitrahmen für die Erholung.

Der Studie zufolge kosteten Lieferketten-Störungen im Zusammenhang mit COVID-19 die Volkswirtschaften der Eurozone im Jahr 2021 rund 112,7 Milliarden Euro an verlorenem BIP. Schon vor dem Krieg untergruben der Materialmangel, Störungen in der Logistik und der Inflationsdruck die wirtschaftliche Erholung in Europa, wobei die wiederauflebende Nachfrage und die vorsorgliche Hortung von Produkten die Lieferketten überforderten.

Der Einmarsch Russlands in die Ukraine hat die Situation noch verschärft. So wird beispielsweise erwartet, dass die Halbleiterknappheit, die sich in der zweiten Jahreshälfte 2022 auflösen sollte, nun bis ins Jahr 2023 andauern wird. Ein langwieriger Krieg könnte zu einem weiteren Verlust von bis zu 318 Milliarden Euro im Jahr 2022 und 602 Milliarden Euro im Jahr 2023 führen, während die Inflation im Jahr 2022 bis zu 7,8 Prozent betragen könnte, bevor sie im Jahr 2023 zurückgeht.

„Obwohl Expert:innen übereinstimmend der Meinung sind, dass Europa in diesem Jahr eine Rezession vermeiden wird, hat die Kombination aus COVID-19 und dem Krieg in der Ukraine das Potenzial, die europäische Wirtschaft erheblich zu beeinträchtigen und eine wesentliche Verlangsamung des Wachstums zu verursachen“, sagte Jean-Marc Ollagnier, CEO von Accenture in Europa. „Während vor dem Krieg eine gewisse Normalisierung der Lieferketten in der zweiten Jahreshälfte 2022 erwartet wurde, rechnen wir jetzt nicht vor 2023 damit, vielleicht nicht einmal vor 2024, je nachdem, wie sich der Krieg entwickelt.“

Die Lösung der Lieferkettenprobleme wird für die Wettbewerbsfähigkeit und das Wachstum Europas entscheidend sein. Laut der Studie hängen bis zu 30 Prozent der gesamten Wertschöpfung in der Eurozone von funktionierenden grenzüberschreitenden Lieferketten ab, entweder zur Materialbeschaffung oder als Zielort für die Produktion.

Neuerfindung der Lieferketten in einer neuen Wirtschaftsordnung

Die Studie legt nahe, dass Lieferketten neu erfunden werden müssen, um einem Paradigmenwechsel gerecht zu werden. Lieferketten wurden in erster Linie zur Kostenoptimierung konzipiert. In der heutigen Welt müssen sie zudem jedoch widerstandsfähig und flexibel sein, um auf zunehmende Versorgungsunsicherheiten reagieren zu können. Gleichzeitig werden sie zu einem wichtigen Wettbewerbsvorteil, um künftiges Wachstum zu ermöglichen. Der Schwerpunkt liegt dabei auf drei Schlüsselbereichen:

  • Widerstandsfähigkeit: Lieferketten müssen in der Lage sein, Störungen zu absorbieren, sich an diese anzupassen und sich von ihnen zu erholen, wann und wo immer Störungen auftreten. Verbesserte dynamische Einblicke, Risikoerkennung und Lösungen zur Risikominderung befähigen Unternehmen, mit plötzlichen Veränderungen in der Lieferkette umzugehen. Szenarioplanung sowie Risiko- und Chancenanalysen helfen dabei, sich an die Entwicklung von Angebot und Nachfrage anzupassen. Netzwerkmodellierung und -simulation, Stresstests, strategische Puffergrößen und Multi-Sourcing-Optionen ermöglichen es Unternehmen, Unsicherheiten zu bewältigen.
  • Relevanz: Lieferketten müssen kundenorientiert und flexibel sein, damit sie sich schnell und kosteneffizient an Veränderungen der Nachfrage anpassen können. Neue Datensätze, einschließlich Echtzeitdaten, innerhalb und außerhalb des Unternehmens über die gesamte Wertschöpfungskette hinweg zu erfassen, wird dabei entscheidend sein. Automatisierung und künstliche Intelligenz werden Unternehmen ermöglichen, neue Datenmuster schnell zu erkennen, um bessere Entscheidungen treffen zu können. Der Übergang von zentralisierten, linearen Liefermodellen zu dezentralen Netzwerken mit On-Demand-Produktion sowie in einigen Fällen die Verlagerung der Produktion näher an den Verkaufsort kann Unternehmen helfen, Kundenerwartungen bei der Auftragserfüllung besser gerecht zu werden.
  • Nachhaltigkeit: Moderne Lieferketten müssen die Nachhaltigkeitsziele von Unternehmen unterstützen, wenn nicht sogar deren Erreichung beschleunigen. Um das Vertrauen der Stakeholder zu gewinnen, müssen Unternehmen ihre Wertschöpfungsketten transparent gestalten, beispielsweise durch Blockchain oder ähnliche Technologien. Eine Verlagerung von linearen hin zu geschlossenen, zirkulären Prozessen, die Abfall reduzieren, wird ebenfalls essenziell sein.

„Transparenz in den Versorgungsnetzwerken, einschließlich der Tier-2- und Tier-3-Lieferanten, ist von entscheidender Bedeutung“, so Kris Timmermans, Leiter des Bereichs Supply Chain & Operations bei Accenture. „Unternehmen müssen von einem Just-in-Time- zu einem Just-in-Case-Ansatz übergehen, indem sie ihre Lieferbasis diversifizieren, alternative Frachtrouten planen, ihre Vertriebszentren flexibel gestalten und Lagerbestände aufbauen. Das hat seinen Preis, aber es ist eine Art ‚Versicherung‘ gegen zukünftige Schocks. Der Schlüssel dazu sind Investitionen in neue Technologien zur besseren Nutzung von Daten – von digitalen Zwillingen und Analysen bis hin zu Lieferketten-Kontrollinstanzen – sowie in das Cloud Continuum, das enorme Rechenleistung auf kostengünstige, flexible und nachhaltige Weise bereitstellt.“

Die Studie hebt auch zwei tiefgreifendere und längerfristige Herausforderungen hervor, die sich aus der Pandemie und dem Krieg ergeben: zum einen die Energiesicherheit, da die europäischen Volkswirtschaften ihre starke Abhängigkeit von Öl- und Gaslieferungen angehen und gleichzeitig ihre Netto-Null-Agenda beschleunigen müssen, und zum anderen das Ungleichgewicht der verfügbaren Talente, das sich aus der alternden Bevölkerung, veränderten Erwartungen der Arbeitnehmenden sowie sich wandelnden Anforderungen an Fähigkeiten ergibt.

Michael Brueckner, Chief Strategy Officer bei Accenture in Europa, sagte: „Der Krieg in der Ukraine wird die Anzahl und Dauer von Unterbrechungen in den Lieferketten erhöhen. Das Ausmaß wird davon abhängen, wie sich der Krieg entwickelt. Es ist nichts Geringeres als eine Neuerfindung erforderlich, da das inflationäre Umfeld, die zunehmende Regionalisierung, die Energiewende und ein angespannter Talentmarkt bereits dabei sind, eine neue Wirtschaftsordnung zu formen. Um mehr Sicherheit zu erreichen, wird es entscheidend sein, die Energieeffizienz zu verbessern und den Übergang zu umweltfreundlichen Energiequellen zu beschleunigen. Außerdem entwickelt sich die Fähigkeit, Mitarbeitende anzuwerben, zu halten, umzuschulen und weiterzubilden, zu einem der drängendsten Probleme dieses Jahrzehnts.“

Laden Sie die vollständigen Studie hier herunter: From Disruption to Reinvention – The future of supply chains in Europe, Accenture

Über die Studie


Der Bericht „From Disruption to Reinvention – The future of supply chain in Europe“ von Accenture basiert auf einer Studie, die in Zusammenarbeit mit Oxford Economics durchgeführt wurde. Die Analyse bezieht sich auf die Eurozone, zu der Österreich, Belgien, Zypern, Estland, Finnland, Frankreich, Deutschland, Griechenland, Irland, Italien, Lettland, Litauen, Luxemburg, Malta, die Niederlande, Portugal, die Slowakei, Slowenien und Spanien gehören.

Die Studie untersucht drei mögliche Szenarien, wie sich der Krieg im kommenden Jahr entwickeln könnte, und modelliert die Auswirkungen jedes Szenarios auf die wichtigsten europäischen Volkswirtschaften. Im ersten Szenario wird davon ausgegangen, dass die Sanktionen gegen Russland nicht eskalieren und sogar zurückgeschraubt werden könnten, was die Störungen der Lieferketten reduzieren würde. Leider ist dieses Szenario mit kontrollierten Auswirkungen verstrichen. Im zweiten Szenario, das die derzeitige Ausgangssituation darstellt, bleibt das Rohstoffangebot bis 2022 volatil, was zu einem weiteren Anstieg der Rohstoffpreise führen würde. In diesem Fall würden die Menschen bei nicht-lebensnotwendigen Produkten sparen und die Unternehmen würden sich auf Effizienz fokussieren. Das dritte und Worst-Case-Szenario sieht vor, dass der Krieg bis 2023 andauert. Dies könnte zu einem umfassenderen Öl- und Gasembargo gegen Russland führen, das wiederum erhebliche Unterbrechungen der Lieferketten, eine Inflation von 7,8 Prozent im Jahr 2022 und ein geringes Verbrauchervertrauen zur Folge hätte.

Bereit für die neue Arbeitswelt?

Die vier Merkmale eines Everywhere-Enterprise-Konzepts

Autor: Ivo Swaag, Digital Specialist Hybrid Workplace bei Macaw

Ivo Swaag, Digital Specialist Hybrid Workplace bei Macaw, erklärt die Veränderungen und Merkmale, die sich durch den Eyerywhere-Enterprise-Ansatz ergeben.

In den vergangenen zwei Jahren hat sich vieles verändert, allen voran die Art und Weise zu arbeiten. Um den Erwartungen der Mitarbeiterinnen und Mitarbeiter gerecht zu werden, müssen Unternehmen ihre Arbeitsmodelle neu definieren. Macaw erklärt im Blog, welche Merkmale einen Everywhere-Enterprise-Ansatz auszeichnen.

Die Corona-Pandemie hat eins gelehrt: Außergewöhnliche Zeiten erfordern außergewöhnliche Lösungen. Unternehmen, die angesichts fallender Inzidenzen ein obligatorisches Zurück an die Schreibtische fordern, werden sich künftig allerdings schwertun – immer mehr Mitarbeiter fordern einen Everywhere-Enterprise-Ansatz ein. Auf dem Weg dahin müssen Unternehmen aus Sicht von Macaw folgende Punkte auf dem Schirm haben:

  1. Neue Denkweisen und Ansätze etablieren. Laut der von Gartner herausgegebenen Studie „Redesigning Work for a Hybrid Future“ wollen 75 Prozent der Befragten künftig flexibel arbeiten. Besteht ein Unternehmen darauf, dass die Belegschaft wieder Vollzeit ins Büro zurückkehrt, sind vier von zehn Mitarbeitenden bereit, den Arbeitgeber zu wechseln. Angesichts dieser Zahlen müssen sich Unternehmen neu ausrichten. Am Anfang steht dabei die Beantwortung einiger Fragen: Was brauchen die Mitarbeiterinnen und Mitarbeiter? Wer kann aus der Ferne arbeiten und wer muss eventuell regelmäßig vor Ort sein? „Employee Experience“ (EX) lautet das Schlagwort und wie bei der „Customer Experience“ soll eine emotionale Bindung zu den Kunden, in diesem Fall den Beschäftigten, entstehen. Eine zentrale Rolle nehmen dabei digitale Tools und Plattformen ein. Beschäftigte sollen dort alles finden, was sie brauchen, um ihren Job zu erledigen, zu lernen und sich mit Kollegen auszutauschen. Unternehmen, die in EX investieren, werden schnell die Vorteile sehen: Mitarbeiter sind motivierter und damit innovativer. Gleichzeitig wächst der Kreis potentieller neuer Talente, wenn von jedem Ort der Welt aus gearbeitet werden kann.
  1. Die Verbindung untereinander stärken. Starke Netzwerke am Arbeitsplatz sind mehr als nur „nice to have“, sie beeinflussen zwei maßgebliche Faktoren – Produktivität und Innovation. Der Microsoft Work Trend Index zeigt allerdings eine alarmierende Entwicklung: Durch die Umstellung auf Remote-Arbeit sind die Beziehungen innerhalb eines Teams zwar stärker geworden, doch die unterschiedlichen Teams schotten sich immer mehr voneinander ab. So sagt fast jeder zweite Beschäftigte in Deutschland, dass sein Netzwerk kleiner geworden ist. Das Knüpfen von Beziehungen ist zudem für jemanden, der am Anfang ihrer oder seiner Karriere steht, ohne Gespräche auf dem Flur, zufällige Begegnungen und Smalltalk besonders schwierig. Eine wichtige Rolle kommt deshalb den Führungskräften zu: Sie müssen nach Möglichkeiten suchen, die teamübergreifende Zusammenarbeit und den spontanen Ideenaustausch zu fördern. Darüber hinaus wird künftig in vielen Unternehmen der Chief Purpose Officer die nächste wichtige Funktion auf C-Level-Ebene sein: Seine Aufgabe ist es, Werte und Aufgaben wie Nachhaltigkeit, Diversity, Inklusion und People Empowerment vorzuleben.
  1. Der digitalen Überlastung entgegenwirken. Der Anteil der Zeit, die für E-Mail, Instant Messaging, Telefon- und Videoanrufe aufgewendet wird, ist angesichts von Remote-Arbeit deutlich gestiegen – und damit die digitale Belastung. Auch hier gibt der Microsoft Work Trend Index interessante Einblicke: In Deutschland fühlen sich 55 Prozent der Beschäftigten überarbeitet, 42 Prozent sind erschöpft. Führungskräfte müssen sich überlegen, wie sie die Arbeitsbelastung reduzieren, ein Gleichgewicht zwischen synchroner und asynchroner Zusammenarbeit herstellen und eine Kultur schaffen, in der Pausen gefördert und respektiert werden. Ein absolutes No-Go ist die Überwachung der Mitarbeiter: Zwar erlaubt die beliebte Office-Software Microsoft 365 eine Auswertung der Nutzung einzelner Produkte. Zum Beispiel wie häufig der Kundenservice den Chat nutzt, wie viele E-Mails an welchen Tagen verschickt werden und wie lange die Kamera bei Kundenmeetings aktiviert ist. Diese Informationen dürfen aber keinesfalls für die Mitarbeiterbewertung herangezogen werden.
  1. Wissen demokratisieren. Eine gemeinsame Nutzung von Informationen und Know-how ist für die Innovationskraft einer Firma unabdingbar. In der Regel verteilt sich Wissen aber über das gesamte Unternehmen – in Microsoft-Teams-Kanälen, Posteingängen, gemeinsam genutzten Laufwerken, Apps für die Zusammenarbeit und natürlich in den Köpfen der einzelnen Mitarbeiter. Damit jeder in der Lage ist, die Informationen zu finden, die er braucht, um seine Arbeit bestmöglich zu leisten, sollten Unternehmen eine zentrale, durchsuchbare Plattform einrichten, in die alle verfügbaren Informationen einfließen. Gleichzeitig gilt es, eine Kultur des Wissensaustauschs zu fördern. Beispielsweise, indem Mitarbeiter, deren geteilte Inhalte auf großes Interesse stoßen, belohnt werden. Grundsätzlich gilt: Geteiltes Wissen hilft, fundierte Entscheidungen zu treffen und damit die Arbeit zu verbessern. Darüber hinaus stellt es sicher, dass ein Unternehmen nicht wertvolle Expertise verliert, wenn jemand kündigt oder in eine neue Abteilung wechselt.

Momentan haben Unternehmen die Chance, ihre Arbeitsmodelle und Arbeitsabläufe von Grund auf zu überdenken. Diese Chance sollten sie nicht verpassen. Auf dem Weg zu einem Everywhere-Enterprise ist es allerdings entscheidend, gute Lösungen zu entwickeln, um Netzwerke, soziale Interaktion und kulturelle Aspekte wieder zu stärken und die neue Flexibilität der Arbeitswelt so zu gestalten, dass sie allen zugutekommt.

Noch immer nicht gepatcht

Die letzten beiden Pandemie-Jahre haben die IT-Sicherheit in Unternehmen auf den Kopf gestellt. Infoblox, führender Anbieter von Cloud-First DNS-Management und Security, blickt in seinem „Global State of Security Report 2022“ auf die Ängste und Gefahren sowie die Maßnahmen, die Security-Verantwortliche in den Unternehmen ergreifen, um die immer komplexere IT-Landschaft abzusichern. Dabei zeigt sich, dass der Faktor Mensch in vielerlei Hinsicht entscheidend ist.

„Technisch gesehen, kann vieles kontrolliert und geschützt werden. Der menschliche Faktor ist eine nicht beeinflussbare Größe“, kommentierte ein Studienteilnehmer eines mittelgroßen deutschen Transportunternehmens. Thomas Gerch, Sales Director Central Europe bei Infoblox, ergänzt: „Die deutschen Ergebnisse des Global State of Security Reports verdeutlichen ein großes Problem für alle Security-Verantwortlichen: Mitarbeiter*innen müssen zum einen geschult und sensibilisiert werden. Gleichzeitig müssen auch private Endgeräte kontrolliert werden. Ansonsten drohen sie zu einer elementaren Gefahr für die IT-Sicherheit der Unternehmen zu werden.“

Der Faktor Mensch in der Cybersicherheit – Einblicke der Studie:


1. Sicherheitslücke private Endgeräte: 
Mehr als die Hälfte (54 %) aller deutschen Befragten erlebten im vergangenen Jahr bis zu fünf sicherheitsrelevante Vorfälle. Ebenfalls gab etwa die Hälfte (51 %) an, dass keiner der IT-Vorfälle in ihrem Unternehmen zu einer Sicherheitsverletzung führte. Dies gibt Anlass zur Hoffnung, dass die derzeitigen Maßnahmen zum Schutz von Remote-Mitarbeiter*innen und Kund*innen zumindest zu einem gewissen Grad funktionieren. Bei denjenigen, die eine Sicherheitsverletzung erlitten, waren private Endgeräte der Mitarbeiter*innen (37 %), nicht gepatchte DDI- oder andere Netzwerkgeräte (33 %) oder Insider (24 %) für die Vorfälle verantwortlich.

2. Angst vor Insider-Bedrohungen: Deutsche Unternehmen sorgen sich am meisten über die Anfälligkeit für Datenlecks, Ransomware und Angriffe über Remote-Mitarbeiterverbindungen. Fast die Hälfte der Befragten (48 %) war am meisten besorgt über das Potenzial für Ransomware und Datenlecks in den kommenden 12 Monaten. Sie hatten auch Bedenken, dass Angreifer es auf Remote-Worker-Verbindungen (37 %) und Cloud-Dienste (35 %) abgesehen haben. Weiterhin glauben sie, dass sie am wenigsten auf Insider-Bedrohungen (23 %), Datenlecks und staatlich gesponserte Angriffe (16 %) vorbereitet sind.

3. Weit verbreiteter Phishing-Betrug als Zeichen für mangelhafte Mitarbeiterschulungen: Phishing war für die große Mehrheit (67 %) der in den letzten 12 Monaten gemeldeten Sicherheitsverletzungen verantwortlich, direkt gefolgt von Ransomware mit 53 %. Erfolgreiche Phishing-Attacken sind in der Regel ein Zeichen dafür, dass Sicherheitsschulungen für Mitarbeiter*innen und Kund*innen nötig sind oder nicht den gewünschten Effekt brachten.

4. Anmeldedaten heiß begehrt: Zu den wichtigsten Angriffsvektoren gehörten das Hijacking von Anmeldeinformationen (55 %), die Datenexfiltrierung (43 %) sowie das Comand-and-Control-Center (31 %). Nachdem die Angreifer erst einmal im System waren, kam es zu Systemausfällen oder Ausfallzeiten (51 %), Diebstahl bzw. Offenlegung sensibler Daten (31 %) oder Malware-Infektionen (29 %). 61 % der Befragten erlitten direkte und indirekte Schäden von bis zu 1 Million US-Dollar (882.690 Euro).

Optimistisch in die Zukunft

Die Studie „Global State of Security” zeigt aber nicht nur, wo es in der IT-Sicherheit menschelt. Sie bietet neben einem kurzen Rückblick auf die Pandemie auch einen Ausblick in die Zukunft, der durchaus optimistisch stimmen kann.

Maßnahmen für die erfolgreiche Bedrohungsabwehr


5. Schnelle Reaktionszeit: 
Mehr als zwei Drittel der deutschen Unternehmen (69 %) gaben an, dass sie generell in der Lage sind, innerhalb von 24 Stunden auf eine Bedrohung zu reagieren. Zu den beliebtesten Threat-Hunting-Tools gehören DNS-Queries (46 %), Flow-Daten aus dem Netzwerk (41 %) sowie die Erkennung systemspezifischer Bedrohungsdaten von Drittanbietern und systemspezifische Informationen über Sicherheitslücken (37 %). Mit Blick in die Zukunft werden vor allem Remote Monitoring (43 %) und fehlende finanzielle Mittel (24 %) die Fähigkeit vieler deutscher Unternehmen beeinträchtigen, sich gegen IT-Angriffe zu schützen.

6. DNS entlastet Perimeter-Verteidigung von Unternehmen: In Deutschland gehören DNS-Queries zu den wichtigsten Abwehrinstrumenten, die von angegriffenen Unternehmen eingesetzt werden. Eine genauere Betrachtung der DNS-Nutzung zeigt, dass das Domain Name System in erster Linie eingesetzt wird, um Geräte zu erkennen, die Anfragen an bösartige Adressen senden (49 %) und um schadhaften Datenverkehr zu blockieren und andere Perimeter-Schutzmaßnahmen zu entlasten (48 %). Darüber hinaus nutzen 47 % der Befragten das DNS, um sich vor Bedrohungen wie DNS-Tunneling zu schützen und um Malware-Aktivitäten früher in der Kill Chain zu erkennen.

7. Investitionen in Netzwerke, Daten und die Cloud: Die Sicherheitsbudgets der meisten deutschen Unternehmen (63 %) stiegen im Jahr 2021. 71 % erwarten einen weiteren Anstieg im Jahr 2022. Zu den beliebtesten On-Premise-Investitionen gehören Netzwerksicherheit (29 %), End-Point-Protection (27 %) und DNS-Sicherheit (23 %). Bei den Cloud-basierten Investitionen nehmen Cloud Access Security Brokers (29 %) und sichere Web-Gateways (24 %) die vorderen Plätze ein. Diejenigen, die einen hybriden Ansatz verfolgen, entscheiden sich am ehesten für hybride Versionen von Netzwerksicherheits-Tools und Traffic Monitoring (44 %) sowie VPNs oder andere Zugangskontrolllösungen (42 %).

8. Interesse an Secure Access Service Edge (SASE)-Frameworks steigt: Mit der Verlagerung von Assets, Zugängen und Sicherheitskomponenten aus dem Netzwerkzentrum hin an den Rand sowie der zunehmenden Virtualisierung, haben 47 % der deutschen Unternehmen SASE bereits teilweise oder vollständig implementiert und weitere 34 % beabsichtigen, dies zu tun. Entweder durch einen (51 %) oder mehrere Anbieter (49 %).

„Die schnelle Umstellung auf Remote-Work im Laufe der Pandemie brachte Risiken bezüglich der Sicherheit, aber auch Vorteile, so hielt sie während der Pandemie die Wirtschaft in einer langen Zeit der Unsicherheit am Laufen. Dies hat ein Umdenken in der IT-Sicherheit hervorgerufen, mit dem Ziel die dezentralisierte Belegschaft zu schützen und eine neue Dimension von ‚Home Network Invasion‘ zu verhindern. Unternehmen sind nun eher bereit, in Cybersicherheitslösungen zu investieren, um technologische und personelle Lücken zu schließen und Mitarbeiter*innen, die nicht mehr in sicheren Bereichen arbeiten, aus der Ferne zu schulen und abzusichern. Diese Studie könnte zumindest ein Indiz dafür sein“, meint Thomas Gerch.

Den gesamten deutschen Report erhalten Sie hier zum Download.
Die Infografik können Sie hier herunterladen.

Über die Studie:

Ziel der Umfrage Global State of Security Report 2022 von Infoblox war es, einen besseren Einblick in den Zustand der IT-Sicherheit weltweit zu erhalten, einschließlich der Auswirkungen, die Remote-Mitarbeiter*innen auf Unternehmen haben. Dafür hat die Business Intelligence Unit der CyberRisk Alliance im Auftrag von Infoblox Anfang 2022 1.100 IT- und Cybersecurity-Experten in 11 Ländern befragt. Darunter waren 100 Teilnehmer kleiner, mittelständischer und großer Unternehmen in Deutschland, von leitenden Angestellten bis hin zu Senior-Analysten. Sie repräsentieren die Brachen Produktion (21 %), Finanzdienstleistungen (14 %), Business/Professional Services (12%) und Hightech (11%).


Dies ist eine Pressemitteilung des Unternehmens Infoblox


Bildquelle / Lizenz Aufmacher

Photo by Christin Hume on Unsplash

Goldrausch im Metaversum

Zeit, seine Claims abzustecken? Dieser Frage geht Markus Birke in seinem Gastbeitrag für uns nach.

Spätestens seit Mark Zuckerberg den Facebook-Konzern in „Meta“ umbenannt hat, ist ein wahrer Hype rund um das Metaverse oder Hochdeutsch „Metaversum“ entstanden. Mit Zuckerberg hat das Metaversum dann auch gleich seinen prominentesten Fürsprecher. Wenn einen allerdings die Peinlichkeit Zuckerbergs eigener Auftritte in einer Art Frühform des von ihm propagierten Metaversums nicht schon an dem Hype zweifeln lassen, könnten dies die Kritiker und Zyniker erledigen, die jeder Hype auf den Plan ruft. Was also ist dran am Hype und wie können PR- und Marketingbranche ihn nutzen?

Wovon reden wir

Es ist zunächst einmal gar nicht so einfach, sich darauf zu verständigen, was das Metaversum ist oder besser gesagt sein soll. Mir gefällt die Definition von Frank Steinicke, Professor für Human-Computer Interaction an der Universität Hamburg, weil sie so schön „down to earth“ ist. Für seinen Artikel auf t3n hat Matthias Kreienbrink mit dem Professor gesprochen: „Ich verstehe unter dem Metaverse einen virtuellen Raum, der konsistent und persistent ist“, sagt er. Also eine große, zusammenhängende Welt, die zwar aus mehreren Teilen bestehen mag, es aber erlaubt, diese Teile ohne Einschränkungen zu betreten und zwischen ihnen zu wechseln – eben konsistent ist. Diese Welt darf jedoch nicht nur Bestand haben, während die Nutzer:innen eingeloggt sind. Sie lebt fort, unabhängig davon, wer mit ihr interagiert – ist also persistent. „Die Idee des Metaverse ist, dass all die digitalen und webbasierten Anwendungen und Plattformen zusammenwachsen. Games, Handel, Social Media, virtuelle Realität”, sagt Steinicke.

(Virtual) Reality Check – Second Life

Ein solches Metaversum besteht offenbar noch nicht. Aktuell bestehen lediglich die „digitalen und webbasierten Anwendungen und Plattformen“ – und das zum Teil schon recht lange. Darüber hinaus haben sich schon Millionen Menschen in diesen Vorstufen des Metaversums aufgehalten ohne sich dessen bewusst zu sein. Doch dazu später mehr. Zunächst lohnt ein Blick zurück ins Jahr 2003. Damals ging Second Life online und sorgte für einen ähnlichen Hype wie heute das Metaversum. Second Life ist eine virtuelle Welt, in der Menschen durch Avatare interagieren, spielen, Handel betreiben und anderweitig kommunizieren können. Schnell versuchten damals kleine und große Marken, auf den Hype zu reagieren und in Second Life aktiv zu werden. Sie waren z.B. mit Werbung und/oder Filialen in der virtuellen Welt vertreten. Nicht wenige Auguren sahen damals voraus, dass eine Präsenz in Second Life für das Überleben einer Marke ausschlaggebend sein könnte. Allerdings verschwand Second Life dann relativ schnell in der medialen Versenkung und wird seitdem von vielen nur noch als Musterbeispiel eines überhypten Flops benutzt.

Allerdings handelt es sich um einen wirtschaftlich sehr erfolgreichen Flop. So konnte die virtuelle Welt 2021 ein Bruttosozialprodukt von 600 Millionen US-Dollar vorweisen. Täglich betreten etwa 200.000 Menschen aus rund 200 Ländern die virtuelle Welt. Aktuell verfügen ca. 70 Millionen Menschen über ein Second Life-Konto und monatlich kommen ungefähr 350.000 neue Konten hinzu. Das ist im globalen Maßstab nicht enorm, kann aber letztlich doch nicht als Flop betrachtet werden. Für einige Menschen ist Second Life zu einem wichtigen Teil ihres Lebens geworden. So berichtet die Tageszeitung Algemeen Dagblad von einer niederländischen Frau, die seit 15 Jahren eine Second Life-Beziehung mit einem Schotten pflegt, den sie in der realen Welt nie getroffen hat.

In den Sand gesetzt

Dem Ansatz von Second Life entsprechen am ehesten die beiden neueren virtuellen Welten Decentraland und The Sandbox. In beiden Welten besteht die wichtigste wirtschaftliche Aktivität aktuell im Handel mit Grundstücken. Die Anzahl verfügbarer Parzellen ist streng limitiert und es werden zuweilen horrende Summen für Grundstücke bezahlt. Ähnlich wie in den frühen Jahren von Second Life haben sich bereits große Marken in Decentraland und The Sandbox eingekauft. So hat JP Morgan eine Filiale in Decentraland eröffnet, das Auktionshaus Sotheby’s ist mit einer Galerie vertreten und der Elektronikhersteller Samsung organisiert Veranstaltungen, um seine neuesten Produkte zu bewerben. Gut angelegtes Geld? Das darf bei durchschnittlich rund 2000 Menschen, die gleichzeitig in Decentraland unterwegs sind, bezweifelt werden. Da scheint noch viel Phantasie über die künftige Entwicklung dieser Metaversen im Spiel zu sein, um es im Börsensprech auszudrücken, oder FOMO (The Fear of Missing out).

Erfolgreich im Metaversum

Auf der Suche nach erfolgreichen PR- und Marketingaktivitäten wird man eher in virtuellen Welten fündig, die nicht originär als Metaversum gedacht waren, vor allem in der Gaming-Welt. Ein besonders beeindruckendes Beispiel stammt von der Fast-Food-Kette Wendy’s, die mit einer wahrhaften Guerilla-Taktik in Fortnite für Furore gesorgt hat. Andere Marken versuchten, den enormen Erfolg von Fortnite vor allem auf der Streaming-Plattform Twitch für sich zu nutzen, indem sie Fortnite-Gamer via Social Media adressierten oder viel Geld für Sponsorship in Fortnite bezahlten.

Wendy’s hingegen mischte sich in einen von Fortnite organisierten „Food Fight“ zwischen den Teams „Pizza“ und „Burger“ ein. Wendy’s machte sich die Tatsache zunutze, dass Team Burger sein Fleisch in Tiefkühlschränken aufbewahrte. Wendy’s zeigt sich stolz darauf, nur frisches Fleisch zu verkaufen. Also kreierte Wendy’s einen eigenen Avatar für den Food Fight. Dieser zog jedoch nicht gegen andere Avatare zu Felde, sondern richtete sich stundenlang einzig und allein auf die Zerstörung der Tiefkühlschränke. Begleitet von Kommunikation über Social Media sorgte diese Aktion für Aufsehen unter anderen Gamern. Viele Gamer schlossen sich gar dem Kampf gegen die Tiefkühlschränke an und auf Social Media herrschte helle Aufregung. Das Unternehmen konnte eine Steigerung der Wendy’s-Namensnennung auf Social Media um 119 Prozent verbuchen und schaffte es mit dieser Aktion auch in die traditionellen Medien. Fortnite entfernte schließlich die Tiefkühlschränke aus dem Spiel – ein netter Nebeneffekt.

Erfolgsrezept

Eine wesentliche Voraussetzung für den großen Effekt, den Wendy’s mit geringem Aufwand erreichen konnte, ist die enorme Popularität von Fortnite, es halten sich einfach hunderttausendfach mehr Menschen in Fortnite auf als in Decentraland. Und aktuell bieten Games und andere Online-Welten Unternehmen sicherlich viel bessere Möglichkeiten für smartes Marketing als Welten, die dezidiert als Metaversum gegründet wurden. Das gilt selbst für weniger smarte Kampagnen, die mehr Mittel erfordern.

Für einen Fahrradhersteller beispielsweise ergibt es Sinn, sich auf Plattformen wie Zwift zu engagieren, wo sich täglich abertausende von Radsportlern in verschiedenen virtuellen Welt treffen, um zu trainieren. Nicht nur erreicht er hier mehr Menschen als etwa in Decentraland, er adressiert auch genau seine Zielgruppe.

Kommt das Metaversum?

Es bieten sich PR- und Marketingtreibenden zahlreiche Möglichkeiten, in virtuellen Welten erfolgreich zu sein, die mit ihrer Nutzung von 3D-Technologien, einem immersiven, interaktiven Erlebnis und der von Professor Steinicke genannten Persistenz dem von Zuckerberg propagierten Zukunftsversprechen ähnlich genug sind um als Metaversum durchzugehen. Die Möglichkeiten in den diversen Metaversen zu nutzen, ist übrigens in den meisten Fällen technisch alles andere als trivial. Darum hat beispielsweise das Agentur-Netzwerk WPP eine Partnerschaft mit Epic Games gestartet, dem Unternehmen hinter Fortnite und der Unreal Engine. Die Partnerschaft umfasst ein neues Schulungsprogramm, das Tausende von WPP-Kreativen und -Technikern lehrt, wie man in Fortnite Markenerlebnisse schafft und wie man die Unreal Engine für Echtzeit-3D-Erstellung und virtuelle Produktion nutzt.

Nach dem Gesagten kann die Frage, ob die „digitalen und webbasierten Anwendungen und Plattformen“ aus dem Zitat von Professor Steinicke jemals zusammenwachsen werden, als beinahe rein akademische betrachtet werden. Trotzdem sei ein kurzer Antwortversuch gestattet. Selbst abgesehen von zahlreichen technischen Problemen der Interoperabilität, die einem einheitlichen Metaversum im Wege stehen, ist es unwahrscheinlich, dass Zuckerbergs feuchter Traum Realität wird. Schließlich betreten Menschen die bereits existierenden virtuellen Welten zu einem klar definierten Zweck. Sie wollen beispielsweise Zombies killen oder ihre anaerobe Schwelle anheben. Der Anreiz, eine virtuelle Welt zu betreten, nur um dort zu sein und sich von Unternehmen Produkte verkaufen zu lassen, die man auch in der realen Welt nicht braucht, ist hingegen sehr gering. Zudem wissen die Betreiber der verschiedenen virtuellen Welten sehr gut, dass sie auf einer Goldmine sitzen. Ihre Motivation, sich einem einzigen Metaversum anzuschließen, das durch nur ein Unternehmen kontrolliert wird, geht gegen Null. Auch die Begeisterung der Verbraucher, sich in der virtuellen Welt dem Diktat nur eines Unternehmens zu unterwerfen, sollte gering sein.

Über den Autor:

Dr. Marcus Birke ist ein international erfahrener PR-Berater. Seit über 20 Jahren arbeitet er für AxiCom. Der promovierte Philosoph entwirft, leitet und realisiert Kommunikationskampagnen vorwiegend für Technologieunternehmen. Das Unternehmen ist eine auf Technologiethemen spezialisierte internationale B2B- und B2C-Kommunikationsagentur. Seit 1994 agiert sie am Puls der Zeit und hat geholfen, viele neue Technologien zu etablieren, vom Thin Client über Virtualisierung bis zu Cloud Computing


Lizenz Beitragsbild / Aufmacher:

Photo by Leanne Jean on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Beschleuniger einer nachhaltigen Entwicklung

Gastbeitrag von Patrick Rivière, Executive Chairman of La Française Group

Konflikt in der Ukraine, Lieferkettenengpässe und steigende Preise – Beschleuniger einer nachhaltigen Entwicklung

Patrick Rivière

Kernproblem der Inflation

Ein Krieg ist immer inflationär, vor allem, wenn davon einer der weltweit größten Produzenten von Energie, Industrie- und Agrarrohstoffen betroffen ist. Der allgemeine Preisanstieg in vielen wichtigen Wirtschaftsbereichen ist ein weiteres Indiz für den notwendigen Übergang zu Energiequellen ohne CO2-Emissionen – um die Souveränität Europas zu gewährleisten und schwerwiegende Folgen für die europäische Wirtschaft zu vermeiden. 

Vor dem Krieg bestand weitgehend Einigkeit darüber, dass die Inflation 2022 gebremst sein und sich ab 2023 stabilisieren würde. Dies entspräche dem durchschnittlichen Niveau der Jahre 2001 bis 2008, d. h. 1 % über der niedrigen Inflation zwischen 2008 und 2020. Wir müssen nun mindestens 1 % mehr zur Entwicklung addieren, d. h. 3 % in der Eurozone und 4 % in den USA. Unabhängig vom Ergebnis der aktuellen geldpolitischen Ausrichtung dürfte die mittelfristige Inflation jedoch höher ausfallen als in der Vergangenheit, da der Rückgang der Globalisierung die komparativen Vorteile im internationalen Handel verringert und die notwendige Energiewende die Produktionskosten erhöhen wird.

Beschleunigter Klimawandel …

Entsprechend den Zielen des Pariser Abkommens kann Europa seine Energiesouveränität nur erreichen, wenn es seine Investitionen in kohlenstoffarme Energien deutlich erhöht und seine Energieeffizienz verbessert. Das Szenario erfordert ein ähnlich hohes Investitionsniveau wie in der Zeit nach dem Zweiten Weltkrieg.

Die Stärkung des Sozialstaats und des „koste es, was es wolle“ bietet eine – wenn auch nur unvollständige – Antwort auf die Frage der Finanzierung dieses Übergangs. Aber was ist mit der neuen Wirtschaftsrealität, nämlich den negativen Realzinsen? In dem derzeit eher inflationären Umfeld hat die Nullzinspolitik, die nach der globalen Finanzkrise eingeführt wurde, zu stark negativen Realzinsen geführt. In Anbetracht der Höhe der zu tätigenden Investitionen müssen die Realzinsen sehr niedrig gehalten werden, damit die Staaten diese Investitionen finanzieren können.

Sachwerte, Finanzwerte: Diversifizierung bleibt Kern der Anlagestrategie

Auch wenn der systemische Aspekt von den Zentralbanken anerkannt wird, ist das Klimarisiko (das die Energiewende einschließt) nicht das einzige Risiko, das in einer Investmentstrategie berücksichtigt werden muss. Die herkömmlichen wirtschaftlichen und finanziellen Risiken bleiben bestehen. Die Notwendigkeit, zwischen verschiedenen Anlageformen zu diversifizieren, ist dringender geworden, gerade in einem von Deglobalisierung geprägten geopolitischen Umfeld.

Immobilienanlagen

Die Ukraine-Krise und die daraus resultierende Inflationsspirale haben Auswirkungen auf den Immobiliensektor. Dabei wird das Ausmaß der Folgen von der Qualität und dem Management der Vermögenswerte und der Solvabilität der Mieter abhängen. A priori sollten Vermögenswerte mit inflationsindexierten Renditen, wie z. B. Büroimmobilien, gut abschneiden. Selbst in Zeiten der Stagflation, wenn schwaches Wachstum die Leerstände belastet, haben Immobilien in der Vergangenheit positive Realrenditen erzielt. Tatsächlich ist das Gewicht der Inflationsindexierung größer als die durch den Druck auf die Zinssätze verursachte Bremswirkung, insbesondere in einem Szenario, in dem stark negative Realzinsen beibehalten werden.

Mit der Inflation könnte jedoch die Frage der Zahlungsfähigkeit der Mieter auftauchen, da sich die Weitergabe der durch den Indexierungsmechanismus vorgeschriebenen Mieterhöhungen als schwierig erweisen könnte. Am besten positioniert sind sogenannte Core-Assets, die gut gelegen sind und von Mietern profitieren, die in der Lage sind, den Kostendruck auf ihre Verkaufspreise umzulegen.

Auf Vermieterseite werden energieintensive Anlagen stärker benachteiligt werden als neuere Portfolios, die unter Berücksichtigung der Energieeffizienz verwaltet werden. Die Analyse der Wachstums-, Inflations- und Zinsenentwicklung ist wichtiger denn je, und auch die Entwicklung der nachhaltigen Eigenschaften von Vermögenswerten rechtfertigen die Performance des Immobilienmarktes zunehmend. So entsteht ein neues Modell der Immobilienbewertung, das weit entfernt ist vom herkömmlichen Modell der Risikoprämie gegenüber „risikolosen“ langen festen Zinssätzen, und das nun neben dem Indexierungsmechanismus auch ein „Green Premium“ enthält.

Finanzielle Vermögenswerte

Auf der Suche nach Rendite ist vor diesem Hintergrund eine Rotation der Vermögenswerte erforderlich: Nicht mehr der Rückgang der Zinssätze treibt die Performance an, sondern ein starkes und vorhersehbares Wachstumspotenzial mit realer Rendite. In dieser Hinsicht sind Vermögenswerte, deren Renditen direkt an die Inflation gekoppelt sind, wie z. B. variabel verzinsliche Anleihen (genau wie Immobilien), gut positioniert, ebenso wie Vermögenswerte, die empfindlich auf steigende Zinsen reagieren, wie z. B. der Bankensektor mit nachrangigen Schuldtiteln. Auf der Aktienseite dürften die Sektoren Technologie, Bauwesen und Verkehr sowie ganz allgemein alle Unternehmen, die Lösungen zur Bekämpfung der bestehenden Ungleichgewichte und der globalen Erwärmung entwickeln, ebenfalls von diesem Umfeld profitieren.

Asset-übergreifende Allokation

Lange bevor die globale Erwärmung ins öffentliche Bewusstsein rückte, erforderte die Zusammenstellung eines attraktiven Anlageportfolios die Kombination der Eigenschaften von Sachwerten wie Immobilien, Finanzwerten wie Anleihen und langfristigen Wachstumstreibern wie Aktien. Diese drei Anlageklassen ergänzen sich in Bezug auf die Renditen und die damit verbundenen Risiken, was die Zusammensetzung der Renditen zwischen Ertrag und Kapitalzuwachs und ihre Reaktionen auf wirtschaftliche, monetäre und demografische Fundamentaldaten betrifft. 

Die anlageübergreifende Portfoliokonstruktion wird mit dem Aufkommen des Klimarisikos, das den Energiemix berücksichtigt, strategisch noch wichtiger. Wir bei La Française sind davon überzeugt, dass die vielen möglichen Szenarien des Klimawandels und ihre Folgen für die Wirtschaft und die Märkte eine integrierte Strategie für den „Klimawandel“ erfordern, die sich auf Immobilien, Unternehmensanleihen, Staatsanleihen und Aktien erstreckt; eine Strategie, die unabhängig von der Anlageklasse dieselbe Anlagephilosophie verfolgt, dieselben Analyseinstrumente verwendet und dieselbe Berücksichtigung des Klimawandels widerspiegelt. Diese Krise bestätigt (einmal mehr) unser Multi-Asset-Geschäftsmodell, das auch Immobilien umfasst, und unterstützt unsere strategische Positionierung im Bereich der Sachwerte und der Energiewende.

Durch Krisen navigieren und Chancen nutzen: Warum Open-Source-Technologie mehr denn je Sinn macht

Von Hans Roth*

Hans Roth: „Wenn man nicht sieht, was auf einen zukommt, wie kann man dann die Folgen abmildern? Geschwindigkeit ist oft die Antwort. Und mit Wahlfreiheit ist diese Geschwindigkeit realisierbar.“

Die letzten 15 Jahre haben gezeigt, dass jederzeit etwas Unvorhersehbares eintreten kann. Kaum jemand sah die Finanzkrise 2009 kommen, ganz zu schweigen von Covid. Solche Ereignisse haben weitreichende Folgen – für das Leben des Einzelnen, für die Gesellschaft und für die Wirtschaft. Wie können sich Unternehmen nun vor dem Auftreten solcher Krisenszenarien schützen oder – genauer gesagt – wie können sie mit Technologie ihre Resilienz erhöhen?

Krisen kommen unerwartet. Wenn man nicht sieht, was auf einen zukommt, wie kann man dann die Folgen abmildern? Geschwindigkeit ist oft die Antwort. Und mit Wahlfreiheit ist diese Geschwindigkeit realisierbar. Jedes gut geführte Unternehmen wird diesen Ansatz bereits im Finanzwesen verfolgen. Reserven werden oft in einer Mischung aus Vermögenswerten und Währungen gehalten, um die Auswirkungen eines Wechselkursverlustes zu verringern.

An diesem Punkt kann man den Vergleich zur Technologie ziehen. Wenn sich ein Unternehmen auf einen einzigen Anbieter verlässt, ist es abhängig. Sollte etwas mit dem Anbieter schiefgehen, kann das Unternehmen nicht einfach irgendwo anders hingehen, zumindest nicht sofort. Und die Geschichte lehrt uns, dass so etwas passieren kann: 2e2, Nirvanix und Fusion waren einst angesehene Cloud-Computing- und Storage-Firmen, die leider gescheitert sind. Eine drastische Preiserhöhung, ein Sicherheitsvorfall oder ein neuer innovativer Anbieter auf dem Markt machen einen Wechsel dringend erforderlich. Doch je mehr man an den bisherigen Anbieter gebunden ist, desto schwieriger wird dies.

Wenn Anwendungen und Workloads frei zwischen unterschiedlichen Umgebungen migrierbar sind, kann eine Nutzung je nach Bedarf erhöht oder verringert werden. Aus diesem Grund hat sich ein hybrider Ansatz für die Infrastruktur – die Kombination von On-Premises und Cloud, von Private und Public Cloud sowie von verschiedenen Public Clouds – als sinnvolle Strategie durchgesetzt, und zwar in Verbindung mit Open Source Software. Schließlich geht es nicht nur darum, Anwendungen auf eine andere Infrastruktur zu verlagern oder Daten in eine neue Applikation zu übertragen. Open Source ermöglicht auch Agilität, weil eine Community-Unterstützung vorhanden ist. Die Vielzahl der Beteiligten ermöglicht eine schnellere Reaktion auf Krisen als es etwa großen Unternehmen mit strengen Hierarchien und komplexen Entscheidungsstrukturen möglich ist.

Innovationen vorantreiben

Glücklicherweise sind Krisen relativ selten. Unternehmen verbringen also mehr Zeit damit, Innovationen voranzutreiben. Und auch hier ist die Kombination aus Open Source Software und hybrider Infrastruktur der perfekte Ansatz. Es ist dabei die Open Source Community, die den Mehrwert schafft. Die Logik ist einfach: Würde man in einem Raum mit 100 Leuten darauf setzen, dass eine einzelne Person immer die beste Idee hat, oder auf die kollektive Kraft der anderen 99? Innovation findet nie nur an einem Ort statt. Open Source bietet Zugang zu allen und jedem – mehr Kreative, die etwas erschaffen, mehr Augen, die prüfen und mehr Menschen, die Unterstützung bieten.

Bei der Innovation geht es nicht darum, immer die neuesten Lösungen zu kaufen. Wie unser CEO Paul Cormier kürzlich erklärte, ist das weder praktisch noch nachhaltig. Bei der Innovation steht die Modernisierung im Vordergrund; man nimmt das, was man hat, und verbessert es. Wenn ein Unternehmen von der Innovationsfreudigkeit und -fähigkeit eines Anbieters abhängig ist, kann es leicht ins Hintertreffen geraten. Open Source hingegen bietet die Interoperabilität, die eine kontinuierliche Verbesserung ermöglicht – und damit auch einen proaktiveren Ansatz für das Ergreifen neuer Geschäftschancen.

Die Tech-Branche weiß das: Google hat Kubernetes und Flutter, Microsoft hat Azure Docs und VS Code, AWS und Apple verwenden beide Linux. Es gibt kein besseres Beispiel für die Innovationskraft von Open Source als die Kryptowährung Bitcoin, die dank des Einfallsreichtums und des Engagements der Community bereits einmal eine Marktkapitalisierung von über 1,2 Billionen US-Dollar erreicht hat.

Komplexität orchestrieren

Je mehr Lösungen ein Unternehmen nutzt, desto größer kann die Komplexität werden. Eine On-Premises-Umgebung, in der nur eine Handvoll Softwareprogramme läuft, ist übersichtlich und leicht zu verwalten. Eine hybride Infrastruktur mit der Einführung von Open Source Software ist dagegen sehr komplex.

Ohne die richtige Orchestrierung können die Dinge verwirrend und kostspielig werden. So ist es überall: Bibliotheken orchestrieren Informationen, Autos orchestrieren mechanische Komponenten, Navigations- und Entertainment-Systeme oder Smartphones orchestrieren das Leben. Analog verhält es sich bei der Enterprise-Technologie. Eine Orchestrierungsplattform wie Red Hat OpenShift verringert die Komplexität, indem sie sicherstellt, dass Software und einzelne Softwarekomponenten unabhängig von der Betriebsumgebung interagieren können. Dies ist entscheidend für eine effiziente Anwendungsmodernisierung, die es einem Unternehmen ermöglicht, Software mit Containern und Microservices zu verbessern oder komplett neu zu erstellen. Ein darüberliegender Automatisierungs-Layer sorgt dafür, dass alles reibungslos funktioniert.

Kultur – das letzte Puzzleteil

Bei der Orchestrierung geht es nicht nur um die Organisation und Automatisierung von Produkten und Richtlinien. Technologie ist letztlich wertlos ohne die Unterstützung der Menschen. Wie kann man aber nun Menschen „orchestrieren“? Die Antwort lautet: mit Kultur oder – genauer gesagt – mit einer offenen Kultur.

In einer offenen Kultur ist das Vertrauen in die Kolleginnen und Kollegen der Standard und werden Ideen nach ihren Vorteilen beurteilt und nicht nach dem Dienstalter des Vorschlagenden. Eine offene Kultur fördert auch stille Talente und ihre Ideen. Das logische Ergebnis ist eine Vielfalt von Wissen und Erfahrung.

Wenn ein Unternehmen nun die Agilität von hybriden Infrastrukturen und Open Source Software nutzen möchte, muss es auch eine solch offene Kultur etablieren. Und die Mehrheit der Unternehmen verfolgt auch eine Open-Source-Strategie. Eine neue weltweite Untersuchung von Red Hat unter Beteiligung von rund 1.300 IT-Führungskräften hat ergeben, dass für 95 % der Befragten Open Source für die Gesamtinfrastruktur ihres Unternehmens sehr wichtig ist. Als Gründe werden genannt: die größere Flexibilität (79 %), der Zugang zu Innovationen (77 %) und die Unterstützung einer Hybrid-Cloud-Strategie (77 %).

Die Ergebnisse sind ein starkes Argument für Open Source. Ein Unternehmen, das gut gerüstet ist, um Krisen zu überstehen und Chancen zu ergreifen, wird erfolgreicher sein als ein Unternehmen, das starre Strukturen besitzt. Open Source und hybride Infrastrukturen nicht einzuführen, bedeutet zu glauben, dass wir am Ende der Geschichte angelangt sind und die Welt und die Märkte keine unerwarteten Wendungen bringen werden. Schaut man sich um, erkennt man, dass die Realität eine ganz andere Geschichte schreibt.

* Hans Roth ist SVP und General Manager EMEA bei Red Hat

Culture eats strategy for breakfast – und digitales Mindset?

Julian Knorr beschreibt, wie Unternehmen ein digitales Mindset erlangen können.

“Culture eats strategy for breaktfast” – ein häufig zitierter Satz von Peter Drucker, der sehr schön zeigt, dass nachhaltiger Unternehmenserfolg auf den Menschen in der Organisation basiert. Der Fokus dieses Satzes liegt auf der Unternehmenskultur als Basis für eine erfolgreiche Strategie(umsetzung). Doch wie sieht das in der digitalen Transformation aus? Welche Rolle spielt digitales Mindset hierbei und wie hängt die Unternehmenskultur und Mindset zusammen?

Die digitale und technologische Entwicklung beschleunigt sich in allen Branchen immer weiter und beeinflusst die Geschäftsmodelle von Unternehmen. Diese Entwicklung setzt digitale Transformation bei vielen Unternehmen ganz oben auf die Agenda. Jedoch wird hierbei der Fokus häufig nur auf die Nutzung von Technologien und die Veränderungen in der Prozesslandschaft gelegt. Doch digitale Transformation ist viel mehr und beeinflusst die gesamte Wertschöpfung in Unternehmen und betrifft damit jede*n Mitarbeiter*in. Die Mitarbeiter*innen sind hierbei keine passiven Zuschauer*innen, sondern aktive Gestalter*innen. Wenn über Mitarbeiter*innen in Transformationsprozessen gesprochen wird, fallen häufig direkt die Begriffe Kultur und digitales Mindset. Diese beiden Themen können nicht getrennt voneinander betrachtet werden, sondern hängen zusammen und bedingen sich gegenseitig. Kultur wird sichtbar und erlebbar auf Organisationsebene und entsteht erst durch die Zusammenarbeit und das Zusammenleben von mehreren Mitarbeiter*innen innerhalb einer Organisation. Somit bezieht sich Kultur immer auf eine Gruppe. Der US-amerikanische Sozialwissenschaftler und Pionier der Organisationspsychologie Edgar Schein definiert Unternehmenskultur als “ein Muster gemeinsamer Grundprämissen, das die Gruppe bei der Bewältigung ihrer Probleme, externer Anpassung und interner Integration erlernt hat, das sich bewährt hat, und das somit als bindend gilt; und das daher an neue Mitglieder als rational und emotional korrekter Ansatz für den Umgang mit Problemen weitergegeben wird.” Somit prägt die Kultur das Handeln von Mitarbeiter*innen in Unternehmen. Digitales Mindset hingegen bezieht sich auf die Individualebene und somit auf jede*n einzelne*n Mitarbeiter*in. Es handelt sich hierbei um Persönlichkeitsmerkmale, die erfolgskritisch für den Umgang mit digitaler Transformation sind (>> ausführliche Definition). Die folgenden Dimensionen sind Bestandteile des digitalen Mindsets:

  • Offenheit und Agilität vs. Beharrlichkeit
  • Kundenzentriertheit vs. Aufgaben- und Organisationszentriertheit
  • Kritikfähigkeit vs. Harmonieorientierung
  • Proaktivität und unternehmerische Handlungsorientierung vs. Reaktivität und Lageorientierung
  • Kreativität und Gestaltungsmotivation vs. Prozesstreue
  • Offener Umgang mit Scheitern vs. Vermeidung von Misserfolg

Somit existieren ganz viele verschiedene Mindset Ausprägungen der Mitarbeiter*innen in einer Organisation. Das Verhalten der Mitarbeiter*innen ist dann jedoch die Kombination aus Mindset (Persönlichkeitseigenschaften) und Umweltbedingungen (geprägt durch die Unternehmenskultur). Dies zeigt, wie sehr sich diese beiden Themen beeinflussen und auch bedingen.

Lernkultur als Rahmenbedingung für Mindset Entwicklung

Mit Blick auf die Entwicklung von digitalem Mindset spielt die Unternehmenskultur und hier im Besonderen die Lernkultur des Unternehmens einen sehr wichtigen Faktor. Denn Mindset Entwicklung ist ein langfristiger Prozess und bedarf deshalb eines kontinuierlichen Lernens (>> Artikel “Lebenslanges Lernen ist ein Marathon”). Dieses langfristige Lernen kann nur schwierig aufrechterhalten werden, wenn die Lernkultur im Unternehmen das nicht aktiv unterstützt. Im Vergleich zur Entwicklung von Hard Skills (z.B. Programmiersprachen oder Software-Kenntnissen), die durch kurzfristige entstehende Lernmotivation geschafft werden kann, ist die Lernkultur ein kritischer Erfolgsfaktor für eine erfolgreiche Mindset Entwicklung. Eine für Mindset Entwicklung zuträgliche Lernkultur kann ganz unterschiedlich ausgeprägt sein und verschiedene Facetten beinhalten. Jedoch werden alle Facetten vereint durch eine lernfördernde Wirkung. Lernen darf hierbei nicht als Schwäche oder notwendiges Übel dargestellt werden, sondern als ein bereicherndes und wertvolles Element des Alltags.

Wenn digitale Transformation als Eisberg betrachtet wird, besteht der sichtbare Teil oberhalb des Wasserfläche aus Technologie, Prozessen und Geschäftsmodellen. Das Fundament unterhalb der Wasseroberfläche (und damit unsichtbar) ist der Mensch und somit die Mitarbeiter*innen und ihr digitales Mindset. Das Verhalten der Mitarbeiter*innen und damit die Entfaltung und auch Entwicklung des digitalen Mindsets wird durch die Unternehmenskultur beeinflusst. Das Eine geht also ohne das Andere nicht.

Über den Autor:

Julian Knorr ist Gründer und Vorstand der ONESTOPTRANSFORMATION AG. Gemeinsam mit seinem Team unterstützt er Unternehmen bei der Analyse und Entwicklung von digitalem Mindset. Hierfür hat ONESTOPTRANSFORMATION zwei Tech Produkte entwickelt:

Der Digital Competence Indicator (DCI) analysiert digitales Mindset wissenschaftlich valide. Hierauf baut die Lernplattform MIA auf, die individualisierte Lernpfade zur Mindset Entwicklung bereitstellt. Zu den Kunden gehören KMUs (z.B. Sparkasse) bis hin zu Großkonzernen, wie z.B. Lufthansa.


Bildquelle / Lizenz Aufmacher:

Photo by National Cancer Institute on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Unicorn Choco

Bestell-App Choco investiert 80 Millionen Euro in neue Digitalangebote

Die Bestellplattform Choco zieht nach Abschluss der Internorga eine durchweg positive Bilanz des Messeauftritts. Dabei traf die Digital-App, die aktuell das Verfahren der Warenbestellung zwischen Gastronomie und Lieferant:innen weltweit revolutioniert, offensichtlich exakt den Nerv des Messepublikums. Neben weit über 1.000 Neukund:innen, die sich direkt auf dem Messestand für die Choco-App registriert haben, erhielt das Team des Berliner Unternehmens auch direktes Nutzerfeedback und damit wichtige Impulse für neue Produktfeatures.

„…Warenbestellung so einfach, wie eine Chatnachricht zu schreiben.“

Daniel Khachab, Mitbegründer und CEO von Choco
Daniel Khachab

Nach sechs inspirierenden Messetagen steht für Daniel Khachab, Mitbegründer und CEO von Choco, fest: „Mit unserer Idee der Digitalisierung der Bestellprozesse laufen wir aktuell offene Türen ein. Das hat die Internorga ganz deutlich gemacht. Es freut mich sehr, dass unsere Kund:innen – auf der einen Seite die Gastronomie, auf der anderen Seite die Lieferant:innen – unsere Mehrwerte sofort und ohne lange Erklärungen verstehen. Das war uns bei der Entwicklung besonders wichtig, und das positive Feedback zeigt mir, dass wir vieles richtig gemacht haben. Mit Choco wird Warenbestellung so einfach, wie eine Chatnachricht zu schreiben. Das spart Zeit und Geld. Die Transparenz in allen Prozessen hilft zudem dabei, dass deutlich weniger Lebensmittel in der Tonne landen. Das ist nicht nur ökologisch sinnvoll, sondern macht sich auch im Portemonnaie der Gastronom:innen bemerkbar.“

In den Gesprächen mit bestehenden und potenziellen Kund:innen wurde ebenfalls deutlich, dass die Digital-App weiterhin viel Ausbaupotenzial besitzt. So gab es auf der Internorga auch wichtige Impulse für eine Weiter- und Neuentwicklung von Funktionen, etwa rund um Payment oder wiederkehrende Bestellungen.

Ausbau um Payment- und weitere Servicefeatures geplant

„Wir werden in den nächsten zwölf Monaten rund 80 Millionen Euro in den Ausbau unserer Software investieren. So sollen Lieferanten künftig nicht nur die Rechnungstellung komplett über die Plattform abwickeln, sondern Choco auch als Zwischenfinanzierer nutzen können. Das erhöht die Liquidität für die Lieferant:innen und reduziert den finanziellen Druck auf die Gastronom:innen. Außerdem haben wir viele praktische Features geplant, wie etwa Erinnerungsfunktionen, damit in der Hektik des Alltags nichts vergessen wird: Auf KI-Basis werden regelmäßige Bestellungen getrackt und dann Gastronom:innen und Lieferant:innen daran erinnert. Das Ziel auch hier: Prozesse einfacher und transparenter gestalten und mögliche Bestellfehler verhindern“, so Khachab weiter.

„Lebensmittelverschwendung ist eins der größten Probleme unserer Zeit.
Wir sind uns sicher, dass die Digitalisierung der Bestellprozesse hier erheblich zur Reduzierung beitragen wird.“

Wie groß das Risiko von Fehlbestellungen tatsächlich ist, offenbart eine Umfrage des Choco-Teams in Frankreich. Dort ist jede vierte Bestellung der Gastronomie bei den jeweiligen Lieferanten bislang fehlerhaft und führt zur Verschwendung von Lebensmitteln. Weltweit soll gar ein Drittel aller Lebensmittel in der Tonne landen. Eine Katastrophe für Khachab: „Lebensmittelverschwendung ist eins der größten Probleme unserer Zeit. Wir sind uns sicher, dass die Digitalisierung der Bestellprozesse hier erheblich zur Reduzierung beitragen wird.“

Über Choco

Choco ist ein Unternehmen, das Gastronom:innen und deren Lieferant:innen auf einer gemeinsamen digitalen Plattform miteinander verbindet. Waren zu bestellen wird dadurch so einfach, wie eine Chatnachricht zu schreiben. Durch die Optimierung der Einkaufsprozesse können Kund:innen Zeit, Geld und Lebensmittel sparen. Gegründet wurde Choco von den Serial-Entrepreneuren Daniel Khachab und Julian Hammer sowie Grégoire Ambroselli. Seit der Gründung 2018 ist das Unternehmen schnell gewachsen und heute aktiv in Märkten wie den USA, Deutschland, Frankreich, Spanien, Österreich, Großbritannien und Belgien. Im Februar 2022 betrug der Gesamtwert der über Choco gehandelten Waren mehr als 1,17 Milliarden Euro. Im April 2022 stieg Choco mit einer Bewertung von über einer Milliarde US-$ in die Riege der Einhörner auf.

https://choco.com/de/

Quelle / Lizenz Personenfoto: Saskia Uppenkamp; Fotograf; Berlin; Portrait; Photographer; PR; Presse; PR-Foto

Ende der Homeoffice-Pflicht

Das Ende der Homeoffice-Pflicht – Fachanwalt zeigt, wie sich Unternehmen nun am besten positionieren

Mit der Modifizierung des Infektionsschutzgesetzes fällt für die Unternehmen die Pflicht weg, ihre Mitarbeiter aus dem Homeoffice agieren zu lassen. Doch welche Voraussetzungen sind für deren Rückkehr eigentlich zu schaffen und welche Risiken können dabei auftreten?

Fragen, die RA Domenic C. Böhm in diesem Beitrag gerne beantwortet. Der Rechtsanwalt für das Arbeitsrecht erläutert dabei unter anderem, warum die Unternehmen ihre Angestellten unverzüglich ins Büro beordern sollten, um der Gefahr des Gewohnheitsrechts entgegenzuwirken.

RA Domenic C. Böhm

Klare Regelungen werden benötigt

Wer die sich aus der neuen Situation ergebenden Fragen beantworten möchte, kommt an rechtlichen Grundlagen nicht vorbei. Diese können in einer Betriebsvereinbarung festgelegt werden, die zwischen dem Arbeitgeber und der Arbeitnehmervertretung für alle Kollegen geschlossen wird. Ebenso ist an eine individuelle Lösung zu denken: Die Frage, ob und wie oft aus dem Homeoffice gearbeitet werden darf, wird mit jedem Angestellten persönlich besprochen und anschließend in dessen Arbeitsvertrag eingefügt.

Das Recht auf Homeoffice

Leider wurde in vielen Unternehmen bislang die Chance verpasst, die Arbeitsverträge entsprechend anzupassen oder eine Betriebsvereinbarung zu treffen. Ob die Angestellten von zu Hause aus arbeiten dürfen, bleibt folglich unbeantwortet. Mittlerweile wurde das Infektionsschutzgesetz jedoch verändert. Nunmehr haben die Arbeitnehmer zwar noch immer ein Recht, ins Homeoffice zu wechseln, für die Unternehmen ergibt sich daraus aber keine Verpflichtung, diesen Anspruch auch tatsächlich anzuerkennen.

Besteht eine Pflicht für das Homeoffice?

Existieren tatsächlich keine angepassten Verträge und keine Vereinbarungen mit der Arbeitnehmervertretung, so ist auf jene Rechtsgrundlage zurückzugreifen, die schon vor der Pandemie einschlägig war: Aus den Arbeitsverträgen ergibt sich konkret, von wo aus jeder Angestellte seinen Dienst zu verrichten hat. Ist dabei das Büro im Unternehmen genannt, so besteht für den Arbeitgeber folglich keine Verpflichtung, seinem Arbeitnehmer den Wechsel ins Homeoffice zu gestatten.

„Vorsicht: Wer es jetzt verpasst, die Belegschaft wieder ins Büro zu beordern, der löst damit eventuell das Gewohnheitsrecht aus.“

Es droht der Eintritt des Gewohnheitsrechts

Für die Unternehmen mag die Pflicht weggefallen sein, ihren Angestellten die Arbeit aus dem Homeoffice zu ermöglichen. Aber Vorsicht: Wer es jetzt verpasst, die Belegschaft wieder ins Büro zu beordern, der löst damit eventuell das Gewohnheitsrecht aus. Denn je länger die Kollegen von zu Hause aus arbeiten dürfen, obwohl sie darauf keinen Anspruch mehr besitzen, desto stärker können sie auch künftig auf dieses Privileg pochen – und es sogar juristisch durchsetzen.

Es werden klare Regelungen benötigt

Umso wichtiger ist es jetzt, für eindeutige Rahmenbedingungen zu sorgen. Diese sollten idealerweise nicht nur in der Gegenwart gelten. Vielmehr müssen sie auch bei einer Verschlimmerung der Pandemie in den kommenden Monaten ein hohes Maß an Rechtssicherheit bieten. Es stellt sich dabei die Frage, von wo aus und wie die Angestellten ihrer Arbeit am besten nachkommen können, um für das Unternehmen einen besonders großen Nutzen zu entfalten.

Über den Gastautor

RA Domenic C. Böhm:

RA Domenic C. Böhm ist Partnervon SYLVENSTEIN Rechtsanwälte, einer der am schnellsten wachsenden Wirtschaftskanzleien im digitalen Bereich. Sie betreuen ausschließlich Unternehmer und sind spezialisiert auf alle Aspekte rund um das Führen eines Unternehmens: vom Vertragsrecht über das Arbeitsrecht bis hin zum Medienrecht. Weitere Informationen unter: https://sylvenstein-law.de/.

Volkswagen Financial Services baut digitale Finanzdienstleistungen aus

Die Automobilindustrie befindet sich im tiefgreifenden Wandel, der von der Elektrifizierung über autonome Fahrzeuge bis hin zum pandemiebedingten veränderten Verbraucherverhalten reicht. Die Verbraucher verlangen – vom Kauf, über Leasing bis hin zu Carsharing-Vereinbarungen – zunehmend nach flexiblen Zahlungsoptionen, was die Anforderungen an die Finanzinstitute in der Automobilindustrie erhöht.

Um in diesem Markt eine führende Position einzunehmen, setzen die Volkswagen Financial Services einen starken Fokus auf die Digitalisierung. Um hier Fortschritte zu erzielen, musste das Unternehmen neue Wege gehen. Denn die Bestandsapplikationen waren nicht mehr in der Lage, die rasch wachsenden Anforderungen in den Bereichen „Perfomance“ und „Time to Market“ abzudecken.

„Unsere Vertragsmanagement-Software ist eine absolut kritische Anwendung“, sagt Marc Miether, Head of Middleware and Container Services bei Volkswagen Financial Services. „Sie ist die Anwendung für das Leasinggeschäft für unsere Länderorganisationen. Ohne sie kann für keine der Marken des Volkswagen Konzerns auch nur ein einziger neuer Vertrag abgeschlossen werden.“

„Unsere Vertragsmanagement-Software ist eine absolut kritische Anwendung“, sagt Marc Miether, Head of Middleware and Container Services bei Volkswagen Financial Services.

Um diese umfangreichen Anforderungen an die Anwendung zu erfüllen, benötigte das Unternehmen eine Plattform, die gleichermaßen flexibel, hochverfügbar und sicher ist. Denn sie muss die zahlreichen unterschiedlichen Anwendungsfälle im Unternehmen – einschließlich solche auf Basis von Containertechnologie – unterstützen können. Diese neue IT-Plattform des Finanzinstituts muss die strengen Auflagen der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) erfüllen und entsprechend auf dem neusten sicherheitstechnologischen Stand sein.

VMware-Lösung automatisiert Management der digitalen Anwendungen

Um Standard-Anwendungen wie zum Beispiel eine Vertragsmanagement-Software schnell und skalierbar bereitstellen zu können, implementierte Volkswagen Financial Services eine moderne digitale Plattform auf Basis von VMware Tanzu Kubernetes Grid Integrated Edition (TKGI) zusammen mit der Netzwerk- und Security-Lösung VMware NSX-T. Die Implementierung versetzt Volkswagen Financial Services in die Lage, ein zentrales Anwendungsportfolio für die schnelle wachsenden Märkte zur Verfügung zu stellen, neue Geschäftsfelder zu erschließen und die eigene Position im hart umkämpften Mobilitätssektor zu sichern.

„Wir haben uns für die TKGi Lösung entschieden, da wir im Haus bereits eine sehr stabile und effizient gemanagte vSphere-Lösung haben, auf deren Basis nun die Containerumgebung aufgebaut wurde. Nach einem Jahr in Produktion hat sich gezeigt, dass dies eine gute Entscheidung war: Bisher haben wir noch keinen plattformbedingten Ausfall zu verzeichnen. Neben Stabilität ermöglicht uns die hohe Integration in unsere Bestandsumgebung es auch, Themen aus der IT Security und Governance schnell und einfach über die vorhandenen Mechanismen zu bespielen“, erklärt Marc Miether.

Landesgesellschaften erhalten schneller Zugriff auf gesamtes Anwendungsportfolio

Durch die Einführung der neuen Plattform auf Basis von VMware TKGI und VMware NSX-T profitiert die Volkswagen Financial Services AG von gesteigerter Netzwerkautomatisierung, die durch Containertechnologie die Bereitstellung der Anwendungen deutlich erleichtert und damit beschleunigt. „Mit TKGI können viele Anwendungen gleichzeitig auf einer standardisierten Plattform betrieben werden; und das mit einem kleinen, schlagkräftigen Team ”, erklärt Marc Miether. „Da jetzt Marktstandards wie Container zum Einsatz kommen, vereinfacht sich die Zusammenarbeit mit den Anbietern von Softwareanwendungen.” Dazu ist die IT-Sicherheit für VW Financial Services von größter Bedeutung. Das System schützt vollumfänglich sämtliche Anwendungen und sorgt für die vollständige Einhaltung von regulatorischen Vorschriften und Governance-Anforderungen.

Durch die neue Plattform hat Volkswagen Financial Services bereits Wachstumsregionen wie den Niederlanden und Mexiko schnell und unkompliziert eine Anwendung zur Abwicklung von Leasinggeschäft bereitgestellt. So können die Länderorganisationen ihr Leasinggeschäft auf- und ausbauen und die Position des Unternehmens im hart umkämpften und turbulenten Marktumfeld stärken und stabilisieren.

Über die Volkswagen Finanzdienstleistungen

Die Volkswagen Finanzdienstleistungen sind ein Geschäftsbereich der Volkswagen AG, einem der größten Automobilhersteller der Welt. Die Volkswagen Financial Services AG mit ihren Beteiligungsgesellschaften ist Teil der Volkswagen Finanzdienstleitungen – zusammen mit der Volkswagen Bank GmbH, der Porsche Financial Services sowie den direkt oder indirekt der Volkswagen AG gehörenden Finanzdienstleistungsgesellschaften in den USA und Kanada – mit Ausnahme der Marke Scania sowie der Porsche Holding Salzburg. Zu deren wesentlichen Geschäftsfeldern zählen Händler- und Kundenfinanzierung, das Leasing, das Bank- und Versicherungsgeschäft, Flottenmanagementgeschäft sowie Mobilitätsangebote. Präsent in 48 Märkten weltweit und mit mehr als 16.558 Mitarbeitern ist Volkswagen Financial Services einer der größten Anbieter in der Mobilitätsbranche.


Bildquelle / Lizenz Aufmacher:

Photo by Ammar Devedžić on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Slalom: Neuer Standort in Deutschland

Das Beratungsunternehmen, das von seinen Kunden und Partnern für sein Fachwissen in den Bereichen Strategie, Technologie und Geschäftstransformation geschätzt wird, genießt auch den Ruf als bester Arbeitsplatz

Slalom, ein globales Beratungsunternehmen mit Fokus auf Strategie, Technologie und Geschäftstransformation, hat die Eröffnung eines Standorts in Deutschland angekündigt.

Slalom verfügt über umfangreiche Erfahrungen in der Beratung und Betreuung von Unternehmen u. a. in den Bereichen Gesundheitswesen und Biowissenschaften, Medien und Kommunikation, Technologie, Fertigung und Finanzdienstleistungen und ist damit ein hervorragender Partner für deutsche Unternehmen, die ihre Visionen verwirklichen wollen.

„Wir gehen unser Wachstum auf eine für Slalom typische Art und Weise an, geleitet von unseren Werten und einer konsequenten Kundenorientierung“, so John Tobin, Slalom-Mitbegründer und Executive Vice President, EMEA & APAC. „Unsere Partner und Kunden haben uns gebeten, sie auf den Märkten in aller Welt zu begleiten. Wir freuen uns darauf, unsere globale Präsenz zu erweitern, weil wir Menschen und Unternehmen helfen möchten, größer zu träumen, schneller voranzukommen und eine bessere Zukunft für alle zu schaffen.”

Slalom genießt auch in Deutschland den Ruf eines „besten Arbeitsplatzes“; für die Unternehmenskultur wurden zahlreiche Auszeichnungen vergeben, die auf dem Feedback derjenigen beruhen, die das Unternehmen am besten kennen – seine Mitarbeiter. „Wir streben danach, dass jedes Teammitglied seine Arbeit und sein Leben liebt – und ermutigt wird, sein authentisches Selbst in unser integratives, flexibles Umfeld einzubringen“, fügt Heather Sneddon, Interimschefin für Deutschland, hinzu.

Slalom arbeitet bereits mit namhaften Unternehmen in Deutschland zusammen und rechnet damit, bis zum Ende des Jahres bis zu 75 Mitarbeiter einzustellen, um die Transformationsinitiativen der Kunden zu unterstützen, einschließlich der Entwicklung neuer digitaler Produkte, die moderne und agile Arbeitsmethoden nutzen. Slalom Deutschland wird Kunden im ganzen Land betreuen, wobei das Büro heute in München eröffnet wurde und schnell auf andere Standorte wie Frankfurt, Köln, Düsseldorf und Berlin ausgeweitet wird.

Slalom pflegt starke Partnerschaften mit über 400 führenden Technologieanbietern, darunter Amazon Web Services, Google Cloud, Microsoft, Salesforce und Tableau, sowie mit regionalen Innovationszentren. Slalom wurde vom Fortune Magazine, Glassdoor, Forbes Magazine, Human Rights Campaign und vielen anderen als eines der besten Unternehmen ausgezeichnet.

Mit der Expansion nach Deutschland hat Slalom nun Niederlassungen in sechs Ländern, darunter Australien, Kanada, Japan, das Vereinigte Königreich und die Vereinigten Staaten.

Dies ist eine Pressemitteilung des Unternehmens Slalom Germany.

Bildquelle / Lizenz Aufmacher:

Photo by Possessed Photography on Unsplash

Information Security World 2022

Smarte Sicherheit für eine vernetzte Gesellschaft​! Die Information Security World ist zurück.

Nach dreijähriger Corona-Abstinenz veranstalten NTT DATA, ein globaler Marktführer für digitale Geschäfts-, IT- und Telekommunikations-Dienstleistungen, und NTT Ltd., ein weltweit führender Technologie-Dienstleister, die erfolgreiche Cybersecurity-Konferenz und -Messe wieder als Präsenzevent. Am 31. Mai und 1. Juni treffen sich Expertinnen und Experten der NTT Gruppe und führende Anbieter aus der Cybersecurity mit voraussichtlich 300 Gästen wie CIOs, CISOs, IT-Security-Verantwortlichen und IT-Managern. Im Kempinski Hotel Gravenbruch in Neu-Isenburg diskutieren sie an den zwei Tagen über Strategien und konkrete Lösungen für alle Herausforderungen in der Cybersicherheit. ​

Die neue Arbeitswelt nach der Pandemie hat neue Bedrohungslagen geschaffen, die sich durch den Konflikt in der Ukraine noch einmal verschärft haben. Weil sich gleichzeitig die Digitalisierung und Vernetzung in der Gesellschaft und Wirtschaft rasant beschleunigen, stoßen etablierte Sicherheitskonzepte an ihre Grenzen – es braucht neue Strategien zum Schutz vor Angriffen.

Unter dem Motto „Smart Security for a connected Society“ wirft die ISW 2022 einen Blick in die Zukunft: Mit welchen Bedrohungen müssen wir in den kommenden Jahren rechnen, welche neuen Regularien sind zu erwarten und wie sieht ein ganzheitlicher Schutzschirm gegen immer individuellere und komplexere Angriffe aus?

„Wer jetzt nicht endgültig in ausreichende Schutzmaßnahmen zur Abwehr investiert, ist gegen die Flut an Cyberattacken nicht gewappnet“

Kai Grunwitz
Kai Grunwitz,
Geschäftsführer der NTT Ltd. in Deutschland

Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland, erklärt: „Während der Corona-Pandemie und jetzt durch den Krieg in der Ukraine hat sich die Bedrohungslage durch Cyberangriffe massiv verschärft. Cyberkriminelle nutzen die Situation aus und nehmen Unternehmen, Betreiber kritischer Infrastrukturen sowie Einrichtungen der öffentlichen Hand mit Angriffen vermehrt ins Visier. Wer jetzt nicht endgültig in ausreichende Schutzmaßnahmen zur Abwehr investiert, ist gegen die Flut an Cyberattacken nicht gewappnet“, erklärt Grunwitz.

„Zusammen mit den wichtigsten Anbietern aus dem IT-Security-Bereich zeigen wir auf der diesjährigen ISW, welche Lösungen Unternehmen helfen, um sich vor den aktuellen Bedrohungen schützen zu können. Die aktuelle Lage hat uns wieder einmal verdeutlicht, wie bedeutend eine umfassende, durchgängige Cybersecurity-Strategie ist.“


Stefan Hansen,
CEO und Vorsitzender der Geschäftsführung NTT DATA DACH

„Gemeinsam mit unseren Partnern und Kunden bündeln wir unsere Kräfte und entwickeln neue Strategien und Lösungen für eine sichere Gesellschaft der Zukunft“

„Cybersecurity ist eine der größten weltweiten Herausforderungen und gewinnt immer mehr an Bedeutung. Gemeinsam mit unseren Partnern und Kunden bündeln wir unsere Kräfte und entwickeln neue Strategien und Lösungen für eine sichere Gesellschaft der Zukunft“, sagt Stefan Hansen, CEO und Vorsitzender der Geschäftsführung NTT DATA DACH.

„Dabei profitieren wir von unserer globalen Stärke und der Vielfalt unserer Kompetenzen.“

ISW 2022 – Fakten

Auf der ISW 2022 zeigen die wichtigsten Anbieter, NTT-Experten und Referenzkunden aus der IT-Security an zwei geballten Tagen einen informativen und spannenden Mix aus 50 Fachvorträgen in jeweils fünf parallelen Thementracks:

Themen-Tracks

31. Mai:

Cyber Defense Solutions
Hybrid Infrastructure
Application Security
Identity & Key Management
Data Security & Protection

1. Juni:

NTT Services
Hybrid Infrastructure
OT & IT
Governance Risk & Compliance
Digital Workplace

Highlights

Die Keynote am ersten Tag hält der österreichische Jurist, Autor und Datenschutzaktivist Max Schrems zum Thema „Von Safe Harbor zum globalen Grundrechtsschutz“. Im Demo Theatre zeigen NTT-Experten Sicherheitsprodukte und Serviceangebote in einer simulierten Unternehmensumgebung. Am Ende des ersten Tages bleibt Zeit für Networking, eine Security Night mit Dinner und ein Live Hacking wird für reichlich Diskussionsstoff sorgen.

Den zweiten Tag eröffnet Tony Richards, Senior Security & Compliance Specialist, Office of the CISO, Google Cloud, und spricht in seiner Keynote über „Cloud Security Megatrends“. Das Interview mit Journalist und Schriftsteller Wolf Harlander, der in seinem Thriller „Systemfehler“ das Szenario eines totalen Internetausfalls entwirft, der unsere Zivilisation in die Knie zwingen würde, bildet den Abschluss der diesjährigen ISW.

ISW-Presse-Roundtable: Ransomware wird überbewertet​

Für Journalisten findet am 31. Mai 2022 von 14 bis 16 Uhr der ISW-Presse-Roundtable statt. Patrick Schraut, Senior Vice President Cybersecurity NTT DATA DACH, und Bernhard Kretschmer, Vice President Service and Cybersecurity NTT Ltd. in Deutschland, stellen sich den Fragen der Medienvertreter. Zudem erhalten Medienvertreter einen exklusiven Live-Einblick in ein Security Operations Center (SOC) der NTT Gruppe und können direkt Fragen an das Team stellen.

Date and Time

Dienstag, 31.Mai 2022
Mittwoch, 01. Juni 2022

Veranstaltungsort

Kempinski Hotel Frankfurt Gravenbruch

Graf zu Ysenburg und Buedingen Platz 1
63263 NEU ISENBURG
Deutschland

Weitere Informationen zur Veranstaltung, zur kostenlosen Anmeldung sowie die vollständige Agenda finden sich unter: https://ntt-isw.com/#section-1-17

Aufmacherbild / Personenfotos
Quelle Lizenz NTT Ltd. und NTT DATA


Lizenz Pressemitteilung

Hostile Tech

Wie Unternehmen Technologien verantwortungsvoll und im Sinne ihrer Stakeholder nutzen können, erläutert Erik Dörnenburg, Developer und Head of Technology bei Thoughtworks.

Technologien nehmen eine immer wichtigere Rolle in unserem Leben ein. Zum Teil ohne dass wir es bemerken. Aber werden vermehrt Entscheidungen und Aufgaben an besagte neue Technologien übertragen, dann wollen wir, dass diese unseren ethischen Erwartungen und Werten entsprechend getroffen bzw. umgesetzt werden. Dies führt unweigerlich dazu, dass sich auch Unternehmen Gedanken darüber machen, wie neue Technologien, wie Quantencomputer, das Internet der Dinge (IoT), künstliche Intelligenz (KI), Robotik oder Blockchain, richtig gehandhabt und gesteuert werden können. Viele Unternehmen sind sich heute sehr wohl der Tatsache bewusst, dass die von ihnen geschaffenen Technologien nicht im luftleeren Raum genutzt werden, sondern (gesellschaftspolitischen) Machtdynamiken unterliegen und damit weitreichende ethische Auswirkungen haben können.

Doch welche Technologien werden uns noch weiter im Alltag begleiten und Einfluss auf Unternehmen und Gesellschaft haben? Der aktuelle Looking Glass Report von Thoughtworks beleuchtet 100 Technologietrends. Hostile Tech ist eines von sechs Schwerpunktthemen, deren Chancen und Risiken der Report bewertet.

Alles eine Frage der Perspektive

Ob Technologien als „feindselig“ angesehen werden, ist oftmals eine Frage der Perspektive. In der Regel wird der Begriff „Hostile Tech“ vor allem mit kriminellen Handlungen, wie Ransomware oder Datenklau assoziiert. Aber auch legale und oft allgemein anerkannte Aktivitäten, wie Werbung und gezielte Kundenansprache, können von Nutzer:innen als Bedrohung angesehen werden. Während einige Menschen personalisierte Werbung als angenehm empfinden, weil sie so auf sie zugeschnittene Angebote erhalten, nehmen andere Menschen die dahinterstehende Sammlung ihrer personenbezogenen Daten als unangebracht oder gar bedrohlich wahr. 

Die zunehmende Besorgnis über die Nutzung und den Einfluss sozialer Medien in politischen Kampagnen, sowie die Art und Weise, wie politische und gesellschaftliche Debatten über soziale Medien geführt werden, rückt Hostile Tech immer weiter in den Fokus. Die zunehmende Regulierung rund um Datenerfassung, -nutzung und -speicherung, wie zum Beispiel in der europäischen Datenschutzgrundverordnung (DSGVO), spiegelt die kritische Haltung der Verbraucher:innen wider. 

Wenn der Algorithmus diskriminiert

Auch die unbeabsichtigten Verzerrungen in Algorithmen oder maschinellen Lernsystemen können bedrohlich sein. Besitzt die Technologie einen hohen Automatisierungsgrad, steigt die Wahrscheinlichkeit für ungewollte Verzerrungen rapide an. So stufte die Google-Bilderkennung im Jahr 2015 Menschen mit dunkler Hautfarbe als Gorillas ein. Ein weiteres Beispiel zeigt, dass alle Menschen von Verzerrungen betroffen sein können. Viele Einstellungsprogramme großer Unternehmen nutzen etwa Künstliche Intelligenz für die Prüfung von Bewerbungen und die Auswahl der besten Talente. Amazon hatte solche KI-Systeme eingesetzt, die sich später als frauenfeindlich herausstellten. 

Diese Verzerrung liegen darin begründet, dass ein Algorithmus immer nur so gut ist, wie die Daten auf deren Grundlage er arbeitet. Die zugrundeliegenden Daten sind das Blut in den Adern der Algorithmen. Sie bilden die Basis für selbstlernende Systeme, sowie ultimative Vorlagen für alle späteren Kalkulationen und Empfehlungen. Denn moderne Lernalgorithmen nutzen vorgegebene Datensammlungen, um darin Muster oder Verbindungen zu erkennen und Gesetzmäßigkeiten offenzulegen, auf die sich spätere Entscheidungen stützen können. Da diese Daten durch Menschen generiert und verarbeitet werden, sind sie nie neutral. Sie spiegeln beispielsweise weit verbreitete Vorurteile wider oder erfassen nur bestimmte Personengruppen. Arbeitet ein “intelligentes” System auf der Grundlage eines solchen Datensatzes, ist das Ergebnis oft Diskriminierung. Dieser Umstand wird mit der voranschreitenden Verbreitung des maschinellen Lernens zur großen Herausforderung.

Negative Auswirkungen und Interessenskonflikte

Das Grundproblem bei der Entwicklung neuer Technologien: In der Regel haben die Verantwortlichen bestimmte Stakeholder im Sinn, deren Bedürfnisse erfüllt werden sollen. Doch oftmals hat das Produkt Auswirkungen auf andere Interessengruppen, die entweder nicht bedacht oder billigend in Kauf genommen werden. So könnte ein Produkt etwa negative Auswirkungen auf die Umwelt haben. Das Training eines einzigen Modells zur Verarbeitung natürlicher Sprache kann beispielsweise einen CO2-Ausstoß von 500t verursachen, was 125 Hin- und Rückflügen zwischen Tokio und Toronto entspricht  – eine Auswirkung, die nur wenige berücksichtigen.

Meta (früher: Facebook) nimmt nachweislich billigend in Kauf, dass 32 Prozent der Teenager-Mädchen sich durch Instagram noch schlechter fühlten, wenn sie sich in der Vergangenheit bereits wegen ihres Körpers schlecht gefühlt haben. Das zeigen interne Forschungsergebnisse, die das Unternehmen zwei Jahre lang geheim gehalten hat. In einem internen Bericht hieß es sogar, dass der Druck, nur die besten Momente zu teilen und perfekt auszusehen, Teenager in Depressionen, geringes Selbstwertgefühl und Essstörungen stürzen kann. Obwohl Meta die negativen Auswirkungen seiner geschäftlichen Aktivitäten bewusst war, änderte das Unternehmen nichts daran – es versuchte das Ganze sogar geheim zu halten. 

Die digitalen Ungleichheiten, die durch die Pandemie und die anhaltende Klimakrise noch deutlicher zu Tage befördert werden zeigen eindrücklich, warum es für Unternehmen an der Zeit ist, die feindseligen Auswirkungen ihrer technologischen Entscheidungen zu analysieren und zu berücksichtigen. Zudem verlangen Mitarbeiter:innen, Kund:innen, Investor:innen und andere Stakeholder, dass Unternehmen verantwortungsvoll und fair mit Daten, Technologien und digitalen Anwendungen umgehen. Ihnen ist es wichtig zu wissen, ob ein Unternehmen die rechtlichen Anforderungen erfüllt und ethische Konflikte adressiert. Für viele Firmen ist es deshalb längst überlebenswichtig, diese Anforderungen zu erfüllen. 

Doch wie können Technologien verantwortungsvoll und im Sinne der Gesellschaft genutzt werden?

Verantwortungsvolle Technologie – Der Schlüssel zum Erfolg?

Der Begriff der verantwortungsvollen Technologie („Responsible Tech“) ist die Oberkategorie für unterschiedliche Konzepte, die sich mit dem bewussten Umgang mit Technologie beschäftigen. Dabei soll das Verhalten von Technologie und Unternehmen mit den Interessen der Einzelnen und der Gesellschaft in Einklang gebracht werden. Er berücksichtigt gesellschaftliche Werte, unbeabsichtigte Umstände sowie den negativen Einfluss der Technologie und reduziert damit die Risiken, die durch die Technologie entstehen können. Verantwortungsvolle Technologie bezieht sich dabei nicht nur auf die Produkte, die Unternehmen entwickeln, sondern erstreckt sich über die gesamte Wertschöpfungskette. 

Die Zero-Trust-Architektur kann eine gute Möglichkeit sein, um verantwortungsvoll mit Technologien umzugehen und Datenlecks zu verhindern. Der strategische Ansatz basiert auf dem Grundsatz „Never trust, always verify“.  Galt lange Zeit die Grenze des Netzwerks als wesentliche Schwelle für den Schutz von IT-Systemen, müssen nun alle Zugriffe auf Ressourcen, sowohl intern als auch extern, laufend überprüft und verifiziert werden. Alles, was sich außerhalb der lokalen Domain abspielte, wurde als potenziell bedrohlich eingestuft und durch Sicherheitsmaßnahmen wie Malware-Scans und Firewalls kontrolliert. Geräte im eigenen Netzwerk galten hingegen als grundsätzlich vertrauenswürdig, da sie sich innerhalb dieser geschützten Umgebung befinden. Mit der Weiterentwicklung von Technologien hat sich die Lage allerdings wesentlich verändert. Durch Cloud-Services, Remote Work und die Verwendung von eigenen Geräten verschwimmt die Grenze zwischen dem eigenen Netzwerk und der äußeren Bedrohung zunehmend. Gleichzeitig stellt der rasante Anstieg von Cyberangriffen neue Anforderungen an die Sicherheitsstrategie von Unternehmen.

Auch dieIntegration diverser Teams – unabhängig von Faktoren wie der Herkunft, dem Geschlecht oder der sexuellen Orientierung– ermöglicht es Unternehmen, unterschiedliche Perspektiven einzubringen und kritisch über die wirtschaftlichen und sozialen Auswirkungen, die ihre bewussten oder unbewussten Handlungen nach sich ziehen können, zu reflektieren. Diese Meinungsvielfalt bildet eine Grundvoraussetzung für die Entwicklung von Technologien und Innovationen, die einen positiven gesellschaftlichen Wandel unterstützen, anstatt ihn zu untergraben. 

Mehr Sicherheit in der Software-Lieferkette

Hacker machen sich außerdem zunehmend die asymmetrische Natur von Angriff und Verteidigung zunutze – sie müssen nur eine Schwachstelle finden, während Unternehmen die gesamte Angriffsfläche absichern müssen – und setzen dabei immer ausgefeiltere Hacking-Techniken ein. Beim Angriff auf die Software-Lieferkette schalten sich die Angreifenden in der Regel im Vorfeld oder in der Mitte der Lieferkette ein, um mit ihren feindseligen Aktivitäten und deren Folgen bei möglichst viele Nutzer:innen Schaden zu hinterlassen. Im Vergleich zu isolierten Sicherheitsverletzungen weisen erfolgreiche Supply-Chain-Angriffe im Regelfall ein wesentlich größeres Ausmaß sowie weitreichendere Auswirkungen auf. 

Daher ist es besonders wichtig, Unternehmen für den verantwortungsvollen Umgang mit Technologien zu sensibilisieren. So können diese ihre IT gegen Datenschutz- und Sicherheitsverletzungen stärken sowie besser gegen neuere Bedrohungen und negative Auswirkungen, resultierend aus der zunehmenden Verbreitung feindseliger Technologien, schützen. Die Verbesserung der Sicherheit der Software-Lieferketteist dabei ein entscheidender Bestandteil, wenn Unternehmen an einer Strategie arbeiten, um ihre Systeme sicher zu halten. 

Ziel ist es, Sicherheit und Ethik zu einer Disziplin zu machen, die in allen Bereichen des Unternehmens zum Tragen kommt.

Wie viel Verantwortung können Unternehmen tragen?

Klar ist: (Globale) Unternehmen tragen eine immense Verantwortung – gegenüber ihren Mitarbeitenden, ihren Shareholdern, aber auch gegenüber der Gesellschaft. Dennoch stellt sich die Frage, wie viel Verantwortung Unternehmen tatsächlich tragen können. Müssen gesamtgesellschaftliche Fragen diesen Ausmaßes nicht von und mit politischen Entscheidungsträger:innen getroffen werden?

Der Dialog mit politischen Entscheider:innen ist unerlässlich, um auf Verbesserungen der gesetzlichen Vorschriften zum Schutz der Privatsphäre und des Datenschutzes zu drängen und um auf mögliche Rückschritte hinzuweisen. Unternehmen sollten ihr Bestes tun, um die negativen Auswirkungen ihrer Technologien sichtbar zu machen und zu bekämpfen. Aber vor allem die Politik ist in der Pflicht. Zwar gibt es auch in Deutschland und der Europäischen Union positive Entwicklungen, wie den Schutz der personenbezogenen Daten durch die DSGVO oder die Investition der Europäischen Kommission in ein umfangreiches Forschungs- und Entwicklungsprogramm für verantwortliche Innovation. Darüber hinaus haben die EU-Länder Erklärungen verabschiedet, die unterstreichen, dass Innovation verantwortungsvoll erfolgen muss. 

Ein gutes Beispiel für ein Projekt, das eine Win-Win-Situation für Unternehmen und Gesellschaft darstellt, ist Cloud Carbon Footprint (CCF), ein Open-Source-Tool, das unter Verwendung von Cloud-APIs die geschätzten CO2-Emissionen visualisiert. Damit können Unternehmen nun ihren CO2 Ausstoß verringern und gleichzeitig Kosten einsparen. 

Auch die Green Software Foundation (GSF) will durch neue Standards und Best Practices, die Entwicklung von Open-Source-Werkzeugen, Schulungen sowie den Aufbau einer Community „Grüner Software Botschafter“ das Verantwortungsbewusstsein und die Handlungsfähigkeiten fördern. Konkret soll der durch Software verursachte C02-Ausstoß bis zum Jahr 2030 um 45 Prozent reduziert werden. Das entspricht dem Beschluss des Pariser Klima-Abkommen (2015). Diese Initiativen wurden von den Unternehmen selbst ins Leben gerufen. Dennoch sollten auch zukünftig Anreize für Unternehmen geschaffen werden, um verantwortungsvolles Handeln im Sinne der Gesellschaft voranzutreiben.

Verantwortungsvolle Technologie: Eine Chance für Unternehmen sich zu positionieren

Eine aktuelle Umfrage von Cisco ergab, dass fast 80 Prozent der Verbraucher:innen den Datenschutz bei Kaufentscheidungen berücksichtigen und bereit sind, mehr für Produkte oder Anbieter mit höheren Datenschutzstandards zu bezahlen. Widerstandsfähige Datenschutzpraktiken werden damit für einige Unternehmen zu einem starken Unterscheidungsmerkmal.

Auch Apple nutzt seine Maßnahmen zum Datenschutz als Verkaufsargument und Unterscheidungsmerkmal gegenüber anderen Konzernen. Der Erfolg des Unternehmens zeigt: Der verantwortungsvolle Umgang mit Technologien, ihren Auswirkungen und dem Schutz von Daten, bietet einen klaren Vorteil zur Positionierung für Unternehmen. Diese investieren einerseits in den Schutz vor Hackerangriffen und achten andererseits darauf, Kundenwünsche zu respektieren, indem sie das unseriöse Sammeln von Daten vermeiden. 

Das alles trägt zum Vertrauen der Kund:innen bei und fördert eine positive Wahrnehmung des Unternehmens. Firmen sollten den Schutz gegen Cyberattacken aber nicht als Allheilmittel betrachten. Sie tun gut daran, ein solides Rahmenwerk für ihre Datenethik zu entwickeln und die möglichen negativen Auswirkungen, der von ihnen verwendeten Technologien, anzuerkennen.


Über den Autor

Erik Dörnenburg ist Software Engineer und leidenschaftlicher Technologe. Als Head of Technology bei Thoughtworks hilft er Kunden, ihre geschäftlichen Herausforderungen mit modernen Technologien, Plattformen und Praktiken zu lösen. Auf seiner 25-jährigen Reise durch die Tech-Branche ist Erik einer Fülle neuer Technologien begegnet. Dabei ist es ihm wichtig deren Potenzial zu bewerten und gleichzeitig bewährte Praktiken für die neuen Technologien zu adaptieren.

Während seiner gesamten Laufbahn war Erik ein Verfechter von agilen Werten und Open-Source-Software. Er ist regelmäßiger Redner auf internationalen Konferenzen, hat an einigen Büchern mitgewirkt und unterhält mehrere Open-Source-Projekte. Erik hat einen Abschluss in Informatik von der Universität Dortmund und hat Informatik und Linguistik am University College Dublin studiert.


Bildquelle / Lizenz Aufmacher:

Photo by Adi Goldstein on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Datensicherheit als Treiber der digitalen Souveränität

Wie Unternehmen digital selbstbestimmt handeln und so die Wettbewerbsfähigkeit langfristig sichern können, berichtet Ari Albertini, Chief Operating Officer der FTAPI GmbH.

Die fortschreitende Digitalisierung birgt neben den enormen Vorteilen, die für Unternehmen und Behörden entstehen, auch neue Bedrohungen und Risiken. Denn mit den wachsenden technologischen Abhängigkeiten, insbesondere von den großen, nicht-europäischen Hyperscalern, ist die digitale Souveränität massiv in Gefahr. Die Sicherheit von Systemen und Infrastrukturen stellt dabei eine besondere Herausforderung für Unternehmen und Behörden dar. Um auch in Zukunft digital souverän agieren zu können, sind Investitionen in die Cybersicherheit notwendig. Dabei spielen drei Bereiche eine besondere Rolle: die Verfügbarkeit von Technologien Made in Germany, die Interoperabilität von IT-Systemen und die Vertrauenswürdigkeit und Integrität der gespeicherten und verarbeiteten Daten. Denn nur, wenn die eigenen Daten vor Zugriffen von außen geschützt sind, ist die Vertrauenswürdigkeit jederzeit gewährleistet. Und nur dann können Unternehmen in Deutschland und Europa langfristig souverän agieren.

Was bedeutet digital souverän?

Der Ruf nach digitaler Souveränität, also der Reduzierung von Abhängigkeiten und der Möglichkeit zum selbstbestimmten Handeln in Bezug auf digitale Technologien, wird in Deutschland und Europa immer lauter. Gerade in politisch turbulenten Zeiten wird es immer wichtiger, die Verfügbarkeit von Systemen und den Zugang zu Daten jederzeit sicherzustellen. Denn ein selbstbestimmtes unternehmerisches Handeln ist nur dann möglich, wenn geschäftsentscheidende Prozesse nicht von Dritten beeinflusst werden können. Wenn die Funktionsfähigkeit von Systemen und Technologien durch Manipulationen oder Angriffe gestört wird, kann das enorme wirtschaftliche Schäden nach sich ziehen.

Digitale Souveränität bedeutet also, die fortschreitende Digitalisierung in Deutschland und Europa auch in Zukunft selbstbestimmt und unabhängig voranzutreiben. Dafür müssen Lösungen “Made in Germany” und “Made in Europe” entwickelt und eingesetzt werden, welche die Abhängigkeiten von internationalen Technologieanbietern minimieren.

Sicherheitsmerkmal Made in Germany

Auf dem Weg zur digitalen Souveränität spielt der Standort der Anbieter von digitalen Technologien oder Anwendungen eine wichtige Rolle. Aktuell dominieren, insbesondere im Technologieumfeld, nicht-europäische Anbieter den Markt. Diese globalen Player, auch Hyperscaler genannt, hosten ihre Services und Infrastrukturen außerhalb der EU – und unterliegen damit nicht den europäischen Sicherheitsanforderungen und Regularien wie beispielsweise der EU-DSGVO.

Setzen Unternehmen auf globale Player, riskieren sie neben einem Verlust der Daten auch eine mögliche Weitergabe an staatliche Institutionen, beispielsweise durch den Cloud-Act oder den US Patriot Act. Diese starken Abhängigkeiten stellen signifikante Bedrohungen für die Cybersicherheit von Unternehmen dar und schränken die Handlungsfreiheit von Unternehmen unter Umständen massiv ein.

Bei Lösungen und Systemen, die in Deutschland oder Europa gehostet oder sogar entwickelt wurden, bilden Standards und Regularien wie die EU-DSGVO oder Qualitätssiegel wie “Made in Europe” oder “Hosted in Germany” einen einheitlichen Rahmen, um eine sichere Infrastruktur und damit ein offenes und vertrauenswürdiges Datenökosystem zu schaffen. Unternehmen können darauf vertrauen, dass Technologien den europäischen oder deutschen Sicherheitsstandards entsprechen und Regularien, die den Datenschutz und die Datensicherheit betreffen, eingehalten werden. So können Daten vertrauensvoll ausgetauscht und sicher zur Weiterverarbeitung genutzt werden.

Sinnvolle Schnittstellen und Lösungen aus einer Hand

Dafür ist es außerdem relevant, dass IT-Systeme möglichst nahtlos zusammenarbeiten. Geeignete Schnittstellen ermöglichen dabei eine medienbruchfreie Kommunikation zwischen verschiedenen Systemen. Ist dies sichergestellt, können darüber hinaus Daten-Workflows, die häufig ein Einfallstor für Cyberkriminelle darstellen, automatisiert und damit zusätzlich abgesichert werden. Durch eine automatisierte, verschlüsselte und damit abgesicherte Übertragung von Dokumenten und Dateien werden bei Unternehmen zeitliche Ressourcen freigesetzt, die aktuell noch in der Ausführung monotoner und zeitintensiver Workflows gebunden sind. Durch die Automatisierung dieser Abläufe kann die gewonnene Zeit in die Entwicklung neuer, innovativer Lösungen und Geschäftsmodelle investiert werden, womit sich Unternehmen langfristig einen Wettbewerbsvorteil verschaffen.

Bei der Wahl des Technologieanbieters ist es darüber hinaus empfehlenswert, auf Lösungen zu setzen, die sich nicht nur einfach in bestehende Systeme integrieren lassen, sondern darüber hinaus in einer Plattform eingebunden sind, die mehrere Lösungen ineinander vereint. Hier haben sich bereits verschiedene Anbieter auf dem europäischen Markt etabliert, die Lösungen für den sicheren Datentransfer, virtuelle Datenräume oder Lösungen zur Prozessautomatisierung auf einer Plattform bündeln und die Vertrauenswürdigkeit und Integrität der erhobenen, übermittelten und weiterverarbeiteten Daten zu jeder Zeit sichern.

Vertrauenswürdigkeit durch Datensicherheit

Die Integrität und Vertrauenswürdigkeit der Daten ist für eine souveräne Datennutzung enorm wichtig. Dafür müssen Technologien, Anwendungen aber auch Daten jederzeit vor unbefugtem Zugriff geschützt sein, um sicher und manipulationsfrei in andere Systeme übertragen werden können.

Basis für eine sichere Übertragung der Daten ist eine durchgängige Verschlüsselung der gängigen Kommunikationswege. Durch eine entsprechende Absicherung der Kommunikationskanäle, beispielsweise des E-Mail-Verkehrs durch Ende-zu-Ende-Verschlüsselung oder durch ein geschütztes Input-Management, sind die Daten zu jedem Zeitpunkt der Übertragung vor Zugriffen von außen geschützt.

Um Daten darüber hinaus auch über Unternehmensgrenzen hinweg sicher bereitzustellen und einen sicheren Zugang zu ermöglichen, eignen sich virtuelle, sichere Datenräume: sie ermöglichen es Organisationen, Daten zu teilen, ohne dabei die Hoheit über die eigenen Daten zu verlieren. Unternehmen behalten hier zu jedem Zeitpunkt die Hoheit über die eigenen Daten, sodass ihre Vertrauenswürdigkeit und Integrität jederzeit geschützt ist. Durch eine feingranulare Administration von Zugriffsrechten behalten Unternehmen darüber hinaus jederzeit einen Überblick darüber, wer auf welche Daten zugreifen und diese bearbeiten kann.

Auf diese Weise bieten die geteilten Daten einen Mehrwert und tragen dazu bei, die Innovationspotenziale der erhobenen Daten voll auszuschöpfen. Die Sicherheit und Vertrauenswürdigkeit der ausgetauschten Daten sind erfolgsentscheidende Kriterien, wenn es darum geht, die Chancen der Digitalisierung und der zunehmenden Vernetzung optimal zu nutzen. Unternehmen müssen zu jeder Zeit die Kontrolle über die eigenen Daten behalten – auch dann, wenn sie für gemeinsame Projekte mit anderen Unternehmen geteilt werden.

Digitale souverän – nicht autark, aber selbstbestimmt

Trotz aller Bestrebungen in Richtung digitaler Souveränität wird es Unternehmen in Deutschland und Europa nur in Ausnahmefällen gelingen, von internationalen Technologieanbietern gänzlich unabhängig zu agieren. Das müssen sie auch gar nicht. Sie sollten aber ihre Bestrebungen darauf richten, einen selbstbestimmten, sicheren und reflektierten Umgang mit digitalen Technologien dort zu ermöglichen, wo er notwendig und gewünscht ist. Auf diese Weise können sie die Digitalisierung des eigenen Unternehmens selbstbestimmt, verantwortungsvoll und sicher gestalten und einen wichtigen Grundstein für eine digital souveräne und vor allem zukunftssichere Wirtschaft schaffen.

Über den Autor:

Ari Albertini ist Chief Operating Officer des Spezialisten für sichere Datenflows FTAPI Software GmbH. Nach Stationen in der Wissenschaft und der Projektberatung ist er seit 2015 bei FTAPI. Als Wirtschaftsinformatiker (M.Sc.) und Alumni der TU München verfügt er über mehr als 10 Jahre Erfahrung im Bereich der Strategieentwicklung, IT-Beratung, Software-Development sowie Produktkonzipierungen. Bei FTAPI kümmert er sich zudem um Themen wie agiles Arbeiten und Innovationen und ist regelmäßig als Autor von Fachbeiträgen sowie als Sprecher bei Branchen-Events tätig.


Bildquelle / Lizenz Aufmacher:

Photo by Christine Sandu on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hybride Customer Journey

Studie: Produkt-Suchen beginnen immer häufiger auf den Online-Shops von Händlern und Brands

Laut der „Shopper Story 2022 Deutschland“ von Criteo sind die Konsumenten in Deutschland heute zufriedener mit ihrer Kundenerfahrung als noch 2019

Das globale Technologieunternehmen Criteo mit der weltweit führenden Commerce Media Plattform, hat in seiner Studie „Shopper Story 2022 Deutschland“ untersucht, wie Konsumenten nach Produkten suchen und welche Faktoren ihre Kaufentscheidung beeinflussen. Die Befragung von 1.011 Konsumenten in Deutschland ergab, dass die Relevanz von Online-Shops durch eine bessere User Experience gerade zu Beginn der Shopping Journey im Vergleich zu 2019 deutlich an Relevanz gewonnen hat.

Die Online-Shops von Händlern und Brands spielen heute für Konsumenten, die bereits wissen, was sie kaufen möchten, eine zentrale Rolle; fast jeder Dritte (30 Prozent) sucht zuerst hier nach Informationen zu seinem Wunschprodukt. 2019 waren dies noch 22 Prozent. Umgekehrt nutzen 22 Prozent Suchmaschinen zu diesem Zweck, vor zwei Jahren waren dies noch 31 Prozent. Ein ähnliches Bild zeigt sich, wenn die Konsumenten nur wissen, welche Art von Produkt sie kaufen möchten. 26 Prozent beginnen ihre Produktsuche direkt in Online-Shops (2019: 19 Prozent), auf Suchmaschinen 23 Prozent (2019: 33 Prozent).

Investitionen in die User Experience zahlen sich aus

Der wesentliche Grund dafür, dass Konsumenten mehr direkt bei Händlern suchen, liegt laut der Studie in einer besseren User Experience begründet. Drei von vier Befragten gaben an, dass sie im Vergleich zu 2019 eine gewisse oder große Verbesserung sowohl bei der Suche nach Produkten als auch beim Finden der gewünschten Produkte auf den Online-Shops von Händlern und Brands feststellen.

„Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.“

Robert Kießling,
Head of Retail Media DACH

Diese positiven Erfahrungen der Nutzer spiegeln sich auch in ihren Online-Rezensionen wider. So gaben 72 Prozent der Konsumenten an, in den vergangenen sechs Monaten eine positive Rezension auf Grund einer guten Kundenerfahrung verfasst zu haben, 10 Prozent mehr als noch 2019. Gleichzeitig sank die Zahl derer, die eine negative Rezension verfasst haben, von 65 Prozent auf 54 Prozent.

Robert Kießling, Head of Retail Media DACH – Retail & Partnerships bei Criteo, erklärt dazu: „Mit der Pandemie hat sich die Art und Weise, wie Konsumenten online shoppen, nachhaltig verändert. Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.

Und das mit Erfolg, wie die Studie belegt. Immer mehr Konsumenten starten ihre Produktsuche auf Händlerseiten, was deren bereits hohe Attraktivität als Werbeumfeld für Brands weiter steigern und auch dem Thema Retail Media zusätzlichen Schub verleihen dürfte.“

Must-haves: Einfache Bestellung, kostenlose Lieferung und Rabatte

Ob sich ein Kunde nach seiner Suche aber auch wirklich für die Bestellung in einem bestimmten Online-Shop entscheidet, hängt von einer Reihe von Faktoren ab. Laut Studie an erster Stelle steht für etwas mehr als die Hälfte der Befragten dabei eine einfache und schnelle Bestellung, 54 Prozent bewerteten sie als äußerst wichtig. Es folgen eine kostenlose Lieferung (51 Prozent) sowie Rabatte und Sonderangebote (49 Prozent).

Ob der Händler beziehungsweise die Brand eine Shopping App anbietet, spielt bei der Frage nach der Kaufentscheidung bei diesem Anbieter nur eine nachgelagerte Rolle: Lediglich 19 Prozent empfinden eine App in diesem Zusammenhang als äußerst wichtig.

Studiensteckbrief:

Criteo, „Shopper Story 2022“, n=1.011 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum November 2021, durchgeführt mit Qualtrics als Umfrageplattform und Dynata als Panel-Provider. Vergleich mit Criteos „Shopper Story 2019“, n=1.015 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum Juli bis August 2019, Qualtrics/Dynata. 

Zum Download der Studie gelangen Sie hier

Mobile App Trends 2022

Adjust, die globale Mobile Marketing Analytics Plattform, veröffentlicht ihren jährlichen Mobile App Trends Report, der zeigt, dass sich das Wachstum von Mobile Apps 2021 weltweit weiter beschleunigt hat.

Nach einem Jahr voller Veränderungen in der Branche und regelrechten Umwälzungen infolge der Corona-Pandemie sind die Anzahl der Installationen und Sitzungen von Apps branchenübergreifend gewachsen. Apps der Kategorien Fintech, E-Commerce und Gaming sind dabei die Spitzenreiter und verzeichneten laut den Daten von Adjust im Jahr 2021 außerdem die höchsten monatlichen In-App-Umsätze, die je gemessen wurden.

Mit der Einführung von Apples iOS 14.5 und dem AppTrackingTransparency (ATT)-Framework im April 2021 war die Mobile-Marketing-Branche gezwungen, ihren Umgang mit Datenschutz und dem Tracking von iPhone-Nutzern grundlegend neu zu denken. Frühe Prognosen gingen davon aus, dass nur rund 5 % der iPhone-User der Nutzung ihrer Daten zustimmen würden. Die Daten von Adjust zeigen aber, dass Opt-in-Raten für iOS 14.5+ höher liegen als prognostiziert. Über alle Kategorien hinweg betrug die globale Opt-in-Rate im Mai 2021 16 % und stieg auf etwa 25 % an. Apps aus der Kategorie Gaming erreichten 2021 sogar Opt-in-Raten von 30 %.

Der Mobile App Trends Report basiert auf den 2.000 Apps, die 90 % des gesamten Datenverkehrs ausmachen und zusätzlichen Daten aus der gesamten Adjust-Datenbank. Der Bericht analysiert langfristige Trends bei Installationen, Sessions, Verweildauer in der App, Nutzerbindung, Reattributions-Raten und mehr im internationalen Vergleich. Die daraus gewonnenen Erkenntnisse liefern App-Entwicklern und Marketern wertvolle Einblicke in ihre Zielgruppen und die Gesamtlage der App-Branche.

„Das vergangene Jahr war eine echte Herausforderung“, sagt Simon „Bobby“ Dussart, CEO von Adjust. „Trotzdem hat sich das Mobile-App-Ökosystem weiterhin gut entwickelt und zeigt, wie robust und anpassungsfähig die App-Marketing-Branche ist. Man muss die Nutzer dort abholen, wo sie sind. Darum ist es für Marketer und Profis für die Nutzerakquise unerlässlich, datenbasierte Strategien zu entwickeln, um die Nutzerbindung zu verbessern und immer wieder neue und bestehende Zielgruppen zu identifizieren, zuzuordnen und zu messen.“

Die wichtigsten Erkenntnisse aus dem Mobile App Trends Report sind:

  • Installationen und Sessions von Fintech-Apps stiegen weltweit um 34 % bzw. 53 % im Vergleich zum Vorjahr
  • Trading- und Krypto-Apps machten zwar nur 7 % bzw. 2 % aller App-Installationen in der Kategorie Fintech aus, verzeichneten aber 17 % (Trading) bzw. 6 % (Krypto) aller Sessions in dieser Kategorie. Krypto-Apps wiesen mit über 15 Minuten auch die längsten durchschnittlichen Sessions auf.
  • Im internationalen Vergleich der Installationszahlen von Fintech-Apps lag Nordamerika mit einem Anstieg von 69 % im Jahr 2021 an der Spitze, gefolgt von LATAM (62 %), APAC (29 %) und EMEA (16 %).
  • In-App-Umsätze in Fintech-Apps stiegen von Januar 2020 bis Dezember 2021 konstant an, wobei der März 2021 der umsatzstärkste Monat war.
  • Mobile E-Commerce performt stärker denn je: Die Installationen von E-Commerce-Apps stiegen in 2021 um 12 % im Vergleich zum Vorjahr. Spitzenmonat war dabei der November mit 20 % mehr Installationen als im Jahresdurchschnitt.
  • Die beiden Märkte mit dem größten Wachstum an Installationen von E-Commerce-Apps waren EMEA und LATAM mit einem Zuwachs von 18 % bzw. 14 % im Jahresvergleich.
  • E-Commerce-Apps wiesen im Mai 2021 die höchsten In-App-Umsätze auf, die Adjust jemals in dieser Kategorie gemessen hat. Weltweit stiegen die Umsätze hier im Jahr 2021 um 46 % gegenüber dem Vorjahr.
  • Marketplace-Apps wiesen eine deutlich höhere Nutzerbindung auf als andere E-Commerce-Apps: So lag die Retention Rate am ersten Tag bei 27 % und bei 10 % am 30. Tag, gegenüber 19 % und 7 % im Jahr 2020.
  • Hyper-Casual Games sind auf dem Vormarsch und machten in der Kategorie Gaming den größten Anteil der Installationen aus (27 %), während Actionspiele den größten Anteil der Sessions ausmachten (30 %).
  • Installationszahlen stiegen 2021 in der Kategorie Gaming weltweit um 32 % im Vergleich zum Vorjahr und setzten damit das von der Pandemie ausgelöste Wachstum von 2020 fort. Das zweite Halbjahr 2021 übertraf dabei das erste Halbjahr sogar um 12 %.
  • Die Installationen von Gaming-Apps stiegen 2021 in mehreren Schlüsselregionen konstant an. LATAM und EMEA verzeichneten mit 35 % bzw. 33 % hier die höchsten Zuwachsraten, gefolgt von APAC und Nordamerika.
  • Die Länge der Sessions, die Sessions pro Nutzer und Tag sowie die in Apps verbrachte Zeit sind 2021 gestiegen.
  • Im Januar 2021 wurden die weltweit höchsten In-App-Umsätze gemessen, die Adjust je verzeichnet hat.

„Das Jahr 2022 bringt neue Herausforderungen, aber auch viele neue Chancen mit sich“, sagt Federico Hernandez, Head of Sales DACH und Nordics bei Adjust. „Der Bedarf und die Nachfrage nach Apps sind ausgeprägter denn je. Apps liefern uns nicht nur außergewöhnliche, weltweit führende Unterhaltungsformate und praktische Tools zur Erledigung von Aufgaben und zur Gestaltung unseres Alltags, sondern sie lösen echte Probleme und helfen so den Nutzern in Märkten auf der ganzen Welt“.
 


Der vollständige Mobile App Trends Report von Adjust steht hier zum Download zur Verfügung.

Mobile App Trends 2022 – E-Book

Lizenz: Pressemitteilung

Die Cloud – nicht nur ein Markt für Hyperscaler

Jennifer Desirée Hüsch: „Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung.“

Von Jennifer Désirée Hüsch*

Der technologische Fortschritt der letzten Jahre hat dazu geführt, dass eine immer schnellere Internet-Infrastruktur und leistungsfähigere Server zur Verfügung stehen. Infolgedessen sind auch Public-Cloud-Angebote attraktiver geworden. Auf der einen Seite hat sich das Preis-Leistungs-Verhältnis enorm verbessert und auf der anderen Seite ist auch das Angebot an Cloud-Dienstleistungen kontinuierlich gestiegen. Beispiele dafür sind Desktop-as-a-Service oder die Auslagerung ganzer Arbeitsplätze in die Cloud. Darüber hinaus hat die Corona-Pandemie mit dem plötzlich steigenden Bedarf an intelligenten Heimarbeitsplätzen, Homeschooling, E-Learning-Angeboten, Liefer- oder auch Streamingdiensten der Digitalisierung und der Cloud einen zusätzlichen Booster verschafft.

Anbieter wie Microsoft und Amazon haben besonders von dem geänderten Nachfrageverhalten profitiert. Die Hyperscaler verfügen über ein riesiges Angebot an Services und Dienstleistungen, können aber dennoch nicht alle Kundenanforderungen erfüllen. Oft sind die geografische Nähe, der persönliche Kontakt, ein bestehendes Vertrauensverhältnis aus der bisherigen Zusammenarbeit oder ein speziell auf den Kunden zugeschnittener Service die Entscheidungsgründe für die Wahl eines anderen Anbieters.

Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung. Laut Microsoft etwa führen 60 Prozent der Rechenkerne in Azure Workloads auf Linux aus. Da Unternehmen auch künftig nur ungern alles in die Cloud auslagern wollen und die großen Cloud-Service-Provider nicht alle Kundenbedürfnisse abdecken können, liegt die Zukunft vielfach in der Nutzung hybrider Modelle. Für traditionelle IT-Fachhändler, die Cloud-Technologie-Lösungen anbieten möchten, oder für Cloud-Service-Provider mit bestehenden Cloud-Managed-Services besteht dadurch eine große Marktchance. Sie können spezielle, auf den Kunden abgestimmte Services anbieten.

Tech Data unterstützt seine Partner dabei mit einem umfassenden Cloud-Know-how und Ökosystem unterschiedlicher Angebote. Ein Beispiel dafür ist auch das Certified Cloud and Service Provider (CCSP) Program von Red Hat. Es bietet unseren Vertriebspartnern die Möglichkeit, Lösungen von Red Hat in ihre eigenen Services zu integrieren beziehungsweise Services rund um die Produkte von Red Hat zu definieren und anzubieten. Das flexible Programm unterstützt verschiedenste Service-Modelle wie Hosting, Outsourcing, Managed Service, Public Cloud Service oder auch eine Mischung dieser Varianten. Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Im Rahmen des Programms stehen verschiedene Produkte und Subskriptionstypen zur Verfügung. Partner können sie für Demonstrations- und Simulationszwecke oder für das Einrichten, Testen und Betreiben eines Cloud-Services nutzen. Für Partner besteht zudem die Möglichkeit, die Lösungen an ihre Kunden zur Nutzung zu übergeben und zu hosten.

Red Hat und Cloud – was heißt das nun konkret? Schlüsseltechnologien von Red Hat für eine Open-Hybrid-Cloud sind das bewährte Betriebssystem Red Hat Enterprise Linux, aber vor allem auch die Container-Lösung Red Hat OpenShift und Ansible für die Automatisierung von Applikationen und Netzwerken. Bei der Nutzung der verschiedenen Technologien sehen wir bei Tech Data einen deutlichen Wandel im Markt. Viele Partner haben im Managed-Services-Umfeld rund um das Betriebssystem von Red Hat den Anfang gemacht. Derzeit steigt darüber hinaus die Nachfrage nach Containerisierung mit OpenShift und Automatisierung mit Ansible deutlich.

Wichtig ist, dass Red Hat OpenShift nicht nur als reine Container-Umgebung dient, sondern die gesamte Kette von der Applikations-Entwicklung bis zum Deployment (CI/CD) abdecken kann. Die Applikationsmodernisierung ist dabei ein zentrales Thema. Der Vorteil von Ansible mit mehreren tausend Modulen liegt in der nahezu unbeschränkten Automatisierungsmöglichkeit – von einfachen Dateioperationen bis hin zu komplexen Software-Deployments. Ansible und OpenShift nehmen den Nutzern dabei einen Großteil an Arbeit ab, sodass sie sich auf das Wesentliche konzentrieren können.

Tech Data informiert und berät Unternehmen beim Einstieg in eine CCSP- Partnerschaft mit Red Hat und unterstützt beim Aufbau und bei der Entwicklung des CCSP-Business. Dazu gehört etwa die Analyse unterschiedlicher Geschäftsmodelle, Use Cases und Zielmärkte unter vertrieblichen und technischen Gesichtspunkten.

Vertiefend bieten wir Ende Mai für interessierte und bestehende CCSP Partner die CCSP Bootcamp Woche an.

Anfragen können Interessenten sehr gerne richten an jennifer.huesch@techdata.com.

Möchten Sie unseren Newsletter zu Red Hat Themen und Events erhalten, melden Sie sich hier an Newsletter Anmeldung: Red Hat (techdata.com)

* Jennifer Désirée Hüsch ist BDM (Business Development Manager) Red Hat – CCSP & ISV bei Tech Data


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

IFAT Munich 2022

Weniger Müll, Rohstoffe wiederverwenden, sauberes Wasser, klimaresiliente Städte – vom 30. Mai bis 3. Juni 2022 werden auf der IFAT Munich Technologien und Lösungen für eine umwelt- und klimafreundliche Zukunft gezeigt. Es ist das größte Netzwerk für Umwelttechnologien, das Industrie, Politik, Kommunen und Wissenschaft zusammenführt.

Drei Fragen zur Messe an Stefan Rummel, Geschäftsführer der Messe München:

Herr Rummel, nach der Corona-bedingten Zwangspause findet nach vier Jahren wieder die IFAT Munich statt. Ist sie noch mit der Messe von 2018 vergleichbar?

Absolut. Die Bedeutung von Umwelttechnologien sowie die Nachfrage wächstglobal. Gleichzeitig sind die aktuellen Herausforderungen wie Lieferengpässe und die Folgen des Krieges in der Ukraine auch in der Umweltbranche ein gro-ßes Thema. Es gibt daher wieder viel Bedarf an persönlichem Austausch und Information. Rund 2.900 Aussteller bilden alle Segmente der IFAT ganzheitlich ab: Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft.

Darunter knapp 50 Startups, so viele wie noch nie. Mehr als 50 Länder sind in der Ausstellung vertreten. Neben Deutschland sind die Top-Ausstellerländer Italien, die Niederlande, Österreich, die Türkei und Frankreich. Auch die USA sind sehr präsent und Unternehmen aus Ägypten über Singapur bis Australien sind an Bord. Das alles ist einklares Votum für die größte Umwelttechnologiemesse der Welt.


„Klares Votum für die größte Umwelttechnologiemesse der Welt“

Stefan Rummel, Geschäftsführer der Messe München

Auch das Rahmenprogramm ist umfangreich, was sind Ihre Highlights?

Bundesumweltministerin Steffi Lemke und der Bayerische Umweltminister Thorsten Glauber werden die Messe eröffnen. Direkt im Anschluss diskutieren herausragende Persönlichkeiten die Frage, wie wir Veränderung mit Umwelttechnologie schaffen: unter anderem die Gründerin Mikela Druckman (Expertin für KI im Recycling sowie Teil des WEF Global Future Council,), Sucheta Govil (Chief Commercial Officer von Covestro), Prof. Dr. Erich Zahn (Mit-Autor des Club of Rome-Berichts „Die Grenzen des Wachstums“) und Dr. Johannes Kirchhoff (Vorstand der Initiative Circular Economy vom Bundesverband der deutschen Industrie).

Ganz konkretes Wissen vermitteln die neuen, geführten Lösungstouren zu 16 Themen. Und dann natürlich die Vielzahl an Sonderschauen und Fachvorträgen. Das Themen-Spektrum reicht vom digitalen Zwilling in der Wasserwirtschaft über Bauschutt-Recycling bis hin zum klimaneutralen Lastverkehr.

Auch für die Messe selbst stellen Sie den Anspruch einer nachhaltigen Durchführung – was genau sind Ihre Maßnahmen hier?

Wir haben uns einen Code of Conduct gegeben, um die IFAT in einem kontinuierlichen Prozess nachhaltiger zu gestalten – und können dabei auf eine bereits sehr „grüne“ Infrastruktur der Messe München aufbauen. Bei der Messedurchführung geht es dann um Dinge wie die Auswahl von Materialien, den Umgang mit Abfall – und wir ermutigen auch unsere Aussteller und Besucher, ihre Messebeteiligung klimaschonend zu gestalten. So wird das GoGreen-Ticket sehr gut angenommen, um den CO2-Fußabdruck zu kompensieren.

Der nachhaltigste Messeauftritt wird von uns mit dem Sustainability Award ausgezeichnet, ganz prominent während der Eröffnung. Wir verzichten beispielsweise auf Teppiche in den Hallen und erzielen so eine CO2-Einsparung, die 1.000 Kurzflügen entspricht. Und die Projektleitung der IFAT unterzieht sich selbst einem Audit zur klimaneutralen Messedurchführung.

Zur Veranstaltung

IFAT – Weltleitmesse für Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft

Wann: 30. Mai bis 3. Juni 2022

Wo: Messe München

Rund 2.900 Aussteller aus mehr als 50 Ländern

Das Rahmenprogramm der IFAT finden Sie hier.
Schwerpunkte:
Abfall & Sekundährrohstoffe
Wasser & Abwasser

https://ifat.de/de/

People Analytics als Mittel zur Verbesserung der Lohngleichheit

Der Gender Pay Gap ist real. Dr. Margrét Vilborg Bjarnadóttir, Gründerin von PayAnalytics, beschäftigt sich in ihrem Gastbeitrag dabei mit den Möglichkeiten, die Analytic-Tools bieten – aber auch mit ihren Grenzen.

Lohnungleichheit ist ein drängendes Problem, das sich durch die Pandemie verschärft hat. Millionen von Frauen sind aus dem Erwerbsleben ausgeschieden, und viele Menschen haben den Arbeitgeber gewechselt. People Analytics, die Anwendung quantitativer Instrumente auf die Wertschöpfungskette der Mitarbeiter*innen, kann Unternehmen bei der Verwirklichung von Lohngleichheit und der Schaffung gerechterer Arbeitsplätze unterstützen. Diese Instrumente müssen jedoch mit Bedacht eingesetzt werden, denn selbst wenn sich Firmen um Lohngleichheit bemühen, können ihre Daten immer noch historische Vorurteile widerspiegeln und zu Diskriminierungen aufgrund von ethnischer Zugehörigkeit, Geschlecht und Klasse führen.

Die Grenzen von KI-basierten Tools erkennen

Heutzutage werden KI-basierte People-Analytics-Tools von Manager*innen eingesetzt, um die Produktivität zu messen, wichtige Entscheidungen über Einstellungen, Vergütungen, Beförderungen und Schulungsmöglichkeiten zu treffen und Gehaltsunterschiede in Bezug auf Geschlecht, ethnische Zugehörigkeit oder andere wichtige demografische Kategorien zu erkennen und zu beseitigen. Der zunehmende Einsatz von KI in der Personalabteilung muss jedoch überwacht werden, um zu gewährleisten, dass die Daten qualitativ hochwertig und zuverlässig sind, denn die Analysen der KI sind nur so gut wie die ihnen zugrundeliegenden Daten und Annahmen. Folgende Faktoren müssen dabei berücksichtigt werden:

  1. Daten sind nicht neutral und können Voreingenommenheit enthalten. People-Analytics-Tools basieren in der Regel auf den historischen Daten eines Arbeitgebers zur Rekrutierung, Bindung, Beförderung und Vergütung der Arbeitskräfte. Solche Daten erfassen die Entscheidungen und Einstellungen der Vergangenheit. Führungskräfte müssen sich darum bewusst sein, dass ihre retrospektiven Daten sowohl alte als auch aktuelle Voreingenommenheiten widerspiegeln können und ihnen möglicherweise nicht in vollem Umfang dabei helfen, die Komplexität des Personalmanagements in einer zunehmend vielfältigen Belegschaft zu bewältigen. So können beispielsweise Noten als Indikator für Intelligenz oder berufliche Lizenzen oder Zertifikate als Maßstab für Fähigkeiten herangezogen werden. Diese Maßstäbe sind jedoch unvollständig und enthalten oft Verzerrungen. Deswegen ist es wichtig, bei der Anwendung von diesen Tools die potenziellen Diskrepanzen zwischen dem, was Unternehmen messen wollen (z. B. Intelligenz oder Lernfähigkeit), und dem, was sie tatsächlich messen (z. B. die Leistung in damaligen Schultests), zu berücksichtigen.

  2. Die Leistung eines People-Analytics-Tools hängt auch vom Algorithmus ab. Arbeitgeber sollten bedenken, dass Modelle bei Personen aus demografischen Mehrheitsgruppen wahrscheinlich am besten abschneiden, bei weniger gut vertretenen Gruppen jedoch schlechter. Dies liegt daran, dass Algorithmen in der Regel die Gesamtgenauigkeit maximieren. Dadurch hat die Leistung für die Mehrheitsbevölkerung bei der Festlegung der Algorithmus-Parameter mehr Gewicht als die Leistung für die Minderheitenbevölkerung. Außerdem gibt es kein wirklich „ethnisch blindes“ oder „geschlechtsblindes“ Modell, und das explizite Weglassen der ethnischen Zugehörigkeit oder des Geschlechts in einem Modell macht diese nicht „demografisch neutral“ – im Gegenteil, es kann sie sogar verschlechtern. Wenn die demografischen Kategorien nicht gleichmäßig über die gesamte Organisation verteilt sind, was fast immer der Fall ist, werden selbst sorgfältig erstellte Modelle nicht zu gleichen Ergebnissen für alle Gruppen führen.

Verzerrungen zuverlässig feststellen

Um sicherzustellen, dass die People-Analytics-Tools eine nützliche und vorteilhafte Entscheidungshilfe liefern, können Unternehmen eine Reihe von Werkzeugen einsetzen. Ein besonders hilfreiches Werkzeug ist ein Bias-Dashboard. Ein Dashboard fasst zusammen, wie das Tool in verschiedenen Gruppen abschneidet, und ermöglicht so die frühzeitige Erkennung potenzieller Verzerrungen. Es hebt sowohl die statistische Leistung als auch die Auswirkungen seiner Anwendung auf verschiedene Gruppen hervor. Beim Einstellungsprozess kann das Dashboard zum Beispiel die potenziellen Bewerber*innen zusammenfassen, die auf verschiedenen Websites (z. B. LinkedIn) kontaktiert wurden, sowie den Anteil jeder Gruppe, der sich beworben hat, ein Vorstellungsgespräch erhalten hat und schließlich eingestellt wurde.

Neben der Überwachung statistischer Leistungskennzahlen können Führungskräfte auch explizit auf Verzerrungen testen. So können sie beispielsweise untersuchen, wie individuelle Merkmale wie Erfahrung oder Ausbildung zu Gehaltserhöhungen in verschiedenen Gruppen beitragen. Sie können auch die Ergebnisse des jährlichen Beurteilungsprozesses untersuchen. Wenn beispielsweise Mitarbeiter*innen einer bestimmten ethnischen Gruppe überproportional häufig für eine Gehaltserhöhung vorgeschlagen werden, ist dies ein Zeichen dafür, dass das KI-Tool oder der Entscheidungsprozess möglicherweise verzerrt ist und die Empfehlungen des KI-Tools die Voreingenommenheit verstärken. Es könnte aber auch sein, dass das Tool unverhältnismäßig viele Minderheiten als Kandidat*innen für eine Gehaltserhöhung identifiziert, weil sie in Firmen tendenziell unterbezahlt sind; in diesem Fall hilft das KI-Tool, das Problem zu lösen.

Es ist wichtig zu bedenken, dass kein Modell vollständig ist. Zum Beispiel können die zwischenmenschlichen Fähigkeiten der Arbeitskräfte ihren Erfolg im Unternehmen beeinflussen, ohne dass dies unbedingt in den Personaldaten zum Ausdruck kommt. Die Nutzer*innen von People-Analytics-Tools müssen sich dieser zusätzlichen Faktoren bewusst sein und lernen, wie sie diese systematisch in den Entscheidungsprozess einbeziehen können. Wenn es quantifizierbare Daten zu diesen Faktoren gibt, sollten sie in Betracht ziehen, diese zu sammeln. Wenn ein KI-Algorithmus zur Entscheidungsfindung eingesetzt wird, muss die Firma in der Lage sein, allen Beteiligten zu erklären, was das Ergebnis bedeutet und wie es zustande gekommen ist. Algorithmen können bei der Interpretation vergangener Daten und der Erkennung von Mustern helfen, aber People Analytics ist immer noch ein Bereich, in dem der Mensch im Mittelpunkt der Entscheidungsfindung steht – die endgültigen Entscheidungen und die Verantwortung für diese Entscheidungen liegen also bei den Menschen.

Fazit

Personalanalysetools, insbesondere solche, die auf KI basieren, sind aus dem modernen Personalwesen nicht mehr wegzudenken. Quantitative Modelle sollen jedoch das menschliche Urteilsvermögen unterstützen, nicht ersetzen. Unternehmen müssen sich der Verzerrungen durch maschinelles Lernen und der Grenzen von Modellen bewusst bleiben. Um den größtmöglichen Nutzen aus KI und anderen People-Analytics-Tools zu ziehen, sollten Führungskräfte konsequent überwachen, wie die Anwendung in Echtzeit funktioniert, welche expliziten und impliziten Kriterien zum Trainieren des Tools verwendet werden und ob die Ergebnisse der vom Tool empfohlenen Entscheidungen verschiedene Gruppen auf unbeabsichtigte Weise unterschiedlich beeinflussen. Um People Analytics angemessen zu nutzen und wirklich gerechte Arbeitsplätze zu schaffen, müssen Manager*innen lernen, die richtigen Fragen zu ihren Daten, ihren Entscheidungen, ihren quantitativen Modellen und ihrer Software zu stellen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.