Datensicherheit als Treiber der digitalen Souveränität

Wie Unternehmen digital selbstbestimmt handeln und so die Wettbewerbsfähigkeit langfristig sichern können, berichtet Ari Albertini, Chief Operating Officer der FTAPI GmbH.

Die fortschreitende Digitalisierung birgt neben den enormen Vorteilen, die für Unternehmen und Behörden entstehen, auch neue Bedrohungen und Risiken. Denn mit den wachsenden technologischen Abhängigkeiten, insbesondere von den großen, nicht-europäischen Hyperscalern, ist die digitale Souveränität massiv in Gefahr. Die Sicherheit von Systemen und Infrastrukturen stellt dabei eine besondere Herausforderung für Unternehmen und Behörden dar. Um auch in Zukunft digital souverän agieren zu können, sind Investitionen in die Cybersicherheit notwendig. Dabei spielen drei Bereiche eine besondere Rolle: die Verfügbarkeit von Technologien Made in Germany, die Interoperabilität von IT-Systemen und die Vertrauenswürdigkeit und Integrität der gespeicherten und verarbeiteten Daten. Denn nur, wenn die eigenen Daten vor Zugriffen von außen geschützt sind, ist die Vertrauenswürdigkeit jederzeit gewährleistet. Und nur dann können Unternehmen in Deutschland und Europa langfristig souverän agieren.

Was bedeutet digital souverän?

Der Ruf nach digitaler Souveränität, also der Reduzierung von Abhängigkeiten und der Möglichkeit zum selbstbestimmten Handeln in Bezug auf digitale Technologien, wird in Deutschland und Europa immer lauter. Gerade in politisch turbulenten Zeiten wird es immer wichtiger, die Verfügbarkeit von Systemen und den Zugang zu Daten jederzeit sicherzustellen. Denn ein selbstbestimmtes unternehmerisches Handeln ist nur dann möglich, wenn geschäftsentscheidende Prozesse nicht von Dritten beeinflusst werden können. Wenn die Funktionsfähigkeit von Systemen und Technologien durch Manipulationen oder Angriffe gestört wird, kann das enorme wirtschaftliche Schäden nach sich ziehen.

Digitale Souveränität bedeutet also, die fortschreitende Digitalisierung in Deutschland und Europa auch in Zukunft selbstbestimmt und unabhängig voranzutreiben. Dafür müssen Lösungen “Made in Germany” und “Made in Europe” entwickelt und eingesetzt werden, welche die Abhängigkeiten von internationalen Technologieanbietern minimieren.

Sicherheitsmerkmal Made in Germany

Auf dem Weg zur digitalen Souveränität spielt der Standort der Anbieter von digitalen Technologien oder Anwendungen eine wichtige Rolle. Aktuell dominieren, insbesondere im Technologieumfeld, nicht-europäische Anbieter den Markt. Diese globalen Player, auch Hyperscaler genannt, hosten ihre Services und Infrastrukturen außerhalb der EU – und unterliegen damit nicht den europäischen Sicherheitsanforderungen und Regularien wie beispielsweise der EU-DSGVO.

Setzen Unternehmen auf globale Player, riskieren sie neben einem Verlust der Daten auch eine mögliche Weitergabe an staatliche Institutionen, beispielsweise durch den Cloud-Act oder den US Patriot Act. Diese starken Abhängigkeiten stellen signifikante Bedrohungen für die Cybersicherheit von Unternehmen dar und schränken die Handlungsfreiheit von Unternehmen unter Umständen massiv ein.

Bei Lösungen und Systemen, die in Deutschland oder Europa gehostet oder sogar entwickelt wurden, bilden Standards und Regularien wie die EU-DSGVO oder Qualitätssiegel wie “Made in Europe” oder “Hosted in Germany” einen einheitlichen Rahmen, um eine sichere Infrastruktur und damit ein offenes und vertrauenswürdiges Datenökosystem zu schaffen. Unternehmen können darauf vertrauen, dass Technologien den europäischen oder deutschen Sicherheitsstandards entsprechen und Regularien, die den Datenschutz und die Datensicherheit betreffen, eingehalten werden. So können Daten vertrauensvoll ausgetauscht und sicher zur Weiterverarbeitung genutzt werden.

Sinnvolle Schnittstellen und Lösungen aus einer Hand

Dafür ist es außerdem relevant, dass IT-Systeme möglichst nahtlos zusammenarbeiten. Geeignete Schnittstellen ermöglichen dabei eine medienbruchfreie Kommunikation zwischen verschiedenen Systemen. Ist dies sichergestellt, können darüber hinaus Daten-Workflows, die häufig ein Einfallstor für Cyberkriminelle darstellen, automatisiert und damit zusätzlich abgesichert werden. Durch eine automatisierte, verschlüsselte und damit abgesicherte Übertragung von Dokumenten und Dateien werden bei Unternehmen zeitliche Ressourcen freigesetzt, die aktuell noch in der Ausführung monotoner und zeitintensiver Workflows gebunden sind. Durch die Automatisierung dieser Abläufe kann die gewonnene Zeit in die Entwicklung neuer, innovativer Lösungen und Geschäftsmodelle investiert werden, womit sich Unternehmen langfristig einen Wettbewerbsvorteil verschaffen.

Bei der Wahl des Technologieanbieters ist es darüber hinaus empfehlenswert, auf Lösungen zu setzen, die sich nicht nur einfach in bestehende Systeme integrieren lassen, sondern darüber hinaus in einer Plattform eingebunden sind, die mehrere Lösungen ineinander vereint. Hier haben sich bereits verschiedene Anbieter auf dem europäischen Markt etabliert, die Lösungen für den sicheren Datentransfer, virtuelle Datenräume oder Lösungen zur Prozessautomatisierung auf einer Plattform bündeln und die Vertrauenswürdigkeit und Integrität der erhobenen, übermittelten und weiterverarbeiteten Daten zu jeder Zeit sichern.

Vertrauenswürdigkeit durch Datensicherheit

Die Integrität und Vertrauenswürdigkeit der Daten ist für eine souveräne Datennutzung enorm wichtig. Dafür müssen Technologien, Anwendungen aber auch Daten jederzeit vor unbefugtem Zugriff geschützt sein, um sicher und manipulationsfrei in andere Systeme übertragen werden können.

Basis für eine sichere Übertragung der Daten ist eine durchgängige Verschlüsselung der gängigen Kommunikationswege. Durch eine entsprechende Absicherung der Kommunikationskanäle, beispielsweise des E-Mail-Verkehrs durch Ende-zu-Ende-Verschlüsselung oder durch ein geschütztes Input-Management, sind die Daten zu jedem Zeitpunkt der Übertragung vor Zugriffen von außen geschützt.

Um Daten darüber hinaus auch über Unternehmensgrenzen hinweg sicher bereitzustellen und einen sicheren Zugang zu ermöglichen, eignen sich virtuelle, sichere Datenräume: sie ermöglichen es Organisationen, Daten zu teilen, ohne dabei die Hoheit über die eigenen Daten zu verlieren. Unternehmen behalten hier zu jedem Zeitpunkt die Hoheit über die eigenen Daten, sodass ihre Vertrauenswürdigkeit und Integrität jederzeit geschützt ist. Durch eine feingranulare Administration von Zugriffsrechten behalten Unternehmen darüber hinaus jederzeit einen Überblick darüber, wer auf welche Daten zugreifen und diese bearbeiten kann.

Auf diese Weise bieten die geteilten Daten einen Mehrwert und tragen dazu bei, die Innovationspotenziale der erhobenen Daten voll auszuschöpfen. Die Sicherheit und Vertrauenswürdigkeit der ausgetauschten Daten sind erfolgsentscheidende Kriterien, wenn es darum geht, die Chancen der Digitalisierung und der zunehmenden Vernetzung optimal zu nutzen. Unternehmen müssen zu jeder Zeit die Kontrolle über die eigenen Daten behalten – auch dann, wenn sie für gemeinsame Projekte mit anderen Unternehmen geteilt werden.

Digitale souverän – nicht autark, aber selbstbestimmt

Trotz aller Bestrebungen in Richtung digitaler Souveränität wird es Unternehmen in Deutschland und Europa nur in Ausnahmefällen gelingen, von internationalen Technologieanbietern gänzlich unabhängig zu agieren. Das müssen sie auch gar nicht. Sie sollten aber ihre Bestrebungen darauf richten, einen selbstbestimmten, sicheren und reflektierten Umgang mit digitalen Technologien dort zu ermöglichen, wo er notwendig und gewünscht ist. Auf diese Weise können sie die Digitalisierung des eigenen Unternehmens selbstbestimmt, verantwortungsvoll und sicher gestalten und einen wichtigen Grundstein für eine digital souveräne und vor allem zukunftssichere Wirtschaft schaffen.

Über den Autor:

Ari Albertini ist Chief Operating Officer des Spezialisten für sichere Datenflows FTAPI Software GmbH. Nach Stationen in der Wissenschaft und der Projektberatung ist er seit 2015 bei FTAPI. Als Wirtschaftsinformatiker (M.Sc.) und Alumni der TU München verfügt er über mehr als 10 Jahre Erfahrung im Bereich der Strategieentwicklung, IT-Beratung, Software-Development sowie Produktkonzipierungen. Bei FTAPI kümmert er sich zudem um Themen wie agiles Arbeiten und Innovationen und ist regelmäßig als Autor von Fachbeiträgen sowie als Sprecher bei Branchen-Events tätig.


Bildquelle / Lizenz Aufmacher:

Photo by Christine Sandu on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hybride Customer Journey

Studie: Produkt-Suchen beginnen immer häufiger auf den Online-Shops von Händlern und Brands

Laut der „Shopper Story 2022 Deutschland“ von Criteo sind die Konsumenten in Deutschland heute zufriedener mit ihrer Kundenerfahrung als noch 2019

Das globale Technologieunternehmen Criteo mit der weltweit führenden Commerce Media Plattform, hat in seiner Studie „Shopper Story 2022 Deutschland“ untersucht, wie Konsumenten nach Produkten suchen und welche Faktoren ihre Kaufentscheidung beeinflussen. Die Befragung von 1.011 Konsumenten in Deutschland ergab, dass die Relevanz von Online-Shops durch eine bessere User Experience gerade zu Beginn der Shopping Journey im Vergleich zu 2019 deutlich an Relevanz gewonnen hat.

Die Online-Shops von Händlern und Brands spielen heute für Konsumenten, die bereits wissen, was sie kaufen möchten, eine zentrale Rolle; fast jeder Dritte (30 Prozent) sucht zuerst hier nach Informationen zu seinem Wunschprodukt. 2019 waren dies noch 22 Prozent. Umgekehrt nutzen 22 Prozent Suchmaschinen zu diesem Zweck, vor zwei Jahren waren dies noch 31 Prozent. Ein ähnliches Bild zeigt sich, wenn die Konsumenten nur wissen, welche Art von Produkt sie kaufen möchten. 26 Prozent beginnen ihre Produktsuche direkt in Online-Shops (2019: 19 Prozent), auf Suchmaschinen 23 Prozent (2019: 33 Prozent).

Investitionen in die User Experience zahlen sich aus

Der wesentliche Grund dafür, dass Konsumenten mehr direkt bei Händlern suchen, liegt laut der Studie in einer besseren User Experience begründet. Drei von vier Befragten gaben an, dass sie im Vergleich zu 2019 eine gewisse oder große Verbesserung sowohl bei der Suche nach Produkten als auch beim Finden der gewünschten Produkte auf den Online-Shops von Händlern und Brands feststellen.

„Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.“

Robert Kießling,
Head of Retail Media DACH

Diese positiven Erfahrungen der Nutzer spiegeln sich auch in ihren Online-Rezensionen wider. So gaben 72 Prozent der Konsumenten an, in den vergangenen sechs Monaten eine positive Rezension auf Grund einer guten Kundenerfahrung verfasst zu haben, 10 Prozent mehr als noch 2019. Gleichzeitig sank die Zahl derer, die eine negative Rezension verfasst haben, von 65 Prozent auf 54 Prozent.

Robert Kießling, Head of Retail Media DACH – Retail & Partnerships bei Criteo, erklärt dazu: „Mit der Pandemie hat sich die Art und Weise, wie Konsumenten online shoppen, nachhaltig verändert. Händler haben sich entsprechend darauf fokussiert, den sich ändernden Bedürfnissen der Konsumenten gerecht zu werden und die User Experience ihrer Online-Shops verbessert.

Und das mit Erfolg, wie die Studie belegt. Immer mehr Konsumenten starten ihre Produktsuche auf Händlerseiten, was deren bereits hohe Attraktivität als Werbeumfeld für Brands weiter steigern und auch dem Thema Retail Media zusätzlichen Schub verleihen dürfte.“

Must-haves: Einfache Bestellung, kostenlose Lieferung und Rabatte

Ob sich ein Kunde nach seiner Suche aber auch wirklich für die Bestellung in einem bestimmten Online-Shop entscheidet, hängt von einer Reihe von Faktoren ab. Laut Studie an erster Stelle steht für etwas mehr als die Hälfte der Befragten dabei eine einfache und schnelle Bestellung, 54 Prozent bewerteten sie als äußerst wichtig. Es folgen eine kostenlose Lieferung (51 Prozent) sowie Rabatte und Sonderangebote (49 Prozent).

Ob der Händler beziehungsweise die Brand eine Shopping App anbietet, spielt bei der Frage nach der Kaufentscheidung bei diesem Anbieter nur eine nachgelagerte Rolle: Lediglich 19 Prozent empfinden eine App in diesem Zusammenhang als äußerst wichtig.

Studiensteckbrief:

Criteo, „Shopper Story 2022“, n=1.011 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum November 2021, durchgeführt mit Qualtrics als Umfrageplattform und Dynata als Panel-Provider. Vergleich mit Criteos „Shopper Story 2019“, n=1.015 deutsche Konsumenten, die das Internet mindestens einmal im Monat nutzen, Umfragezeitraum Juli bis August 2019, Qualtrics/Dynata. 

Zum Download der Studie gelangen Sie hier

Mobile App Trends 2022

Adjust, die globale Mobile Marketing Analytics Plattform, veröffentlicht ihren jährlichen Mobile App Trends Report, der zeigt, dass sich das Wachstum von Mobile Apps 2021 weltweit weiter beschleunigt hat.

Nach einem Jahr voller Veränderungen in der Branche und regelrechten Umwälzungen infolge der Corona-Pandemie sind die Anzahl der Installationen und Sitzungen von Apps branchenübergreifend gewachsen. Apps der Kategorien Fintech, E-Commerce und Gaming sind dabei die Spitzenreiter und verzeichneten laut den Daten von Adjust im Jahr 2021 außerdem die höchsten monatlichen In-App-Umsätze, die je gemessen wurden.

Mit der Einführung von Apples iOS 14.5 und dem AppTrackingTransparency (ATT)-Framework im April 2021 war die Mobile-Marketing-Branche gezwungen, ihren Umgang mit Datenschutz und dem Tracking von iPhone-Nutzern grundlegend neu zu denken. Frühe Prognosen gingen davon aus, dass nur rund 5 % der iPhone-User der Nutzung ihrer Daten zustimmen würden. Die Daten von Adjust zeigen aber, dass Opt-in-Raten für iOS 14.5+ höher liegen als prognostiziert. Über alle Kategorien hinweg betrug die globale Opt-in-Rate im Mai 2021 16 % und stieg auf etwa 25 % an. Apps aus der Kategorie Gaming erreichten 2021 sogar Opt-in-Raten von 30 %.

Der Mobile App Trends Report basiert auf den 2.000 Apps, die 90 % des gesamten Datenverkehrs ausmachen und zusätzlichen Daten aus der gesamten Adjust-Datenbank. Der Bericht analysiert langfristige Trends bei Installationen, Sessions, Verweildauer in der App, Nutzerbindung, Reattributions-Raten und mehr im internationalen Vergleich. Die daraus gewonnenen Erkenntnisse liefern App-Entwicklern und Marketern wertvolle Einblicke in ihre Zielgruppen und die Gesamtlage der App-Branche.

„Das vergangene Jahr war eine echte Herausforderung“, sagt Simon „Bobby“ Dussart, CEO von Adjust. „Trotzdem hat sich das Mobile-App-Ökosystem weiterhin gut entwickelt und zeigt, wie robust und anpassungsfähig die App-Marketing-Branche ist. Man muss die Nutzer dort abholen, wo sie sind. Darum ist es für Marketer und Profis für die Nutzerakquise unerlässlich, datenbasierte Strategien zu entwickeln, um die Nutzerbindung zu verbessern und immer wieder neue und bestehende Zielgruppen zu identifizieren, zuzuordnen und zu messen.“

Die wichtigsten Erkenntnisse aus dem Mobile App Trends Report sind:

  • Installationen und Sessions von Fintech-Apps stiegen weltweit um 34 % bzw. 53 % im Vergleich zum Vorjahr
  • Trading- und Krypto-Apps machten zwar nur 7 % bzw. 2 % aller App-Installationen in der Kategorie Fintech aus, verzeichneten aber 17 % (Trading) bzw. 6 % (Krypto) aller Sessions in dieser Kategorie. Krypto-Apps wiesen mit über 15 Minuten auch die längsten durchschnittlichen Sessions auf.
  • Im internationalen Vergleich der Installationszahlen von Fintech-Apps lag Nordamerika mit einem Anstieg von 69 % im Jahr 2021 an der Spitze, gefolgt von LATAM (62 %), APAC (29 %) und EMEA (16 %).
  • In-App-Umsätze in Fintech-Apps stiegen von Januar 2020 bis Dezember 2021 konstant an, wobei der März 2021 der umsatzstärkste Monat war.
  • Mobile E-Commerce performt stärker denn je: Die Installationen von E-Commerce-Apps stiegen in 2021 um 12 % im Vergleich zum Vorjahr. Spitzenmonat war dabei der November mit 20 % mehr Installationen als im Jahresdurchschnitt.
  • Die beiden Märkte mit dem größten Wachstum an Installationen von E-Commerce-Apps waren EMEA und LATAM mit einem Zuwachs von 18 % bzw. 14 % im Jahresvergleich.
  • E-Commerce-Apps wiesen im Mai 2021 die höchsten In-App-Umsätze auf, die Adjust jemals in dieser Kategorie gemessen hat. Weltweit stiegen die Umsätze hier im Jahr 2021 um 46 % gegenüber dem Vorjahr.
  • Marketplace-Apps wiesen eine deutlich höhere Nutzerbindung auf als andere E-Commerce-Apps: So lag die Retention Rate am ersten Tag bei 27 % und bei 10 % am 30. Tag, gegenüber 19 % und 7 % im Jahr 2020.
  • Hyper-Casual Games sind auf dem Vormarsch und machten in der Kategorie Gaming den größten Anteil der Installationen aus (27 %), während Actionspiele den größten Anteil der Sessions ausmachten (30 %).
  • Installationszahlen stiegen 2021 in der Kategorie Gaming weltweit um 32 % im Vergleich zum Vorjahr und setzten damit das von der Pandemie ausgelöste Wachstum von 2020 fort. Das zweite Halbjahr 2021 übertraf dabei das erste Halbjahr sogar um 12 %.
  • Die Installationen von Gaming-Apps stiegen 2021 in mehreren Schlüsselregionen konstant an. LATAM und EMEA verzeichneten mit 35 % bzw. 33 % hier die höchsten Zuwachsraten, gefolgt von APAC und Nordamerika.
  • Die Länge der Sessions, die Sessions pro Nutzer und Tag sowie die in Apps verbrachte Zeit sind 2021 gestiegen.
  • Im Januar 2021 wurden die weltweit höchsten In-App-Umsätze gemessen, die Adjust je verzeichnet hat.

„Das Jahr 2022 bringt neue Herausforderungen, aber auch viele neue Chancen mit sich“, sagt Federico Hernandez, Head of Sales DACH und Nordics bei Adjust. „Der Bedarf und die Nachfrage nach Apps sind ausgeprägter denn je. Apps liefern uns nicht nur außergewöhnliche, weltweit führende Unterhaltungsformate und praktische Tools zur Erledigung von Aufgaben und zur Gestaltung unseres Alltags, sondern sie lösen echte Probleme und helfen so den Nutzern in Märkten auf der ganzen Welt“.
 


Der vollständige Mobile App Trends Report von Adjust steht hier zum Download zur Verfügung.

Mobile App Trends 2022 – E-Book

Lizenz: Pressemitteilung

Die Cloud – nicht nur ein Markt für Hyperscaler

Jennifer Desirée Hüsch: „Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung.“

Von Jennifer Désirée Hüsch*

Der technologische Fortschritt der letzten Jahre hat dazu geführt, dass eine immer schnellere Internet-Infrastruktur und leistungsfähigere Server zur Verfügung stehen. Infolgedessen sind auch Public-Cloud-Angebote attraktiver geworden. Auf der einen Seite hat sich das Preis-Leistungs-Verhältnis enorm verbessert und auf der anderen Seite ist auch das Angebot an Cloud-Dienstleistungen kontinuierlich gestiegen. Beispiele dafür sind Desktop-as-a-Service oder die Auslagerung ganzer Arbeitsplätze in die Cloud. Darüber hinaus hat die Corona-Pandemie mit dem plötzlich steigenden Bedarf an intelligenten Heimarbeitsplätzen, Homeschooling, E-Learning-Angeboten, Liefer- oder auch Streamingdiensten der Digitalisierung und der Cloud einen zusätzlichen Booster verschafft.

Anbieter wie Microsoft und Amazon haben besonders von dem geänderten Nachfrageverhalten profitiert. Die Hyperscaler verfügen über ein riesiges Angebot an Services und Dienstleistungen, können aber dennoch nicht alle Kundenanforderungen erfüllen. Oft sind die geografische Nähe, der persönliche Kontakt, ein bestehendes Vertrauensverhältnis aus der bisherigen Zusammenarbeit oder ein speziell auf den Kunden zugeschnittener Service die Entscheidungsgründe für die Wahl eines anderen Anbieters.

Im Hinblick auf die weitere Cloud-Entwicklung ist ein klarer Trend erkennbar: Hybride Modelle, Multi-Clouds und Linux gewinnen zunehmend an Bedeutung. Laut Microsoft etwa führen 60 Prozent der Rechenkerne in Azure Workloads auf Linux aus. Da Unternehmen auch künftig nur ungern alles in die Cloud auslagern wollen und die großen Cloud-Service-Provider nicht alle Kundenbedürfnisse abdecken können, liegt die Zukunft vielfach in der Nutzung hybrider Modelle. Für traditionelle IT-Fachhändler, die Cloud-Technologie-Lösungen anbieten möchten, oder für Cloud-Service-Provider mit bestehenden Cloud-Managed-Services besteht dadurch eine große Marktchance. Sie können spezielle, auf den Kunden abgestimmte Services anbieten.

Tech Data unterstützt seine Partner dabei mit einem umfassenden Cloud-Know-how und Ökosystem unterschiedlicher Angebote. Ein Beispiel dafür ist auch das Certified Cloud and Service Provider (CCSP) Program von Red Hat. Es bietet unseren Vertriebspartnern die Möglichkeit, Lösungen von Red Hat in ihre eigenen Services zu integrieren beziehungsweise Services rund um die Produkte von Red Hat zu definieren und anzubieten. Das flexible Programm unterstützt verschiedenste Service-Modelle wie Hosting, Outsourcing, Managed Service, Public Cloud Service oder auch eine Mischung dieser Varianten. Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Nutzer profitieren von einem flexiblen Preismodell mit einem Pay-per-Use-Paket, das heißt, es wird nur das abgerechnet, was tatsächlich verbraucht wurde.

Im Rahmen des Programms stehen verschiedene Produkte und Subskriptionstypen zur Verfügung. Partner können sie für Demonstrations- und Simulationszwecke oder für das Einrichten, Testen und Betreiben eines Cloud-Services nutzen. Für Partner besteht zudem die Möglichkeit, die Lösungen an ihre Kunden zur Nutzung zu übergeben und zu hosten.

Red Hat und Cloud – was heißt das nun konkret? Schlüsseltechnologien von Red Hat für eine Open-Hybrid-Cloud sind das bewährte Betriebssystem Red Hat Enterprise Linux, aber vor allem auch die Container-Lösung Red Hat OpenShift und Ansible für die Automatisierung von Applikationen und Netzwerken. Bei der Nutzung der verschiedenen Technologien sehen wir bei Tech Data einen deutlichen Wandel im Markt. Viele Partner haben im Managed-Services-Umfeld rund um das Betriebssystem von Red Hat den Anfang gemacht. Derzeit steigt darüber hinaus die Nachfrage nach Containerisierung mit OpenShift und Automatisierung mit Ansible deutlich.

Wichtig ist, dass Red Hat OpenShift nicht nur als reine Container-Umgebung dient, sondern die gesamte Kette von der Applikations-Entwicklung bis zum Deployment (CI/CD) abdecken kann. Die Applikationsmodernisierung ist dabei ein zentrales Thema. Der Vorteil von Ansible mit mehreren tausend Modulen liegt in der nahezu unbeschränkten Automatisierungsmöglichkeit – von einfachen Dateioperationen bis hin zu komplexen Software-Deployments. Ansible und OpenShift nehmen den Nutzern dabei einen Großteil an Arbeit ab, sodass sie sich auf das Wesentliche konzentrieren können.

Tech Data informiert und berät Unternehmen beim Einstieg in eine CCSP- Partnerschaft mit Red Hat und unterstützt beim Aufbau und bei der Entwicklung des CCSP-Business. Dazu gehört etwa die Analyse unterschiedlicher Geschäftsmodelle, Use Cases und Zielmärkte unter vertrieblichen und technischen Gesichtspunkten.

Vertiefend bieten wir Ende Mai für interessierte und bestehende CCSP Partner die CCSP Bootcamp Woche an.

Anfragen können Interessenten sehr gerne richten an jennifer.huesch@techdata.com.

Möchten Sie unseren Newsletter zu Red Hat Themen und Events erhalten, melden Sie sich hier an Newsletter Anmeldung: Red Hat (techdata.com)

* Jennifer Désirée Hüsch ist BDM (Business Development Manager) Red Hat – CCSP & ISV bei Tech Data


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

IFAT Munich 2022

Weniger Müll, Rohstoffe wiederverwenden, sauberes Wasser, klimaresiliente Städte – vom 30. Mai bis 3. Juni 2022 werden auf der IFAT Munich Technologien und Lösungen für eine umwelt- und klimafreundliche Zukunft gezeigt. Es ist das größte Netzwerk für Umwelttechnologien, das Industrie, Politik, Kommunen und Wissenschaft zusammenführt.

Drei Fragen zur Messe an Stefan Rummel, Geschäftsführer der Messe München:

Herr Rummel, nach der Corona-bedingten Zwangspause findet nach vier Jahren wieder die IFAT Munich statt. Ist sie noch mit der Messe von 2018 vergleichbar?

Absolut. Die Bedeutung von Umwelttechnologien sowie die Nachfrage wächstglobal. Gleichzeitig sind die aktuellen Herausforderungen wie Lieferengpässe und die Folgen des Krieges in der Ukraine auch in der Umweltbranche ein gro-ßes Thema. Es gibt daher wieder viel Bedarf an persönlichem Austausch und Information. Rund 2.900 Aussteller bilden alle Segmente der IFAT ganzheitlich ab: Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft.

Darunter knapp 50 Startups, so viele wie noch nie. Mehr als 50 Länder sind in der Ausstellung vertreten. Neben Deutschland sind die Top-Ausstellerländer Italien, die Niederlande, Österreich, die Türkei und Frankreich. Auch die USA sind sehr präsent und Unternehmen aus Ägypten über Singapur bis Australien sind an Bord. Das alles ist einklares Votum für die größte Umwelttechnologiemesse der Welt.


„Klares Votum für die größte Umwelttechnologiemesse der Welt“

Stefan Rummel, Geschäftsführer der Messe München

Auch das Rahmenprogramm ist umfangreich, was sind Ihre Highlights?

Bundesumweltministerin Steffi Lemke und der Bayerische Umweltminister Thorsten Glauber werden die Messe eröffnen. Direkt im Anschluss diskutieren herausragende Persönlichkeiten die Frage, wie wir Veränderung mit Umwelttechnologie schaffen: unter anderem die Gründerin Mikela Druckman (Expertin für KI im Recycling sowie Teil des WEF Global Future Council,), Sucheta Govil (Chief Commercial Officer von Covestro), Prof. Dr. Erich Zahn (Mit-Autor des Club of Rome-Berichts „Die Grenzen des Wachstums“) und Dr. Johannes Kirchhoff (Vorstand der Initiative Circular Economy vom Bundesverband der deutschen Industrie).

Ganz konkretes Wissen vermitteln die neuen, geführten Lösungstouren zu 16 Themen. Und dann natürlich die Vielzahl an Sonderschauen und Fachvorträgen. Das Themen-Spektrum reicht vom digitalen Zwilling in der Wasserwirtschaft über Bauschutt-Recycling bis hin zum klimaneutralen Lastverkehr.

Auch für die Messe selbst stellen Sie den Anspruch einer nachhaltigen Durchführung – was genau sind Ihre Maßnahmen hier?

Wir haben uns einen Code of Conduct gegeben, um die IFAT in einem kontinuierlichen Prozess nachhaltiger zu gestalten – und können dabei auf eine bereits sehr „grüne“ Infrastruktur der Messe München aufbauen. Bei der Messedurchführung geht es dann um Dinge wie die Auswahl von Materialien, den Umgang mit Abfall – und wir ermutigen auch unsere Aussteller und Besucher, ihre Messebeteiligung klimaschonend zu gestalten. So wird das GoGreen-Ticket sehr gut angenommen, um den CO2-Fußabdruck zu kompensieren.

Der nachhaltigste Messeauftritt wird von uns mit dem Sustainability Award ausgezeichnet, ganz prominent während der Eröffnung. Wir verzichten beispielsweise auf Teppiche in den Hallen und erzielen so eine CO2-Einsparung, die 1.000 Kurzflügen entspricht. Und die Projektleitung der IFAT unterzieht sich selbst einem Audit zur klimaneutralen Messedurchführung.

Zur Veranstaltung

IFAT – Weltleitmesse für Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft

Wann: 30. Mai bis 3. Juni 2022

Wo: Messe München

Rund 2.900 Aussteller aus mehr als 50 Ländern

Das Rahmenprogramm der IFAT finden Sie hier.
Schwerpunkte:
Abfall & Sekundährrohstoffe
Wasser & Abwasser

https://ifat.de/de/

People Analytics als Mittel zur Verbesserung der Lohngleichheit

Der Gender Pay Gap ist real. Dr. Margrét Vilborg Bjarnadóttir, Gründerin von PayAnalytics, beschäftigt sich in ihrem Gastbeitrag dabei mit den Möglichkeiten, die Analytic-Tools bieten – aber auch mit ihren Grenzen.

Lohnungleichheit ist ein drängendes Problem, das sich durch die Pandemie verschärft hat. Millionen von Frauen sind aus dem Erwerbsleben ausgeschieden, und viele Menschen haben den Arbeitgeber gewechselt. People Analytics, die Anwendung quantitativer Instrumente auf die Wertschöpfungskette der Mitarbeiter*innen, kann Unternehmen bei der Verwirklichung von Lohngleichheit und der Schaffung gerechterer Arbeitsplätze unterstützen. Diese Instrumente müssen jedoch mit Bedacht eingesetzt werden, denn selbst wenn sich Firmen um Lohngleichheit bemühen, können ihre Daten immer noch historische Vorurteile widerspiegeln und zu Diskriminierungen aufgrund von ethnischer Zugehörigkeit, Geschlecht und Klasse führen.

Die Grenzen von KI-basierten Tools erkennen

Heutzutage werden KI-basierte People-Analytics-Tools von Manager*innen eingesetzt, um die Produktivität zu messen, wichtige Entscheidungen über Einstellungen, Vergütungen, Beförderungen und Schulungsmöglichkeiten zu treffen und Gehaltsunterschiede in Bezug auf Geschlecht, ethnische Zugehörigkeit oder andere wichtige demografische Kategorien zu erkennen und zu beseitigen. Der zunehmende Einsatz von KI in der Personalabteilung muss jedoch überwacht werden, um zu gewährleisten, dass die Daten qualitativ hochwertig und zuverlässig sind, denn die Analysen der KI sind nur so gut wie die ihnen zugrundeliegenden Daten und Annahmen. Folgende Faktoren müssen dabei berücksichtigt werden:

  1. Daten sind nicht neutral und können Voreingenommenheit enthalten. People-Analytics-Tools basieren in der Regel auf den historischen Daten eines Arbeitgebers zur Rekrutierung, Bindung, Beförderung und Vergütung der Arbeitskräfte. Solche Daten erfassen die Entscheidungen und Einstellungen der Vergangenheit. Führungskräfte müssen sich darum bewusst sein, dass ihre retrospektiven Daten sowohl alte als auch aktuelle Voreingenommenheiten widerspiegeln können und ihnen möglicherweise nicht in vollem Umfang dabei helfen, die Komplexität des Personalmanagements in einer zunehmend vielfältigen Belegschaft zu bewältigen. So können beispielsweise Noten als Indikator für Intelligenz oder berufliche Lizenzen oder Zertifikate als Maßstab für Fähigkeiten herangezogen werden. Diese Maßstäbe sind jedoch unvollständig und enthalten oft Verzerrungen. Deswegen ist es wichtig, bei der Anwendung von diesen Tools die potenziellen Diskrepanzen zwischen dem, was Unternehmen messen wollen (z. B. Intelligenz oder Lernfähigkeit), und dem, was sie tatsächlich messen (z. B. die Leistung in damaligen Schultests), zu berücksichtigen.

  2. Die Leistung eines People-Analytics-Tools hängt auch vom Algorithmus ab. Arbeitgeber sollten bedenken, dass Modelle bei Personen aus demografischen Mehrheitsgruppen wahrscheinlich am besten abschneiden, bei weniger gut vertretenen Gruppen jedoch schlechter. Dies liegt daran, dass Algorithmen in der Regel die Gesamtgenauigkeit maximieren. Dadurch hat die Leistung für die Mehrheitsbevölkerung bei der Festlegung der Algorithmus-Parameter mehr Gewicht als die Leistung für die Minderheitenbevölkerung. Außerdem gibt es kein wirklich „ethnisch blindes“ oder „geschlechtsblindes“ Modell, und das explizite Weglassen der ethnischen Zugehörigkeit oder des Geschlechts in einem Modell macht diese nicht „demografisch neutral“ – im Gegenteil, es kann sie sogar verschlechtern. Wenn die demografischen Kategorien nicht gleichmäßig über die gesamte Organisation verteilt sind, was fast immer der Fall ist, werden selbst sorgfältig erstellte Modelle nicht zu gleichen Ergebnissen für alle Gruppen führen.

Verzerrungen zuverlässig feststellen

Um sicherzustellen, dass die People-Analytics-Tools eine nützliche und vorteilhafte Entscheidungshilfe liefern, können Unternehmen eine Reihe von Werkzeugen einsetzen. Ein besonders hilfreiches Werkzeug ist ein Bias-Dashboard. Ein Dashboard fasst zusammen, wie das Tool in verschiedenen Gruppen abschneidet, und ermöglicht so die frühzeitige Erkennung potenzieller Verzerrungen. Es hebt sowohl die statistische Leistung als auch die Auswirkungen seiner Anwendung auf verschiedene Gruppen hervor. Beim Einstellungsprozess kann das Dashboard zum Beispiel die potenziellen Bewerber*innen zusammenfassen, die auf verschiedenen Websites (z. B. LinkedIn) kontaktiert wurden, sowie den Anteil jeder Gruppe, der sich beworben hat, ein Vorstellungsgespräch erhalten hat und schließlich eingestellt wurde.

Neben der Überwachung statistischer Leistungskennzahlen können Führungskräfte auch explizit auf Verzerrungen testen. So können sie beispielsweise untersuchen, wie individuelle Merkmale wie Erfahrung oder Ausbildung zu Gehaltserhöhungen in verschiedenen Gruppen beitragen. Sie können auch die Ergebnisse des jährlichen Beurteilungsprozesses untersuchen. Wenn beispielsweise Mitarbeiter*innen einer bestimmten ethnischen Gruppe überproportional häufig für eine Gehaltserhöhung vorgeschlagen werden, ist dies ein Zeichen dafür, dass das KI-Tool oder der Entscheidungsprozess möglicherweise verzerrt ist und die Empfehlungen des KI-Tools die Voreingenommenheit verstärken. Es könnte aber auch sein, dass das Tool unverhältnismäßig viele Minderheiten als Kandidat*innen für eine Gehaltserhöhung identifiziert, weil sie in Firmen tendenziell unterbezahlt sind; in diesem Fall hilft das KI-Tool, das Problem zu lösen.

Es ist wichtig zu bedenken, dass kein Modell vollständig ist. Zum Beispiel können die zwischenmenschlichen Fähigkeiten der Arbeitskräfte ihren Erfolg im Unternehmen beeinflussen, ohne dass dies unbedingt in den Personaldaten zum Ausdruck kommt. Die Nutzer*innen von People-Analytics-Tools müssen sich dieser zusätzlichen Faktoren bewusst sein und lernen, wie sie diese systematisch in den Entscheidungsprozess einbeziehen können. Wenn es quantifizierbare Daten zu diesen Faktoren gibt, sollten sie in Betracht ziehen, diese zu sammeln. Wenn ein KI-Algorithmus zur Entscheidungsfindung eingesetzt wird, muss die Firma in der Lage sein, allen Beteiligten zu erklären, was das Ergebnis bedeutet und wie es zustande gekommen ist. Algorithmen können bei der Interpretation vergangener Daten und der Erkennung von Mustern helfen, aber People Analytics ist immer noch ein Bereich, in dem der Mensch im Mittelpunkt der Entscheidungsfindung steht – die endgültigen Entscheidungen und die Verantwortung für diese Entscheidungen liegen also bei den Menschen.

Fazit

Personalanalysetools, insbesondere solche, die auf KI basieren, sind aus dem modernen Personalwesen nicht mehr wegzudenken. Quantitative Modelle sollen jedoch das menschliche Urteilsvermögen unterstützen, nicht ersetzen. Unternehmen müssen sich der Verzerrungen durch maschinelles Lernen und der Grenzen von Modellen bewusst bleiben. Um den größtmöglichen Nutzen aus KI und anderen People-Analytics-Tools zu ziehen, sollten Führungskräfte konsequent überwachen, wie die Anwendung in Echtzeit funktioniert, welche expliziten und impliziten Kriterien zum Trainieren des Tools verwendet werden und ob die Ergebnisse der vom Tool empfohlenen Entscheidungen verschiedene Gruppen auf unbeabsichtigte Weise unterschiedlich beeinflussen. Um People Analytics angemessen zu nutzen und wirklich gerechte Arbeitsplätze zu schaffen, müssen Manager*innen lernen, die richtigen Fragen zu ihren Daten, ihren Entscheidungen, ihren quantitativen Modellen und ihrer Software zu stellen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Lieferketten „Zurück auf Anfang“

Auftragsvolumen bricht ein, Zahlungen verspäten sich: Ukraine Krieg macht Aufschwung zunichte

Die russische Aggression gegen die Ukraine schickt globale Lieferketten in den freien Fall und treibt Energieknappheit und Rohstoffpreisvolatilität voran. Die Auftragsvolumina verlieren so stark wie noch nie seit den ersten Lieferverboten. Verspätete Zahlungen an Lieferanten verdoppeln sich im Vergleich zu den sechs Monaten vor der Pandemie. Zulieferer in Mexiko und Kanada verzeichnen einen Anstieg der Aktivitäten, da US-Unternehmen ihre Beschaffung näher an ihr Heimatland verlegen. Mckinsey prognostiziert, dass in den nächsten fünf Jahren bis zu 26 Prozent der weltweiten Produktion durch Reshoring und Nearshoring verlagert werden. 

Der Krieg in der Ukraine und die Abriegelungen in China haben das weltweite Auftragsvolumen in den ersten drei Monaten des Jahres 2022 einbrechen lassen, so die neuen Daten von Tradeshift. Der Q1 2022 Index of Global Trade Health von Tradeshift zeigt, dass die Gesamttransaktionen (Rechnungen und Bestellungen) zwischen Einkäufern und Lieferanten auf der Plattform im ersten Quartal 2022 um weitere 7 Punkte unter den prognostizierten Bereich gefallen sind. Die Auftragsvolumina wurden durch eine Mischung aus hoher Inflation, längeren Lieferzeiten und Engpässen bei wichtigen Komponenten besonders stark beeinträchtigt. Die Auftragseingänge fielen im ersten Quartal um 16 Punkte, was den stärksten Schwungverlust seit den ersten Sperrungen im Jahr 2020 darstellt.

Unternehmen halten Geld zurück, Lieferantenzahlungen weiter stark verspätet

Die großen Unternehmen scheinen sich auf eine schwierige Zeit einzustellen und halten eigenen Bargeldreserven zurück. Das hat Auswirkungen auf die Lieferanten, die dadurch in den kommenden Monaten erneut unter Druck geraten werden. Die aktuellen Daten von Tradeshift zeigen, dass die Zahl der verspäteten Lieferantenzahlungen in den letzten sechs Monaten durchschnittlich 15,9 Prozent des Gesamtvolumens betrug und damit fast doppelt so hoch war wie in den sechs Monaten vor der Pandemie. 

„Die Aggression Russlands in der Ukraine und die Abriegelung von Großstädten in ganz China führen zu einer Konvergenz von neuem und bekanntem Druck“, sagt Christian Lanng, CEO und Mitbegründer von Tradeshift. „Der Aufbau von Bargeldreserven mag wie ein Akt der Selbsterhaltung seitens der Einkäufer erscheinen. Er kann aber schnell zu einem Akt der Selbstverletzung werden, wenn die Lieferanten zu kämpfen beginnen. Große Unternehmen müssen aufhören, Lieferanten als billige Kreditlinie zu betrachten. Stattdessen sollten sie anfangen, nach Finanzierungsoptionen zu suchen, die sowohl sie selbst als auch ihre Lieferanten in einem hochvolatilen Umfeld zahlungsfähig halten.“

Euro-Raum weiteren Belastungen ausgesetzt

Die Transaktionen fielen um weitere 14 Punkte gegenüber der erwarteten Spanne, wodurch ein Großteil der Erholung der letzten 18 Monate zunichte gemacht wurde. Die Auftragsvolumina fielen um alarmierende 28 Punkte, da die Ukraine-Krise die Rohstoffpreise in die Höhe trieb und weitere Störungen in wichtigen Lieferketten verursachte.

In Deutschland gaben 40 Prozent der Industrieunternehmen an, dass sie Probleme mit Lieferengpässen erwarteten, so der Think Tank IW. Die Automobilhersteller haben aufgrund des Mangels an Kabelbäumen, die in der Ukraine von der deutschen Firma Leoni hergestellt werden, Montagebänder geschlossen. 

Das Rechnungsvolumen blieb im ersten Quartal 2022 relativ robust, was darauf hindeutet, dass die Zulieferer immer noch einen Rückstand an bestehenden Aufträgen abarbeiten. Einige Engpässe könnten sich abschwächen, aber die Aussichten deuten darauf hin, dass noch einige schwierige Monate bevorstehen, da neue Störungen auftreten. Nach Angaben von JP Morgan sind die Asien-Europa-Routen am stärksten von Problemen wie akuter Überlastung der Häfen und Unterbrechungen im Frachtverkehr aufgrund der Schließung des russischen Luftraums betroffen. Angesichts der Starrheit bzw. Unflexibilität der meisten Lieferketten dürfte es sich als sehr schwierig erweisen, schnelle und praktikable Lösungen für diese Probleme zu finden.  


„Die Globalisierung mag zwar auf dem Rückzug sein, aber die Widerstandsfähigkeit wird davon abhängen, dass die Lieferketten vernetzter, vielfältiger und kollaborativer werden als je zuvor.“

Christian Lanng, CEO und Mitbegründer von Tradeshift

Christian Lanng

Einkäufer und Lieferanten sind in USA, China und Großbritannien einem ähnlichem Druck ausgesetzt

USA: Die Dynamik ging um 6 Punkte zurück. Die US-Häfen machten sich auf neue Überlastungen infolge von Sperrungen in Asien gefasst. Die steigenden Energiekosten wirkten sich ebenfalls auf die Aufträge aus.

China: Die Transaktionen gingen im ersten Quartal 2022 um weitere 3 Punkte zurück, was das dritte Quartal in Folge ist, in dem die Aktivität hinter den Erwartungen zurückbleibt.

Großbritannien: Das Transaktionswachstum insgesamt lag im ersten Quartal um einen Punkt über dem prognostizierten Bereich, aber das Gesamtwachstum seit der Pandemie ist immer noch kaum halb so hoch wie erwartet. 

Reshoring und Nearshoring im Kommen? 

Kommentatoren wie der CEO von Blackrock, Larry Fink, glauben, dass der Krieg in der Ukraine die Unternehmen veranlassen wird, sich aus ihren globalen Lieferketten zurückzuziehen. Derweil prognostiziert McKinsey, dass in den nächsten fünf Jahren bis zu 26 Prozent der weltweiten Produktion durch Reshoring und Nearshoring verlagert werden. Die Daten von Tradeshift deuten darauf hin, dass Zulieferer in den an die USA angrenzenden Ländern bereits von den Bemühungen multinationaler Unternehmen profitieren, ihre Lieferketten zu „nearshoren“. Das Rechnungsaufkommen mexikanischer Lieferanten ist im vergangenen Jahr um das 4,1-fache des weltweiten Durchschnitts gestiegen. Die Rechnungen kanadischer Zulieferer waren 3,1-mal so hoch wie der Durchschnitt.

„Das Jahr 2022 hat ein neues Kapitel in einem Zeitalter der Unsicherheit für den Welthandel aufgeschlagen“, so Lanng weiter. „In dieser neuen Realität werden Rückstände und Pannen zur neuen Normalität, während Konnektivität, Transparenz und Agilität eher grundlegende Betriebsprinzipien als vage Ambitionen sind. Die Globalisierung mag zwar auf dem Rückzug sein, aber die Widerstandsfähigkeit wird davon abhängen, dass die Lieferketten vernetzter, vielfältiger und kollaborativer werden als je zuvor.“ 

Weitere Index-Daten nach Branchen und IT-Ausgaben

Transport & Logistik: Die geopolitischen Spannungen und die erneuten Abriegelungen in China stellen die Logistikunternehmen vor große Herausforderungen. Die Tradeshift Daten zeigen, dass das Transaktionsvolumen in der gesamten Transport- und Logistikbranche weiterhin höher ist als erwartet, was auf einen harten Wettbewerb um begrenzte Kapazitäten hindeutet. 

Hersteller: Die Lieferketten des verarbeitenden Gewerbes sind mit einer schwierigen Kombination aus Lieferkettenengpässen und steigenden Rohstoffpreisen konfrontiert. Die Tradeshift Daten zeigen, dass das Transaktionsvolumen im ersten Quartal 25 Prozent unter dem erwarteten Niveau lag. Ein Großteil dieser Verlangsamung ist auf einen steilen Rückgang der Auftragseingänge zurückzuführen, die das erste Quartal 2022 auf dem niedrigsten Stand seit der ersten COVID-Sperre beendeten. 

Einzelhandel: Die Transaktionen in den Lieferketten des Einzelhandels scheinen sich nach einer Phase extremer Volatilität in den letzten zwei Jahren stabilisiert zu haben. Die Aktivität bleibt jedoch leicht hinter den Erwartungen zurück, wobei eine Kombination aus steigenden Kosten und schwindendem Verbrauchervertrauen wahrscheinliche Faktoren sind.

Technologie-Einkäufe: Auch die Einkäufe von Software und Technologie lagen im ersten Quartal unter den Erwartungen. Umfragedaten von Enterprise Technology Research zeigen, dass einige Käufer im ersten Quartal angesichts der makroökonomischen Bedingungen eine abwartende Haltung eingenommen haben. 

Q1 2022 Index of Global Trade Health

Den vollständigen Q1 2022 Index of Global Trade Health in englischer Sprache finden Sie unter: https://tradeshift.com/global-trade-report/

Quellennachweis: 

1.     https://tradeshift.com/global-trade-report/
2.     https://www.nasdaq.com/articles/ukraine-conflict-adds-to-european-supply-chain-snags
3.     https://www.just-auto.com/special-focus/ukraine-crisis/ukraine-harness-shortage-hits-vw-report/
4.     https://www.reuters.com/markets/europe/ukraine-conflict-adds-european-supply-chain-snags-2022-03-09/
5.     https://www.opportimes.com/reshoring-and-nearshoring-will-relocate-up-to-26-of-world-production/
6.     https://www.blackrock.com/corporate/investor-relations/larry-fink-ceo-letter
7.     https://siliconangle.com/2022/04/01/new-data-c-suite-taps-brakes-tech-spending/

Lizenz: Pressemitteilung

In zehn Schritten in die Cloud

Der Autor Marcus Eisele ist Developer Strategist bei Red Hat

Die Cloud-Nutzung ist mit verschiedenen Herausforderungen verbunden. Dabei geht es keineswegs nur um technische Fragestellungen. Ebenso wichtig ist ein strategisches und stufenweises Vorgehen auf dem Weg in die Cloud. Red Hat zeigt auf, wie Unternehmen in zehn Schritten die erfolgreiche Cloud-Reise antreten können.

In der IT-Welt und vor allem in Bezug auf die Cloud dreht sich vieles um Container und ihre Orchestrierung. Thematisiert werden Packungsdichten oder Microservices. Aber über den konkreten Weg in diese verheißungsvolle neue Welt wird nur selten gesprochen. Dabei zeigen zehn einfache Überlegungen zur Cloud-Nutzung, worauf zu achten ist.

1. Die Cloud-Reise beginnt im Kopf
Mit dem Schritt in die Cloud beweisen Unternehmen Mut zur Veränderung. Zwangsläufig sind damit auch organisatorische Änderungen verbunden, denn eines muss klar sein: Die Cloud ist nicht nur eine weitere Kostenstelle für die IT, sondern ein Paradigmenwechsel, der mit neuen Anwendungsarchitekturen und Prozessen die Produktionszeiten verkürzt. Vorhandene starre Prozesse müssen dabei beseitigt werden, um Flexibilität und Geschwindigkeit in der gesamten Organisation zu etablieren. Die zugrundeliegende Technik ebnet dafür schließlich nur den Weg.

2. Die richtigen Metriken müssen definiert werden
In der Cloud wird viel gemessen, beispielsweise die Anzahl von Containern oder Microservices, die Durchlaufzeiten oder der Speicherverbrauch. Auch Bedarfsprognosen werden erstellt. Aber sind diese Werte wirklich wichtig? Schließlich geht es um den Erfolg. Richtig ist: Ein Erfolg kann erst belegt werden, wenn er messbar ist. Unternehmen sollten somit frühzeitig festlegen, wie ihr Erfolg aussehen soll und welche Ziele sie erreichen wollen. Auf dieser Basis können sie dann die Metriken festlegen.

3. Entwickler dürfen nicht eingeschränkt werden
Entwickeln ist immer auch eine kreative Kunst. Wie bei jeder Kunst steckt auch in einer Entwicklung bahnbrechendes Potenzial oder großes Chaos. Das eine ohne das andere geht nicht. Folglich dürfen Entwickler in ihrer Tätigkeit und Produktivität auch nicht begrenzt werden.

4. Daten sind die Treiber der Strategie
Keine moderne Anwendung, egal in welcher Architektur, kommt ohne Daten aus. Sie waren, sind und werden auch zukünftig die Währung digitaler Unternehmen bleiben. Ihr digitales Gewicht entscheidet über den Ort ihrer Lagerung. Und dieser Ort bestimmt dann auch die Cloud-Strategie.

5. Selber bauen ist aufwendig
Beim Hausbau heißt es oft: Wer selber baut, wird nie fertig. Alternativen sind Kauf oder Miete. Auch die Cloud-Nutzung kann man damit vergleichen und es gibt verschiedene Angebote. Angesichts der vielfältigen Aufgaben hinsichtlich Plattformfunktionen, Architektur, Kubernetes oder Security ist die Do-it-yourself-Variante selten die beste Wahl. Einfacher ist es, die passende Cloud zur konkreten eigenen Anforderung auszuwählen.

6. Die eigenen Anwendungen muss man kennen
Entwickler begleiten ihre Anwendungen von der Idee bis zum produktiven Leben. Und alle haben unterschiedliche Anforderungen. Manche müssen extrem gut skalieren, andere nur einmal im Jahr arbeiten. Diese Unterschiede sollte ein Unternehmen auf dem Weg in die Cloud kennen und folglich seine Applikationen kategorisieren.   

7. Migrationsszenarien sind festzulegen
Nur weil sich die Infrastruktur ändert, müssen Anwendungen nicht automatisch neu entwickelt werden. Manchmal reicht es schon, Bestehendes einfach zu migrieren. Vielleicht kann auch eine moderne Erweiterung helfen. Nur was wirklich veraltet ist und so nicht mehr brauchbar ist, sollte eliminiert oder eben neu entwickelt werden. Prinzipiell muss ein Unternehmen anwendungs- und anforderungsspezifisch immer eine geeignete Migrationsstrategie festlegen, sei es Rehosting, Replatforming oder Refactoring.

8. Das Richtige bauen und betreiben
Einfach so in die Cloud geht nicht. Ohne erprobte Baupläne sollte man nicht starten. Dabei geht es um Aspekte wie Architektur, Produkte, Entwicklung und Betrieb.

9. Der Betrieb ist die hohe Kunst der Cloud
Egal wie schön etwas verpackt ist, der Teufel steckt zumeist im alltäglichen Umgang. Das betrifft auch den Betrieb. Ist alles nach starren Prozessen ausgerichtet, ist auch der Stillstand vorprogrammiert. Auch hier gilt es, die richtigen Metriken für Site Reliability Engineering (SRE) zu finden, das unter anderem auf die Optimierung und Automatisierung von Operations-Aufgaben abzielt. 

10. Innovationen starten mit Zusammenarbeit
Unternehmen müssen ihre Teams zusammenbringen. Nur durch Kollaboration kann schließlich etwas Innovatives entstehen. Geniale Ideen sind immer der Weg in die Zukunft. Und mit Open Source ist sie nur einen kleinen Schritt weit entfernt.

Der Weg in die Cloud wird kein leichter sein, könnte man sagen. Ohne richtige Vorbereitung und Strategie ist diese Einschätzung auch zutreffend. Die genannten Schritte in die Cloud können aber eine erste Hilfestellung geben, um die Cloud-Reise gefahrlos und letztlich erfolgreich anzutreten.

Der Autor Marcus Eisele ist Developer Strategist bei Red Hat

Moderne Marktmanipulation: Cyberkriminelle zunehmend agressiver gegen Finanzunternehmen

Der fünfte jährliche VMware-Report über moderne Banküberfälle zeigt, dass zerstörerische Angriffe auf Finanzinstitute und Ransomware weiter massiv zunehmen. Thomas Herrguth, Director VMware Financial Services, ordnet die Lage ein und zeigt Auswege.

Wir alle erinnern uns an die spektakulären Banküberfälle unserer Kindheit. Ein bisschen von aufgeregtem Voyeurismus war zugebenermaßen dabei, wenn man in den Nachrichten die Live-Bilder von Bankräubern in Sturmhauben verfolgte, die mit der erbeuteten Million von einem sorgenfreien Leben auf einer einsamen Insel träumten. Oder welches Kind verfolgte nicht mit Spannung die immer wieder erfolglosen Einbruchversuche der Panzerknacker in den Donald Duck Comics? Der von der Zeichentrickfigur inspirierte „Dagobert“ mit seinem legendären Erfindergeist war natürlich auch ein Krimineller, aber eine Spur von Faszination über sein Ideenreichtum schwang bei der Berichterstattung über seine Taten immer mit.

Moderne Banküberfälle sind unsichtbar

Kaum etwas anderes spiegelt so sehr den Wandel unserer Zeit wider wie die Veränderung der Banküberfälle. Die physischen Angriffe haben sich quasi komplett auf die virtuelle Ebene verlagert. In seinem fünften jährlichen Report „Modern Bank Heists“ berichtet VMware über das sich verändernde Verhalten von Cyberkriminellen und die defensive Ausrichtung des Finanzsektors. Befragt wurden führende CISOs und Sicherheitsverantwortliche der Finanzbranche. In unserem Bericht stellen wir fest, dass Finanzinstitute vermehrt mit zerstörerischen Angriffen konfrontiert und noch mehr als in den vergangenen Jahren Opfer von Ransomware werden. Ausgeklügelte Cyberkriminalitätskartelle gehen schon lange über den reinen Überweisungsbetrug hinaus. Sie zielen vor allem darauf ab, Börsenmaklerkonten zu übernehmen und in Banken einzudringen.

Thomas Herrguth zeigt in seinem Beitrag Handlungsoptionen auf.

Man muss sich die Dimension einmal vor Augen halten: In dem Bericht gaben 63 % der Finanzinstitute an, dass sie eine Zunahme zerstörerischer Angriffe erlebt haben. Darüber hinaus hatten 74 % im vergangenen Jahr mindestens einen Ransomware-Angriff zu verzeichnen. Ich glaube nicht, dass früher auch nur annähernd jede zweite Bank regelmäßig von Bankräubern heimgesucht wurde.

Zumindest sehen sich die Bankangestellten nicht mehr mit vorgehaltener Pistole bedroht…

Aber die Erfolgsaussichten der Kriminellen sind durchaus hoch: Denn die große Mehrheit (63%) der angegriffenen Organisationen bezahlte im letzten Jahr das im Zuge von Ransomware-Attacken geforderte Lösegeld.

Es geht nicht nur um’s Geld

Der VMware-Report stellt auch fest: Anders als früher, als es um den schlichten Gelddiebstahl ging, sind die modernen Bankräuber aber auch an Informationen interessiert. Cyberkriminelle Kartelle haben es inzwischen vor allem auf nicht-öffentliche Marktinformationen abgesehen, z. B. Gewinnschätzungen, öffentliche Angebote und wichtige Transaktionen. Tatsächlich waren 2 von 3 (66 %) Finanzinstitute von Angriffen betroffen, die auf Marktstrategien und Information, die für Aktieninsiderhandel nützlich sind, abzielten. Diese moderne Marktmanipulation ist nichts anderes als Wirtschaftsspionage. Übrigens gab die Mehrheit der befragten Finanzinstitute an, dass die meisten Angriffe aus dem Cyberspace aus Russland zu verzeichnen sind – und das schon im Jahr 2021.

Island Hopping – eine fortgeschrittene Cyberangriffstechnik

Hierzu passt auch folgende Erkenntnis aus der VMware-Umfrage: 60 % der Finanzinstitute verzeichneten eine Zunahme des „Island Hopping“. Das sind 58 % mehr als im Vorjahr. Der Begriff „Island Hopping“ stammt übrigens aus der militärischen Kriegsführung, bei der gezielt einzelne Inseln besetzt werden. In der Cyberwelt gehen Kriminelle ähnlich vor: Das von den Hackern ausgesuchte Zielunternehmen wird durch kleinere Unternehmen infiltriert. Dabei handelt es sich beispielsweise um externe Personal-, Gehaltsabrechnungs-, Marketing- oder Gesundheitsunternehmen, die eng mit dem Hauptunternehmen zusammenarbeiten. Da kleinere Firmen häufig über anfälligere Sicherheitssysteme verfügen, sind sie für Hacker ein leichtes Ziel. Wenn die Kriminellen erst einmal ein Partnerunternehmen gehackt haben, können sie durch E-Mails oder gestohlene Zugangsdaten viel leichter an sensible Daten des Hauptunternehmens gelangen.

Der Anstieg beim Island Hopping steht für eine neue Ära der Kriminalität, in der das Kapern der digitalen Transformation eines Finanzinstituts zum ultimativen Ziel geworden ist.

67 % der Finanzinstitute beobachteten auch die Manipulation von Zeitstempeln, einen Angriff namens Chronos, benannt nach dem Gott der Zeit in der griechischen Mythologie.   Besonders bemerkenswert ist, dass 44 % der Chronos-Angriffe auf Marktpositionen abzielten. Und: nahezu alle (83 %) sind über die Sicherheit von Kryptowährungsbörsen besorgt. Der Vorteil für Cyberkriminelle, die es auf Kryptowährungsbörsen abgesehen haben, besteht darin, dass erfolgreiche Angriffe sofort und direkt in Cybergeld umgewandelt werden können.

Was können wir tun?

Alarmanlagen installieren, Tresorwände erweitern, Elektrozäune ziehen?

Finanzinstitute wissen, dass die Angreifer von heute von physischen Raubüberfällen zu virtuellen Übernahmen übergegangen sind. Die Mehrheit der Finanzinstitute plant, ihr Security-Budget in diesem Jahr um 20 bis 30 % zu erhöhen. Zu den wichtigsten Prioritäten für Investitionen gehören die erweiterte Erkennung und Reaktion (Extended Detection and Response, kurz XDR), Workload-Sicherheit und mobile Security. Das Wichtigste wird die Collaboration sein: Die Zusammenarbeit zwischen der Cybersicherheits-Community, staatlichen Stellen und dem Finanzsektor ist von entscheidender Bedeutung, um diese zunehmenden Bedrohungen zu bekämpfen. Ohne diese wird es im zunehmend geopolitischen Cyberkrieg nicht gehen.


Über den VMware Modern Heists Report 5.0

VMware führte im Februar 2022 eine Online-Umfrage zu den sich entwickelnden Bedrohungen der Cybersicherheit für Finanzinstitute durch. 130 CISOs und Sicherheitsverantwortliche des Finanzsektors aus der ganzen Welt nahmen daran teil. Davon haben 41 Prozent der Finanzinstitute ihren Hauptsitz in Nordamerika, 29 Prozent in Europa, 16 Prozent im Asien-Pazifik-Raum, 12 Prozent in Mittel- und Südamerika und 2 Prozent in Afrika. Die Befragten wurden gebeten, nur eine Antwort pro Frage auszuwählen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Hyperautomatisierung – der Mensch im Zentrum

Timo Weber, Advisory Solution Consultant, Platform Intelligence bei Servicenow, beschreibt, was Hyperautomation bedeutet und warum sie nur dann erfolgreich eingesetzt werden kann, wenn sie um den Menschen herum gebaut wird.

Der Begriff Automatisierung erweckt bei vielen Menschen nicht unbedingt positive Assoziationen: Roboter, Künstliche Intelligenz, maschinelles Lernen und zum Schluss die Redundanz menschlicher Arbeitskräfte. Die Pandemie hat viele Unternehmen jedoch beinahe über Nacht dazu gezwungen, Prozesse zu verändern, zu digitalisieren oder zu automatisieren. Dabei zeigt sich: Automatisierung ist nichts, wovor man Angst haben muss, denn sie hat viele Vorteile. Während also die Automatisierung vermehrt in Fahrt kommt, sprechen wir bereits von der Hyperautomatisierung. Was klingt wie ein großer Schritt, macht aber durchaus Sinn, denn Hyperautomation rückt den Menschen und seine Bedürfnisse ins Zentrum und ist die logische Konsequenz für die Unternehmen von morgen.

Timo Weber: Die Hyperautomatisierung löst nicht von allein alle Herausforderungen, doch will eine Firma künftig am Markt erfolgreich sein und bleiben, gehört Automatisierung unausweichlich dazu.

Die ersten Schritte zur digitalen Transformation effizienter gestalten

Spätestens seit Beginn der Pandemie stehen viele Unternehmen täglich vor den Herausforderungen der digitalen Transformation. Die jeweiligen Fortschritte sind dabei sehr verschieden. Während viele Firmen bereits sehr weit gekommen sind, stehen andere Unternehmen vor einer scheinbar unüberwindbaren Aufgabe. Denn häufig sammeln sich über Jahre und Jahrzehnte der Unternehmensgeschichte verschiedene Systeme an, die eine (schnelle) Transformation erschweren. Bei manchen Tools erweckt es den Eindruck, als hätten sie über die lange Zeit der Nutzung eine Art Eigendynamik entwickelt, sie sind daher oft nur schwer zu ändern oder gar zu ersetzen. Keine Frage, diese gewohnten Systeme haben oft über Jahre gute Dienste geleistet, dennoch sind sie auch zu Zeitfressern mutiert, deren Pflege Ressourcen bindet und Prozesse unproduktiv werden lässt. Ungewollt stehen in vielen Unternehmen oft nicht mehr die Mitarbeiter und deren produktive Arbeit im Fokus, sondern es dreht sich vielmehr um die Pflege der technischen Hilfsmittel. All das wirkt sich auch negativ auf die Workflows im Unternehmen aus und kostet unnötige Arbeitskraft und Ressourcen. Wer sein Geschäft nachhaltig durch die digitale Transformation leiten möchte, sollte wieder auf den Menschen fokussieren, Hyperautomatisierung bietet dafür Lösungen. Eine Kerntechnologie dabei ist die Robotic Process Automation (RPA). Sie ermöglicht, dass die zeitfressenden, repetitiven Prozesse von Software-Robotern übernommen werden. Dabei ersetzen die Maschinen nicht die menschliche Arbeitskraft. Denn auch die Technologie kommt an einigen Stellen an ihre Grenzen. Bots können komplexe Aufgaben manchmal nicht allein lösen, sodass weiterhin menschliche Intelligenz von Nöten ist, um eine vollständige digitale Transformation zu vollziehen. Die Hyperautomation ist dabei auf der Prozessebene angesiedelt. Ziel ist es nicht ausschließlich, Prozesse und Workflows zu automatisieren, sondern diese zu erkennen, zu vereinfachen, zu verbessern, zu messen oder auch zu (neu) gestalten.

Hyperautomation umsetzen

Wie bereits festgehalten, hängt der Startpunkt der digitalen Transformation und der Hyperautomatisierung davon ab, auf welchem Stand der Automatisierung sich das Unternehmen befindet. Gerade bei Firmen, die bisher noch keine Berührungspunkte damit hatten, ist es von enormer Bedeutung mit kleinen Projekten zu beginnen. Darüber hinaus sollten die Unternehmen ihre Mitarbeiter jederzeit im Blick behalten, sie frühzeitig in das Projekt einbeziehen, ihre Bedenken ernst nehmen und sie selbst die positiven Auswirkungen erfahren lassen. Denn die ersten Schritte in Richtung Hyperautomation können Unternehmen bereits helfen zu erkennen, welche Arbeitsschritte Mitarbeiter machen, die sie nur aufgrund der genutzten Tools tun und nicht, weil es Teil ihres Aufgabenbereichs ist. Durch den Einsatz von Process Mining beispielsweise können zeitraubende Prozesse aufgedeckt und besser verstanden werden. Die Erkenntnisse, die durch den Einsatz dieser Technik gewonnen werden, können Unternehmen wiederum nutzen, um diese Prozesse zu rationalisieren und zu automatisieren und damit den Mitarbeitern wiederholende und ermüdende Routineaufgaben ersparen. In diese Richtung zielt auch die Partnerschaft von Celonis, als führendem Anbieter von Process Mining, mit ServiceNow.

Auch für bisher völlig ungeschulte Mitarbeiter kann die Nutzung einer Low-Code Plattform ein erster Berührungspunkt mit dem Thema Hyperautomation sein. Als sogenannte Citizen Developer können sie mit kaum Erfahrung und Know-how Apps entwickeln, um alltägliche Prozesse darzustellen, zu optimieren und zu automatisieren. Möglich ist das zum Beispiel durch visuell-basierte Module, die automatisch Code generieren.

Für Unternehmen, die bereits einen Schritt weiter sind und schon Prozesse automatisiert haben, stellt sich zu Beginn die Frage, wie sich die unterschiedlichen Technologien wie beispielweise ML, KI, Low-Code Anwendungen oder RPA kombinieren lassen, oder ob es noch fehlende Anwendungen gibt.

Das Beratungs- und Analyseunternehmen Gartner beschreibt die Umsetzung der Hyperautomation in drei Schritten:

  1. Geschäftliches Ziel definieren
    Unternehmen sollten sich vor der Umsetzung fragen, was die Hyperautomation bewirken soll und daraus ein konkretes Ziel, wie beispielsweise eine Umsatzsteigerung oder eine Risikominimierung, ableiten.
  1. Prozessoptimierung
    Vor der Implementierung sollten Unternehmen ihre bestehenden Prozesse bereits so weit wie möglich skalieren und optimieren. Das erspart doppelte Arbeit und führt dazu, dass die Kombination verschiedener Tools im Anschluss direkt zu spürbaren Erfolgen führt.
  1. Auswahl und Kombination von Technologien und Tools
    Passt RPA, KI und ML zu meinem Unternehmen? Die Auswahl der richtigen Tools und deren Kombination miteinander ist ein entscheidender Schritt, der gut durchdacht sein sollte. Denn die IT-Werkzeuge müssen den Anforderungen des jeweiligen Unternehmens entsprechen, möglichst hoch skalierbar sein und alle Sicherheitsfragen klären.

Zusammenarbeit von Software und Mensch

Die Hyperautomatisierung löst nicht von allein alle Herausforderungen, vor denen Unternehmen im Rahmen der digitalen Transformation stehen. Doch klar ist: Will eine Firma künftig am Markt erfolgreich sein und bleiben, gehört Automatisierung unausweichlich dazu.

Hyperautomation kann Prozesse beschleunigen und sich den Bedürfnissen von Unternehmen und Mitarbeitern anpassen, um Workflows zu verbessern. Es ist daher nicht gleichzusetzen mit lückenloser Prozessautomation. Der Einsatz entsprechender Tools kann verschiedene Unternehmensprozesse verändern, was sich nicht nur auf die Arbeitskraft der Menschen, sondern auch auf die Geschwindigkeit des Outputs der Firmen auswirkt. Software und Mensch arbeiten Hand in Hand. Erst trainieren Mitarbeiter die Tools und lehren sie einfache Entscheidungen selbst zu treffen. Anschließend können Mensch und Maschine in eine wirkliche Zusammenarbeit gehen. Der Roboter und auch ML arbeitet eigenständig und entlastet den Menschen, der aber weiterhin ein wichtiger Entscheidungsträger bleibt. Denn die korrekte Anwendung der Tools sowie die Interpretation und Auswertung der Daten und Analysen bleiben weiterhin Aufgaben, die eine menschliche Denkweise und vielleicht sogar Emotionalität erfordert. Der Mitarbeiter wird durch Hyperautomation nicht ersetzt. Die Technologie bietet eine Grundlage, deren Ergebnisse von Menschen weiter genutzt werden können, die Arbeitsproduktivität erhöhen und den Menschen mehr Raum für Kreativität ermöglicht.

Über den Autor

Timo Weber arbeitet seit mehr als 15 Jahren in der IT-Branche und ist heute Advisory Solution Consultant, Platform Intelligence bei Servicenow. In dieser Rolle verantwortet er die Bereiche Predictive Intelligence, Virtual Agent, Performance Analytics und ist Experte für Automation und Hyperautomation.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Was bleibt: Der hybride Arbeitsplatz

Die Arbeitswelt befindet sich in einem stetigen Wandel. Längst lassen sich viele Jobs und Tätigkeiten ortsunabhängig erledigen. Dennoch war es für den überwiegenden Teil der Menschen völlig normal, täglich ins Büro zu gehen – auch, weil das vom Arbeitgeber so gewünscht war. Mit Corona hat sich das schlagartig geändert: Von einem Tag auf den anderen fanden sich viele Arbeitende im Homeoffice wieder. Unternehmen mussten ihren Mitarbeitern umgehend vernetzte digitale Arbeitsplätze zur Verfügung stellen, damit diese sicher und zuverlässig von verschiedenen Standorten aus erreichbar waren. Klaus Schulz, Manager Portfolio & Offering Management bei Konica Minolta Business Solutions Deutschland zeigt in diesem Beitrag auf, wie Lösungen für digitale Arbeitsmodelle und den intelligent vernetzten Arbeitsplatz aussehen.

Der Arbeitsalltag im klassischen Büro ist dem „ArbeitsÜBERALLtag“ gewichen: Mobiles und hybrides Arbeiten dominieren in vielen Unternehmen und eine Rückkehr zum alten Status Quo ist nicht zu erwarten. Die vergangenen Monate belegen, dass digitale Arbeitsmodelle erfolgreich möglich sind und die Mitarbeitenden Leistungen auch ohne direkte Anwesenheit im Unternehmen erbringen. Mobile Work ist damit ein Teil der neuen, hybriden Arbeitswelt. Dabei ist es besonders wichtig, gleiche technische Rahmenbedingungen zu schaffen, die Mitarbeitende auch im Büro vorfinden – vom Zugriff auf relevante Dateien über Datensicherheit bis hin zu Kommunikationstools. Das Fundament bilden vernetzte Lösungen, die Teams eine standortunabhängige Zusammenarbeit ermöglichen – angefangen von der IT-Infrastruktur bis hin zu spezifischen Geschäftsanwendungen oder Geräten, die aus der Ferne zugänglich sind.

Intelligenter Arbeitsplatz vernetzt Menschen, Arbeitswelten und Informationen

Die Dringlichkeit der digitalen Transformation und des Cloud-Computings in Unternehmen ist rasant gestiegen. Gefragt sind passende Werkzeuge und entsprechendes Know-how. Damit Mitarbeitende im Homeoffice genauso schnell und effizient arbeiten können wie im Büro, ist eine stabile Netzwerkinfrastruktur mit passenden IT-Lösungen für einen intelligent vernetzten „Digital Workplace“ gefragt. Der Arbeitsplatz daheim muss jederzeit den vollständigen Remote-Zugriff auf geschäftskritische Arbeitsabläufe und Daten ermöglichen. Umfassende Komplettlösungen aus Hardware, Software sowie einer ganzen Bandbreite an Applikationen und Managed Services sind dafür besonders geeignet. Sie vereinfachen Prozesse, automatisieren Arbeitsschritte und fördern die unternehmensweite Zusammenarbeit. Im Fokus stehen dabei die individuellen Bedürfnisse der Mitarbeitenden – und genau darauf ist der intelligente Arbeitsplatz ausgerichtet und verbindet Menschen, Arbeitswelten und Daten bestmöglich miteinander.

Klaus Schulz, Manager Portfolio & Offering Management bei Konica Minolta Business Solutions Deutschland, heißt Unternehmen in der Cloud willkommen zum „ArbeitsÜBERAlltag“.

Mehrwert durch Daten

Allerdings hat jede Organisation ihre ganz eigenen Bedürfnisse und einen unterschiedlichen Digitalisierungsgrad. Um diesen zu steigern, müssen die tatsächlichen Anforderungen sowie die Potenziale innerhalb eines Unternehmens identifiziert werden. Nur so lässt sich ein echter Mehrwert durch Daten generieren und der beste Weg zum Betrieb des idealen, intelligent vernetzten Arbeitsplatzes einschlagen.

Von essenzieller Bedeutung ist ein zielgerichteter, digitaler Transformationsprozess. Dieser stellt Betriebe meist vor große Herausforderungen. Die Geschwindigkeit von Unternehmensabläufen ist ein entscheidender Wettbewerbsfaktor, deshalb erhält das moderne Informationsmanagement einen besonderen Stellenwert. Strukturierte Geschäftsprozesse sowie eine sichere IT-Infrastruktur sind von grundlegender Bedeutung, um auf den heutigen Märkten wettbewerbsfähig zu bleiben.

Bei einer erfolgreichen Transformation unterstützen kompetente Partner, die alles aus einer Hand anbieten: von diversen IT-Lösungen über Smart Managed Services bis hin zu klassischen Drucklösungen, die sich einfach und unkompliziert integrieren lassen. Ideale Wegbegleiter sind moderne Multifunktionssysteme, die nicht nur Dokumente digitalisieren, sondern Menschen, Orte und Systeme vernetzen – egal ob beim Drucken, Scannen, Kopieren oder Digitalisieren von Unterlagen. Entsprechende Services lassen sich auf benutzerfreundlichen Plattformen individuell zusammenstellen und vereinfachen die tägliche Büroarbeit auf allen internetfähigen Geräten – vom Smartphone bis zum Laptop. Oberste Priorität haben dabei ausgereifte Sicherheitskonzepte für das Netzwerk und umfassende Sicherheitsfeatures bei den Multifunktionssystemen (MFP). Auch hier gibt es maßgeschneiderte Lösungen, die entsprechende Zugriffskontrollen und -rechte, Einstellungen für die MFP-Netzwerksicherheit sowie Aktivierung von Sicherheitsfunktionen für Festplatten und Hauptspeicher bieten.

Mehr Zeit für das Kerngeschäft

Cloud-Services wie Printing sowie das Management druck- und dokumentennaher Cloud-Prozesse beschleunigen tägliche Routineaufgaben und schaffen so mehr Zeit für das Kerngeschäft. Die Dienste sind so gestaltet, dass sie Unternehmen einen einfachen Weg von papier- zu cloudbasierten Prozessen bieten und damit auch die Richtung der Digitalisierung aufzeigen. Weitere wesentliche Anwendungen sind cloudbasierte Lösungen zur Zusammenarbeit, die die Synchronisierung von Dokumenten und den sicheren Datenaustausch managen. Mitarbeiter können damit ihre eigenen Arbeitsstrukturen erstellen und verwalten. Frühere Versionen von Dokumenten lassen sich unverändert festhalten und zuverlässig individuelle Eingaben als auch Beiträge speichern. Die Möglichkeit, Dateien und Dokumente zu kommentieren und automatisch Benachrichtigungen an Beteiligte zu senden, erhöht die Effizienz bei der gemeinsamen Arbeit an Dokumenten.

Der Mensch im Mittelpunkt

Arbeitsweisen wie Mobile Work und hybrides Arbeiten sind längst zur Normalität geworden. Mitarbeiter möchten auch in Zukunft die Wahl haben, wie, wann und ganz wesentlich von wo aus sie am besten arbeiten. Trotzdem werden Büros nicht gänzlich aussterben, denn kreative Teamarbeit wird auch in Zukunft im Büro stattfinden. Ein weiterer wichtiger Aspekt ist der zwischenmenschliche Austausch mit Kolleg:innen beim gemeinsamen Mittagessen oder der Kaffeepause, dies trägt erheblich zur Arbeitsatmosphäre bei. Damit künftig das Zusammenspiel von Mobile Work, hybridem Arbeiten und dem klassischen Büroalltag funktionieren kann, braucht es eine andere Führungskultur, die auf Vertrauen statt Kontrolle basiert. Die Gestaltung der hybriden Arbeitswelt wird künftig im Fokus stehen, denn der „New Way of Work“ stellt den Menschen wieder in den Mittelpunkt. Daher müssen Unternehmen sich bei der Implementierung neuer Technologien zukünftig auf das „Warum“ und nicht auf das „Wie“ fokussieren. Und dazu benötigt es entsprechende Büros, die zu Begegnungsstätten werden, in denen es Spaß macht, sich zu treffen und gemeinsam zu arbeiten.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Softwarerisiko ist ein unternehmerisches Risiko

Zeit für Führungskräfte jetzt aktiv zu werden

Es ist fast schon ein Gemeinplatz die Aussage, dass heute jedes Unternehmen ein Softwareunternehmen ist. Aber was genau ist damit gemeint? Ein Softwareunternehmen zu sein, bringt zunächst einmal beides mit sich – Chancen ebenso wie Risiken. Die Chancen liegen eindeutig in den potenziellen Wettbewerbsvorteilen.

Was die Risiken anbelangt, ist es nicht ganz so simpel. Das liegt nicht zuletzt daran, dass die Risiken oft nicht wirklich verstanden werden und, dass sie seitens der Führungsebene unzureichend gemanagt werden. In diesem Gespräch erläutert Jason Schmitt, was Unternehmens- und Technologie-Leader tun sollten, um ihr Unternehmen erfolgreich zu transformieren und gleichzeitig die Software-inhärenten Risiken in den Griff zu bekommen.

Herr Schmitt, wie verändert die digitale Transformation die Beziehung eines Unternehmen zu Software?

Unternehmen betreiben die digitale Transformation nicht um ihrer selbst willen. Sie ist Mittel zum Zweck, mit dem Unternehmen sich Wettbewerbsvorteile verschaffen wollen. Software fungiert dabei als Enabler. Das Ziel ist ja nicht, mehr digitale Assets zu schaffen. Vielmehr geht es darum, die Leistungsfähigkeit der Technologie im Sinne der Transformation zu nutzen. Entweder durch die Automatisierung aktueller Prozesse oder um die Kundenerfahrung/Customer Experience neu zu gestalten. Software eröffnet neue, unternehmerische Wege, aber sie birgt auch Risiken.

Welchen Softwarerisiken sind Unternehmen aktuell ausgesetzt? 

Es gibt eine ganze Reihe von Risiken, die mit Software verbunden sind. Dazu zählen eine mangelnde Softwarepflege grundsätzliche Sicherheitsbelange und die Zuverlässigkeit von Software.

Diese Risiken entstehen, weil Unternehmen dem Thema Sicherheit bei der Entwicklung, Beschaffung und dem Management ihrer geschäftskritischen Software noch immer keine Priorität einräumen.

Wir unterstützen Unternehmen dabei, Sicherheit deutlich früher in den Prozess einzubeziehen.

Jason Schmitt



Unser Interviewpartner

Jason Schmitt ist General Manager der Synopsys Software Integrity Group. In dieser Position kombiniert Schmitt sein Wissen im Bereich Sicherheit mit seiner Expertise bei der Bereitstellung von SaaS- und Cloud-basierten Lösungen. Sein Ziel ist es, die Art und Weise, wie Unternehmen Software entwickeln und bereitstellen, grundlegend zu verändern.

Es gilt, Firmen dabei zu unterstützen, Innovationen zu beschleunigen und gleichzeitig unternehmerische Risiken zu minimieren.


Es ist wichtig, Vertrauen darin zu schaffen, wie Ihre Software entwickelt, erstellt und getestet wurde – unabhängig davon, ob sie intern entwickelt oder von Dritten bezogen wurde. Denn sobald Sie eine Software einsetzen oder verwenden, tragen Sie auch das damit verbundene Risiko. Schwachstellen in einer Software können Kundendaten und geistiges Eigentum offenlegen. Das wiederum zieht finanzielle und rechtliche Risiken nach sich. Scheinbar harmlose Fehler oder Versäumnisse wachsen sich schnell zu einer existenziellen Bedrohung für ein Unternehmen aus. Versäumt man es, diesen Risiken den nötigen Stellenwert beizumessen, schädigt das in den weitaus meisten Fällen die Reputation. Aber es führt eben auch zu finanziellen und juristischen Konsequenzen.

Inwiefern trägt Open Source Software zu dieser problematischen Gemengelage bei?

Open Source ist nicht per se stärker risikobehaftet. Dennoch ist es hilfreich, an dieser Stelle über ausreichende Transparenz zu verfügen. Wo beispielsweise wurde die Software entwickelt? Von wem? Open Source hat in den letzten Jahren stark an Popularität gewonnen. Nicht zuletzt, weil sie die digitale Transformation unterstützt. Aber wenn Sie Software einsetzen und Sie zu einem wichtigen Bestandteil Ihres Unternehmens machen, wirft das Fragen auf. Fragen, wie genau diese Software entwickelt wurde, aber auch hinsichtlich der Qualität und Zuverlässigkeit. 

Was können Technologieführer tun, um ihre Software besser zu kontrollieren?

Das Wichtigste ist, die Risiken zu priorisieren. Wägen Sie ab, wie hoch der potenzielle Schaden sein könnte und was für Ihr Unternehmen noch innerhalb des Toleranzbereichs liegt.

Gehen Sie bei Ihren Überlegungen davon aus, was für den Betrieb des Unternehmens zwingend notwendig ist. Einige Risikosäulen wie Gesetze und Vorschriften sind nicht verhandelbar. Sie sollten also den Toleranz- und Gefährdungsbereich für Ihre Firma objektiv quantifizieren und qualifizieren. Eine risikobasierte Priorisierung ermöglicht es Ihnen, sich auf das Wesentliche zu konzentrieren. Dann wird Sicherheit auch nicht zu einem Hemmschuh für die Leistungsfähigkeit des Unternehmens.

Wie können Unternehmen das Problem entschärfen, ohne die Produktivität auszubremsen oder Innovationen zu hemmen? 

Die Unternehmensführung sollte sich auf die Geschäftsziele konzentrieren. Und die bestehen in erster Linie darin, Wettbewerbsvorteile zu entwickeln. Zunächst müssen Sie erkennen, dass Software-Risiken nie ein ausschließlich technologisches Problem sind. Sie sind immer auch ein unternehmerisches. Sie sollten sich jederzeit bewusst sein, dass Software die Integrität von Kundenbeziehungen gefährden und die Marktposition des Unternehmens kompromittieren kann.

Sie brauchen Prozesse, die sich mit den Risiken von Software befassen, und zwar sehr früh innerhalb dieses Lebenszyklus – sobald die Software im Unternehmen eingeführt wird. Dies gilt unabhängig davon, ob Sie die Software selbst entwickeln, sie von der Stange kaufen, sie aus einer Open-Source-Distribution herunterladen oder sie sogar auslagern und jemanden mit der Entwicklung beauftragen. Solche Probleme frühzeitig zu erkennen, ermöglicht es Unternehmen, schneller zu handeln und Innovationen voranzutreiben. Und daraus dann strategische Vorteile zu ziehen.

Was empfehlen Sie Ihren Kunden bei der Behebung von Softwarerisiken?

Die meisten Anbieter für Softwaresicherheit arbeiten reaktiv – also mit anderen Worten, wenn es bereits zu spät ist. Wir krempeln diese Vorgehensweise um und setzen auf einen ganzheitlicheren Ansatz. Dabei konzentrieren wir uns darauf, frühzeitig Vertrauen in die Software zu schaffen und aufrechtzuerhalten. Unternehmen sind dann nicht gezwungen, unter Druck zu reagieren, sondern können sich darauf konzentrieren, ihr Geschäft voranzutreiben. Führungskräfte sind dringend gehalten, Software als Business Asset zu betrachten, und zwar von der Entwicklung oder der Einführung im Unternehmen an.

Wir unterstützen Unternehmen dabei, Sicherheit deutlich früher in den Prozess einzubeziehen. Dazu wird sie bereits im Fundament einer Software und in den entsprechenden Entwicklungsprozessen verankert. Indem Sie eine systematische Methode zur Entwicklung Ihrer Software verwenden und weiterentwickeln, wird sie zu einem vertrauenswürdigen Asset. Statt zu Etwas, das per se verdächtig ist…

KI-basierte Hilfe bei der Umsetzung des Lieferkettengesetzes

Risiken in Lieferketten gewinnen nicht zuletzt durch das kürzlich in Deutschland verabschiedete Lieferkettengesetz zunehmend an Bedeutung. Die auf künstlicher Intelligenz basierende Lösung des österreichischen Startups Prewave ermöglicht es der BMW Group derartige Nachhaltigkeitsrisiken wie Umweltverschmutzung, Menschenrechtsverstöße oder Korruption bei tausenden direkten (Tier-1) und indirekten (Tier-n) Lieferanten frühzeitig zu erkennen. Die BMW Group hat ein klares Commitment zur Führungsposition in der Automobilbranche in Bezug auf Nachhaltigkeit abgegeben und dank der intelligenten Technologie des österreichischen Startups Prewave können nun lieferantenbezogene Risiken aus öffentlich zugänglichen Medien und sozialen Netzwerken in mehr als 50 Sprachen und aus über 150 Ländern in Echtzeit analysiert werden.  

Das Frühwarnsystem von Prewave unterstützt die BMW Group dabei die rechtlichen Voraussetzungen aus dem Lieferkettengesetz und auch internationale Standards im Nachhaltigkeitsmanagement (z.B: OECD Due Diligence Guidance, UN Global Compact, SDGs) einzuhalten bzw. in das Verhalten der Lieferanten einzugreifen oder gar präventive Maßnahmen zu setzen. Bereits in 2018 wurde die erste Kooperation mit Prewave über die BMW Startup Garage initiiert. Mit Februar 2022 geht das Projekt nun mit über 10.000 Lieferanten in den Regelbetrieb.

Harald Nitschinger ist CEO von Prewave. Dank der intelligenten Technologie des österreichischen Startups können für BMW nun lieferantenbezogene Risiken aus öffentlich zugänglichen Medien und sozialen Netzwerken in mehr als 50 Sprachen und aus über 150 Ländern in Echtzeit analysiert werden.

„Die umfangreiche Lieferkette der BMW Group mit tausenden, global verteilten Lieferanten transparent zu machen ist eine komplexe Herausforderung, der wir uns gerne gestellt haben. Dank Künstlicher Intelligenz und automatisierter Sprachverarbeitung ist es möglich Lieferkettenprobleme und Nachhaltigkeitsrisiken in Echtzeit sichtbar zu machen. Damit wird Transparenz über die gesamte Lieferkette hergestellt und ein Management der Risiken über die gesamte Lieferkette ermöglicht“, betont Harald Nitschinger, CEO Prewave.

Über Prewave ist es neben dem Nachhaltigkeitsaspekt auch möglich Warnungen zu kritischen Lieferanten und zu bestimmten Risikofaktoren wie beispielsweise zu Arbeiterunruhen, politischen Unsicherheiten, finanziellen oder rechtlichen Problemen bzw. den Auswirkungen der Pandemie zu erhalten. Je größer die Zahl der Geschäftsbeziehungen und je globaler verteilt die Lieferanten sind, desto komplexer ist die Überwachung der gesamten Lieferkette. Dank der Lösung von Prewave ist ein Echtzeitmonitoring und so ein frühzeitiges Erkennen bzw. Management von Risiken möglich. So können Lieferengpässe und Produktionsstopps verhindert werden.


Dies ist eine Presseinformation von https://www.prewave.com

„Wir müssen uns unserer Verantwortung stellen“

Die TREND-REPORT-Redaktion spracht mit Marcus Sultzer, Mitglied des Vorstands der EQS Group, zum Entwurf des Lieferkettengesetzes auf EU-Ebene. Marcus Sultzer gehört seit 2018 dem Vorstand der EQS Group AG an. Als Vorstandsmitglied ist er verantwortlich für die globalen Umsätze, Marketing sowie Produkte und Partnerschaften.

Herr Sultzer, inwiefern geht der aktuelle Entwurf des EU-Lieferkettengesetzes über das bereits existierende deutsche Pendant hinaus, das Anfang 2023 in Kraft tritt?
Die EU-Kommission setzt mit dem Entwurf ihrer Richtlinie zum Schutz der Umwelt-, Klima- und Menschenrechte deutlich strengere Maßstäbe als das deutsche Lieferkettengesetz. Das beginnt bereits damit, dass wesentlich mehr Unternehmen betroffen sind. Unter die EU-Regelungen fallen Unternehmen mit mindestens 500 bzw. bereits 250 Mitarbeitenden, wenn diese in einer Risikobranche wie etwa der Textilindustrie tätig sind. Das deutsche Gesetz greift dagegen im ersten Schritt erst bei Gesellschaften ab 3.000, ab 2024 dann ab 1.000 Beschäftigten. Aus unserer Sicht sind aber zwei andere Punkte noch viel bedeutender.

Auch für viele Bewerber und Bewerberinnen ist Nachhaltigkeit mittlerweile ein wichtiges Kriterium bei der Wahl des Arbeitgebers.

Marcus Sulzer

Welche sind das?
Während die Anforderungen des deutschen Gesetzes sich auf die direkten Zulieferer beschränken, verlangt die EU von den Unternehmen, die gesamte Wertschöpfungskette im Auge zu behalten. Dadurch wird die Prüfung natürlich erheblich komplexer. Wird hierbei die Sorgfaltspflicht verletzt, besteht zudem die Gefahr, auf Schadensersatz verklagt zu werden. Denn im EU-Entwurf ist eine Haftungsklausel enthalten, die in Deutschland am Widerstand der Wirtschaftsverbände scheiterte.

Marcus Sulzer: „Es ist höchste Zeit, dass wir alle unserer sozialen Verantwortung gerecht werden.“

Warum ist es auch für kleinere Unternehmen wichtig, die Vorgaben zu erfüllen?
Auch viele kleine Gesellschaften, die nicht unmittelbar unter die EU-Regelungen fallen, sind Glieder von Lieferketten, da sie Rohstoffe oder Vorprodukte liefern. Sie müssen daher davon ausgehen, dass ihre großen Kunden sie verpflichten werden, ihre Wertschöpfungsketten lückenlos zu dokumentieren – ansonsten drohen ihnen Wettbewerbsnachteile. Hierfür sollten frühzeitig die Weichen gestellt werden, denn es bedeutet einen großen organisatorischen Aufwand, über Ländergrenzen oder sogar Kontinente hinweg darzulegen, wie bei der Produktion beispielsweise der Schutz der Menschenrechte und die Einhaltung von Umweltstandards gewährleistet wird.

Was können Sie in dieser Hinsicht für Ihre Kunden leisten?
Hier bedarf es angesichts der vielfältigen Herausforderungen tatsächlich eines ganzheitlichen Ansatzes. Die zentrale Vorgabe des EU-Lieferkettengesetzes ist ein Beschwerdeverfahren. Diesen Prozess bilden wir mit unserem digitalen Hinweisgebersystem Integrity Line ab, das viele Vorteile bietet: Es wahrt die Vertraulichkeit und den Datenschutz, kann problemlos relevanten externen Personen zur Verfügung gestellt werden, und es ermöglicht die saubere Dokumentation der Vorgänge. Des Weiteren arbeiten wir daran, in unserem Compliance-Cockpit in Kürze auch für die übrigen Vorgaben der EU-Richtlinie effiziente Workflows bereitzustellen – im Fokus stehen dabei vor allem die Risikoanalyse und das Risikomanagement, die Geschäftspartnerprüfung sowie das Reporting und die damit verbundenen Pflichten.

Letztlich ist es aber nicht nur die Legislative, die derartige Entwicklungen antreibt. Auch immer mehr Investoren erwarten verantwortungsvolles Wirtschaften.
Das ist richtig, neben Kunden, Mitarbeitenden und Geschäftspartnern verlangen auch Investoren vermehrt ein klares Bekenntnis zu den relevanten ESG-Standards. Aber auch für viele Bewerber und Bewerberinnen ist Nachhaltigkeit mittlerweile ein wichtiges Kriterium bei der Wahl des Arbeitgebers. Der verantwortungsvolle Umgang mit Ressourcen oder die Einhaltung ethischer Grundsätze innerhalb der eigenen Lieferkette sollte deshalb transparent kommuniziert werden. Es wird für Unternehmen ohne eine klare Positionierung ansonsten immer schwerer, erfolgreich am Markt zu agieren.

Welche grundsätzlichen Ratschläge möchten Sie unseren Lesern daher mit auf den Weg geben?
Es ist höchste Zeit, dass wir alle unserer sozialen Verantwortung gerecht werden. In den Unternehmen sollte man sich daher, unabhängig von den zukünftigen regulatorischen Vorgaben, bereits jetzt fragen: Was ist unser gesellschaftlicher Beitrag? Wie unterstützen wir den Kampf gegen den Klimawandel? Und nicht zuletzt: Wie stellen wir die Einhaltung ethischer Standards in unserem geschäftlichen Alltag sicher? Es ist keine leichte Aufgabe, hier die internen Prozesse anzupassen oder umzustellen, aber es gibt dazu keine Alternative, denn verantwortungsvolles Handeln ist mittlerweile ein entscheidender Wettbewerbsfaktor.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Der digitale Arbeitsplatz als Assistent

Die zunehmende Digitalisierung des Arbeitsplatzes durch Automation, künstliche Intelligenz und Robotik ist unaufhaltsam. Marcus Peters von adesso zeigt den Status quo und wagt einen Blick in die Zukunft.

Der Arbeitsplatz im Wandel – das war schon immer so

Automation hat seit jeher den Arbeitsplatz im Fokus gehabt. Mehr Aufgaben in der gleichen Zeit zu erledigen ist ein bedeutender Erfolgsfaktor der Industrialisierung. Ein weiterer Aspekt hierbei ist die zunehmende Technisierung von Arbeit. In Kombination mit Automatisierung ist es möglich, Aufgaben durch Maschinen erledigen zu lassen, die der Mensch ohne Hilfsmittel nur schwer, mit hohem Risiko oder gar nicht durchführen kann.    

Die so erzielte Steigerung der Produktivität hat allerdings auch Auswirkungen auf uns als Gesellschaft. Wer einmal die Motorhaube eines aktuellen Autos öffnet, kann dies aus erster Hand erfahren. Kenntnisse aus der Mechanik eines Verbrennungsmotors reichen hier schon lange nicht mehr aus. Mechanik und Elektronik verschmolzen zunehmend, sodass der Kfz-Profi heute ohne elektronische Fachkenntnisse im Motorraum kaum mehr etwas reparieren könnte. In der Folge wurden die Berufe Kfz-Mechaniker, Kfz-Elektriker und Automobilmechaniker vor rund 20 Jahren im Kfz-Mechatroniker zusammengefasst.

Derartige Veränderungen von Berufsbildern bzw. das Schaffen von neuen Berufen mit starken Berührungspunkten zur digitalen Welt prägen die Gegenwart. Bleibt man gedanklich bei dem Beispiel „Auto“, so kommt dann noch hinzu, dass eine Reihe von Sensoren im Auto Daten über das Fahrverhalten sammeln, mit denen die Autohersteller den Sprung in die digitale Welt und digitale Geschäftsmodelle wagen (vgl. [1]). Auch ohne die stark automatisierte Produktion selbst zu betrachten, ist die Digitalisierung von Arbeit und Arbeitsplätzen hier klar spürbar.

Die Beispiele oben zeigen: Mit steigender Komplexität der Verflechtung der physikalischen und der digitalen Welt steigen auch die Anforderungen an Arbeitnehmer am Arbeitsplatz kontinuierlich an. Hierdurch steigt allerdings auch die Menge der zu verarbeitenden Informationen für die Mitarbeitenden an. Um diese Flut an Informationen zu beherrschen, ist eine weitere Stufe der Automatisierung nötig. In dieser Stufe werden kognitive Fähigkeiten von Automaten übernommen.

Was kann Künstliche Intelligenz bereits heute?

Künstliche Intelligenz (KI) ist ein Schlüsselfaktor zur weiteren Automatisierung am Arbeitsplatz. Hierdurch ist es möglich, kognitive Fähigkeiten – ähnlich denen des Menschen – in Arbeitsprozessen zu automatisieren. Daraus ergeben sich großartige Möglichkeiten, Arbeit zu skalieren. Ein plakatives Beispiel ist die optische Qualitätskontrolle etwa in der Produktion.

Wenn eine Maschine beispielsweise Schweißarbeiten verrichten kann, ist der Vorgang „Schweißen“ praktisch nur noch durch die Anzahl an Maschinen und die Zeit der Qualitätskontrolle limitiert. Eine automatische optische Qualitätskontrolle, in der eine Software auf der Basis von Bildern aus einer Kamera fehlerhafte Teile erkennen kann, lässt leicht erahnen, dass hier eine immense Produktivitätssteigerung möglich ist.

Heutige Verfahren zur Bilderkennung können verschiedene Objekte wie Personen, Gesichter, Gesten oder Fahrzeuge erkennen. Sogar das Einschätzen des emotionalen Zustandes der erkannten Person ist mit den aktuellen Technologien produktionsreif umsetzbar.

Abbildung 1 Erkennen von Objekten in Bildern

Abbildung 1 Erkennen von Objekten in Bildern

Abbildung 2 Informationsextraktion einer Straßenlandschaft

Darüber hinaus können Anwendungen aus Bildern weitere Informationen gewinnen. Abbildung 1 zeigt beispielhaft das Erkennen von Fahrzeugen mithilfe von KI-Verfahren. Zusätzlich werden mit aktuellen Werkzeugen zur Informationsextraktion aus Bildern Zuordnungen zu Objekt- und Bildszenenklassen entnommen. Für das oben untersuchte Bild wurde vom System mit rund 93-prozentiger Sicherheit erkannt, dass es aus einem fahrenden Auto in Chinatown geschossen wurde (Siehe Abbildung 2).

Auch das Verstehen von Texten und Sprache ist eine grundlegende kognitive Fähigkeit des Menschen. Die Informationsweitergabe mittels Schrift und Sprache ist seit jeher eine wichtige Fähigkeit, um Informationen zu speichern und weiterzuverarbeiten. Die Automation der Verarbeitung von Texten und Sprache über eine Maschine wird großen Einfluss auf die Arbeitswelt haben.

Spätestens mit der Präsenz von Assistenzsystemen wie Siri oder Alexa sind die KI-Fähigkeiten, das gesprochene Wort zu verstehen beziehungsweise Texte vorzulesen, im Bewusstsein der Öffentlichkeit angekommen.

Das Erkennen der Textsprache beziehungsweise das Übersetzen von Texten ist inzwischen für nahezu alle in der Geschäftswelt typischen Sprachen möglich. Des Weiteren erkennen Anwendungen Entitäten wie bekannte Orte, Personen oder Unternehmen. Darüber hinaus ermitteln sie Schlüsselsätze eines Textes. Das Einschätzen der Stimmung des Autors runden die Fähigkeiten automatisierten Textverstehens ab.

Derartige Systeme eröffnen in sprach- oder dokumentenzentrierten Prozessen Automatisierungspotenziale, da Unternehmen ohne menschliches Zutun auf die Inhalte von Texten, deren Sprache oder die geschätzte Stimmung des Autors reagieren können. Ein Anwendungsfall ist das Anstoßen von Kundenbindungsmaßnahmen, sobald die Anwendung erkennt, dass sich Kunden in den sozialen Netzwerken negativ über Produkte oder die Marke äußern.

Mit den genannten Fertigkeiten Hören, Sehen und Textverstehen ausgestattet, können KI-basierte Systeme schon heute wichtige Aufgaben übernehmen.

Blick in die Zukunft

Während einige Unternehmen noch die allgegenwärtige Präsenz des Internets in Produktion und Verwaltung mit dem Sammelbegriff Industrie 4.0 verarbeiten, wird die weitere Stufe der Industrialisierung bereits vorgedacht wie Abbildung 3 zeigt. In starkes Merkmal von Industrie 5.0 wird die Zusammenarbeit mit KI-gestützten System sein. Hier arbeiten Mensch und Maschine „Hand in Hand“ und erledigen gemeinsam Aufgaben.

Abbildung 3 Industrie 5.0, Quelle [3]

Abbildung 3 Industrie 5.0, Quelle [3]

Einen Vorgeschmack der Möglichkeiten zeigt eine Demo von Google in der ein KI gestütztes System bei einem Friseur anruft und einen Termin für einen Haarschnitt abstimmt (vgl. [5]). In diesem Beispiel haben die Ingenieure des Unternehmens sogar die für Menschen typischen „äähhhs“ und weitere Füllausdrücke eingebaut. Wer sich die Zeit nimmt, das Beispiel anzuschauen, kann hier sehr schnell weitere mächtige Anwendungsfälle im Unternehmenskontext erkennen. Dreht man das obige Beispiel um und setzt die KI an die Stelle eines Call-Center-Agenten wird der Produktivitätsgewinn riesig.

Ein weiterer Bereich für digitale Assistenten steckt im Metaverse. Aktuell noch in den Kinderschuhen zeigen jedoch die Umbenennung von Facebook in „Meta“ sowie die Investments von Amazon und Microsoft, dass dort einiges zu erwarten ist.

Microsoft hat im November eine Lösung für Remote-Work vorgestellt, die 2022 eingeführt wird: Mesh für Microsoft Teams. Die Funktion kombiniert die Mixed-Reality-Funktionen mit den Produktivitätstools von Microsoft Teams, wo Menschen an virtuellen Meetings teilnehmen, Chats senden, an gemeinsamen Dokumenten zusammenarbeiten und mehr.

Abbildung 4 Meeting im Metaverse, Quelle [6]

Das Beispiel in Abbildung 4 zeigt eine Meeting-Situation eines Gespräches, in der das Gespräch in Echtzeit in die jeweilige Sprache der Teilnehmer übersetzt wird. Hier sind für die Zukunft weitere Entwicklungen für den digitalen Arbeitsplatz zu erwarten, um die typischen Berührungspunkte mit dem Unternehmen für Mitarbeiter in der virtuellen Welt noch haptischer zu gestalten.

Wie weit das gehen kann, zeigt eine aktuelle Meldung der Burger-Kette „McDonald‘s“, die sich jüngst Markennamen für Restaurants im Metaverse und die Lieferung nach Hause gesichert haben [7]. Damit ist ein gemeinsamer Arbeitsplatz von Mitarbeitern und Bots im Metaverse keine allzu große Zukunftsmusik mehr.

Fazit

Was automatisiert werden kann, wird automatisiert werden. Dieser Satz hat weiterhin Gültigkeit. Unternehmen sind gut beraten, technologische Entwicklungen im Auge zu behalten. Die Digitalisierung ist kein Endzustand, sondern ein Weg, auf dem die Unternehmen sich immer wieder neu erfinden müssen, um am Kunden zu bleiben. Auch für die Mitarbeitenden ist Weiterentwicklung wichtig. Nur so gelingt es mit den immer neuen Technologien am Arbeitsplatz Schritt zu halten.

Über den Autor

Marcus Peters ist seit rund 30 Jahren in verschiedenen Rollen in der IT-Branche unterwegs. Bei der adesso SE sorgt er als Senior Business Development Manager dafür, dass Kunden für ihre IT-Strategie passende Lösungen auf der Basis von Microsoft Technologien bekommen. 


Quellennachweise

  • ADAC, 03.02.2022, “Spion im Auto: Diese Daten werden gespeichert”, https://www.adac.de/rund-ums-fahrzeug/ausstattung-technik-zubehoer/assistenzsysteme/daten-modernes-auto/
  • Marcus Peters in Gruhn, von Hayn, 2020, „KI verändert die Spielregeln“, Hansa Verlag
  • Industrie 4.0; wikipedia; https://de.wikipedia.org/wiki/Industrie_4.0
  • Industrie 5.0; European Commission, Directorate-General for Research and Innovation, Industry 5.0: human-centric, sustainable and resilient, Publications Office, 2021, https://data.europa.eu/doi/10.2777/073781
  • Google Duplex: A.I. Assistant Calls Local Businesses To Make Appointments; Mai 2018; https://www.youtube.com/watch?v=D5VN56jQMWM
  • Microsoft; Mesh for Microsoft Teams aims to make collaboration in the ‘metaverse’ personal and fun; https://news.microsoft.com/innovation-stories/mesh-for-microsoft-teams/
  • Business Insider; “McDonald’s has filed a trademark for a restaurant in the metaverse that will actually deliver food to your home”; https://www.businessinsider.com/mcdonalds-metaverse-virtual-online-restaurant-trademark-delivers-food-web3-nft-2022-2

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Bildquelle / Lizenz Aufmacher: Mit freundlicher Genehmigung adesso SE

Hybrides Arbeiten bleibt uns erhalten

Scott Wilson, Vizepräsident Internationaler, Sales & Service von eFax beschreibt seine Einschätzung über die Ausgestaltung der Arbeitswelt.

Die Covid-19-Pandemie hat dazu geführt, dass Arbeitnehmer in Großbritannien und Europa, die zuvor in Büros gearbeitet hatten, in den letzten 18 Monaten gezwungen waren, stattdessen von zu Hause aus zu arbeiten. Diese enorme Umstellung auf Fernarbeit war in ihrer Schnelligkeit und in ihrem Umfang beispiellos. Möglich wurde dies durch Technologien wie High-Speed-Breitband zu Hause, Mobiltelefone, Videokonferenzen und Online-Faxdienste, die zusammen die Fähigkeiten des Büros reproduzierten.

Aber die Lockerung der Gesundheitsmaßnahmen bedeutet, dass Unternehmen nun eine Wahl haben. Die Prozesse, die sie ursprünglich als Reaktion auf den Lockdown eingeführt hatten, haben nichts von ihrer Effektivität verloren. Sie ermöglichen es Mitarbeitern weiterhin, aus der Ferne zu arbeiten, ohne ins Büro kommen zu müssen.


Einige Unternehmen sind ganz zufrieden damit, dass die Mitarbeiter weiterhin laufend von zu Hause aus arbeiten können. Andere wiederum möchten gerne, dass ihre Mitarbeiter so schnell wie möglich an den Arbeitsplatz zurückkehren. In Bezug auf das Niveau flexibler Arbeitsvereinbarungen und dem Angebot an die Mitarbeiter sind die Unternehmen gespalten:

  • Die britische Baugesellschaft Nationwide ermöglicht es 13.000 Büroangestellten, im Rahmen ihres neuen Flexibilitätsprogramms „Work Anywhere“ selbst zu entscheiden, wo sie arbeiten wollen.
  • Die Supermarktgruppe Asda hat angekündigt, dass sie Hybridarbeit an ihren Hauptsitzen in Leeds und Leicester dauerhaft einführen wird, sobald die Covid-Beschränkungen aufgehoben werden, sodass die Mitarbeiter wählen können, wo sie arbeiten.
  • Im Juni sagte der CEO des professionellen Dienstleistungsanbieters Deloitte, dass die Mitarbeiter des Unternehmens für eine bestimmte Anzahl von Tagen oder an bestimmten Standorten nicht mehr im Büro sein müssen.
  • Zugleich beharren die Konkurrenzfirmen KPMG, EY und PwC darauf, dass die Mitarbeiter noch mindestens zwei bis drei Tage pro Woche ins Büro kommen. 
  • Die Investmentbank Goldman Sachs hat erklärt, dass nach Ende der Beschränkungen alle Mitarbeiter ins Büro zurückkehren und vollständig von dort aus arbeiten.

eFax führte Umfragen durch, in denen IT-Führungskräfte in Großbritannien nach dem hybriden Belegschaftsmodell befragt wurden. Dabei erklärten mehr als drei Viertel (76 %) der britischen IT-Entscheidungsträger, dass ihre Unternehmen den Übergang zu einer hybriden Belegschaft früher (also vor der Pandemie) hätten angehen können, wenn sie sich der Vor- und Nachteile des Übergangs zu einem hybriden Arbeitsmodell bereits vor der Pandemie bewusst gewesen wären.

Da viele Mitarbeiter nun an die Flexibilität gewöhnt sind, von zu Hause aus zu arbeiten, und viele Arbeitgeber es jetzt ständig anbieten, riskieren Unternehmen, die diese Flexibilität nicht ermöglichen, sich von ihren bestehenden Mitarbeitern zu entfremden und für potenzielle neue Mitarbeiter weniger attraktiv zu werden.


eFax hat festgestellt, dass mehr als die Hälfte aller britischen IT-Entscheidungsträger (51 %) der Ansicht sind, dass die Unfähigkeit, Talente anzuziehen und zu binden oder dem Familienleben gerecht zu werden, große Risiken darstellen, wenn das Unternehmen kein hybrides Arbeiten ermöglicht (was immerhin über ein Drittel, also 38 %, glauben). Ein weiteres Drittel (34 %) glaubt, dass eine solche Entscheidung dazu führen würde, dass sich die Mitarbeiter von ihrem Arbeitgeber distanziert fühlen.

Neue Technologien und hybrides Arbeiten haben es Unternehmen und ihren Mitarbeitern ermöglicht, die Pandemie zu überstehen und sich neu zu positionieren. Die Konzepte des hybriden Arbeitens und der Heimarbeit sind heute viel mehr Arbeitnehmern bekannt als vor der Pandemie. Die Befürworter der Heimarbeit sagen, dass sie ihre persönliche Produktivität verbessert und ihnen eine bessere Work-Life-Balance ohne den Aufwand eines zeitaufwändigen täglichen Pendelns ermöglicht.

Andere beschweren sich jedoch, dass Heimarbeit das genaue Gegenteil bedeutet, da sie nun länger arbeiten als vor dem Lockdown. Sie möchten, dass ihr Arbeitsumfeld und ihr häusliches Umfeld getrennt bleiben. Sie vermissen auch die Möglichkeit, persönlich mit Kollegen zu interagieren, neue Ideen zu diskutieren oder um Hilfe oder Rat zu bitten.

Aus diesen Gründen möchten viele Mitarbeiter immer noch ins Büro zurückkehren. Aber die Möglichkeit, aus der Ferne zu arbeiten, ist jetzt eine attraktive Option für diejenigen, die dies wünschen.

Hybrides Arbeiten wird uns erhalten bleiben, und zukunftsorientierte Unternehmen mit Interesse einer Bindung von Mitarbeitern und der Gewinnung neuer Talente werden es als integralen Bestandteil ihrer Praktiken und Prozesse nutzen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

KI: Anforderungen an Mitarbeiter

Künstliche Intelligenz ist ein Thema welches in seiner Wichtigkeit immer weiter in aktuelle Gesellschaft zunimmt. Der Mensch wird zunehmend von Intelligenten Systemen unterstützt: egal ob bei der Auswertung von Daten, beim Autofahren oder bei der Nutzung von Medien. Dr. Knut Linke hat untersucht, welche Anforderungen KI an die Mitarbeiter stellt – anhand der DQR-Level des deutschen QualifikationsRahmen.

KI unterstützt den Menschen, nimmt ihm Arbeit und auch Entscheidungen ab. Diese Form der Digitalisierung setzt sich in ihren Ausprägungen zunehmend durch und damit auch die Entscheidung von und durch Computer. KI hat mannigfaltige Einsatzmöglichkeiten, die einem teilweise gar nicht bewusst sind – ob als Chat-Bot, bei der Personalauswahl, bei der Produktentwicklung, der Medienerkennung oder bei der vorausschauenden Instandhaltung. Alles kann mit KI unterstützt und realisiert werden.

KI muss und wird von IT-Fachkräften entwickelt und standardisiert. Je nach Art der KI muss entschieden werden, ob die KI Supervised (Lösung vorgeben – während des Trainings gebe ich Informationen mit), semi-supervised (ich unterstützte teilweise) oder unsupervised (ich gebe z. B. nur Bilder, Netz lernt selber) arbeiten und sich entwickeln soll. Im Allgemeinen müssen IT-Fachkräfte im Bereich der KI auch besonderen technischen Herausforderungen begegnen, wie der Evaluation von Informationen. Sie müssen festlegen, welche Daten geeignet sind und auch ob die Daten, welche verarbeitet werden, real sind. Sie brauchen im allgemeinen Kenntnisse der höheren Mathematik (lineare Algebra und Statistik) und sollten wissen, wie GPU/HPC (on premised / Cloud) zur Integration in den die KI-Berechnungen integriert werden können. Dieses sind durchaus spezielle Anforderungen, wo normale Menschen nur „Bahnhof“ verstehen.

Die IT-Fachkräfte müssen für Ihre Arbeit im Bereich der KI zudem über besondere Kenntnisse und Fähigkeiten verfügen. Im Folgenden werden diese Anforderungen an Arbeitnehmer dargestellt. Die im folgenden Dargestellten Anforderungen orientieren sich an den sogenannten DQR-Leveln des Deutschen QualifikationsRahmen (DQR). Der Level 5 entspricht hierbei Personen mit einer Berufsausbildung und Berufserfahrung, der Level 6 entspricht Personen mit einem Bachelorabschluss und der Level 7 steht für Mitarbeiter mit einem Masterabschluss. Die Anforderungen wurden im Rahmen von verschiedenen Untersuchungen, wie z. B. qualitativen Interviews mit Fachspezialisten, erhoben und untersucht.

Für die verschiedenen Level konnten folgende IT-Tätigkeiten und Kompetenzanforderungen für die Arbeit im Feld der künstlichen Intelligenz definiert werden:

  • DQR 5: Grundlagen der Programmierung und des Scripting sowie grundlegendes Verständnis im Bereich der Logik und der Mathematik, Übernahmen der Datenaufnahmen sowie Bereitstellung von Auswertung und Ergebnissen und der Betreuung von Frameworks.
  • DQR 6: Erfahrung in den Problematiken zwischen den Wechseln von methodischen Ansätzen und des Software-Designs (Kombination von Erweiterungen), Scripting und OOP. Bewertung von gelernten Ergebnissen sowie Grundlagen von Spezialbereichen und der höheren Mathematik.
  • DQR 7: Strategische Transformation in das Produktivsystem und strategische Bewertung von Ergebnissen zur Senkung der Fehlerwahrscheinlichkeit und zur Zielerreichung sowie evolutionäre Anpassung der IT-Architektur und der Algorithmen unter Anwendung von naturwissenschaftlichen Kenntnissen der Mathematik.

Zusammenfassend zeigt sich, dass für den Bereich der KI, neben den normalen Kenntnisse im Bereich der Anwendungsentwicklung in der IT, sehr tiefgehende Kenntnisse im Bereich Logik und Mathematik vorhanden sein müssen. Hierbei geht es im Kern nicht darum, diese Kenntnisse in Programme zu transferieren, sondern diese Kenntnisse sind notwendig, um Programme zu verstehen, beziehungsweise zu verstehen wie Computer Intelligenz künstlich realisieren und umsetzen.
Es ist an dieser Stelle auch darauf hinzuweisen, dass die untersuchten Teilnehmer vor allem aus dem Bereich des DQR-Levels 7 stammen und es sehr herausfordernd gewesen ist, Anforderungen für einen Einstieg in das Thema auf dem DQR-Level 5 zu ermöglichen.

Neben den IT-technischen Herausforderungen sollte man auch nicht die kaufmännischen Anforderungen an Arbeitnehmer im Bereich der KI unterschätzen.

Personen in diesem Bereich müssen über weitreichende und auch interdisziplinäre Kenntnisse verfügen. Diese Kenntnisse sollten u. a. das Erstellen von Business Cases und das Data Storytelling (z. B. Alexa, Spotify) beinhalten, sowie der Umgang mit ethischen und gesellschaftlichen Fragestellungen (EthicalAI). Hier muss entschieden werden, welche Rahmenbedingungen sollen und dürfen trainiert werden: wie weit darf KI (Datenaggregation) gehen und wo beginnt der Datenschutz? Dieses ist z. B. notwendig, um Diskrimination (Klassifikation) als Teil der KI zu vermeiden und Diagnosesysteme für alle Ethnien zu ermöglichen. Hierfür müssen Fachkräfte im Bereich der KI auch im Umgang mit Nutzungsrechten und der richtigen Organisation von Trainingssets (Standard- und Individualdaten) befähigt sein. Ebenfalls muss überlegt werden, wie experimentelle KI standardisiert werden kann, um in Produktionssystemen aktiviert und genutzt werden zu können.

Wie diese Ergebnisse zeigen, ist die Arbeit mit und im Bereich der KI nicht nur auf den Bereich der IT begrenzt. Sie erfordert auch Kenntnisse außerhalb der IT und insbesondere eine hohe Qualifikation der Arbeitnehmer. Es wird sich in naher Zukunft zeigen, wie der Fachkräftebedarf im Bereich der KI mittel- und langfristig bedient werden kann.

Über den Autor:

Dr. Knut Linke | linke.digital forscht seit 2014 im Bereich der digitalen Wertschöpfung und agiler Arbeitsorganisation und ist seit 2005 beruflich Feld der digitalen Wertschöpfung tätig. Aktuell lehrt Herr Dr. Linke u. a. als Professor für den Bereich eCommerce und agiles Lernen an der Erasmus Hochschule in Basel sowie an verschiedenen Institutionen im Bereich Social Media, Softwareentwicklung und Internettechnologien. Beruflich begleitet er als Freiberufler Gründungsvorhaben und existierende Organisationen bei der Umsetzung von digitaler Wertschöpfung sowie bei der Arbeitsorganisation sowie der Arbeitsreorganisation. Seit 2022 ist er vom Bundesinstitut für Berufsbildung im Rahmen des Neuordnungsverfahren der IT-Fortbildungsverordnung als Bundessachverständiger berufen worden.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Klimaschutz und Nachhaltigkeit unter neuen Bedingungen

Russlands Krieg gegen die Ukraine hat die Mehrheit der Staatengemeinschaft, allen voran die westlichen Länder, dazu gebracht, gemeinsam und entschlossen zu handeln. Die dabei vereinbarten wirtschaftlichen Sanktionen sind umfassend und betreffen eine Vielzahl an Branchen und Industrien. Und auch bei uns machen sich die Maßnahmen bemerkbar. Viele Unternehmen sehen sich jetzt mehr denn je gezwungen, ihre bisherigen wirtschaftlichen Strukturen, wie Lieferbeziehungen, Rohstoffimporte oder Finanzströme neu zu definieren – und vor allem krisensicherer und zukunftsfähiger zu gestalten.

Am Klimaschutz führt aber kein Weg mehr vorbei ­– auch in Kriegszeiten.  Das wissen Alice Berger und Anita Merzbacher vom Nachhaltigkeitsnetzwerk UNO INO und Moritz Lehmkuhl von ClimatePartner aus ihrem langjährigen Engagement in den Bereichen Klimaschutz und nachhaltigem Wirtschaften. Im folgenden Interview verraten sie, wie Unternehmen angesichts der aktuellen humanitären, politischen und wirtschaftlichen Krise den Wandel nachhaltig und zukunftsweisend einläuten können.

Die neue politische Weltlage bringt große Veränderungen auch für die Wirtschaft und Gesellschaft. Ist dies ein Vorzeichen für den Handlungsdruck, der durch den Klimawandel auf uns zukommt?

Anita Merzbacher: Der Krieg in der Ukraine ist wie ein Brennglas: Er verschärft die Situation und verkürzt die Zeit, die Unternehmen zur Verfügung haben, um sich nachhaltig aufzustellen. Denn gestiegene Energiekosten, unsichere Lieferketten, instabile politische Lagen usw. führen zu enormen Herausforderungen. Die Risiken für Unternehmen, die eine „Weiter so“-Mentalität an den Tag legen und ihre Geschäftsmodelle aus der Vergangenheit fortführen wollen, erhöhen sich mit jedem Tag in einer neuen geopolitischen Ordnung. Für Unternehmen, die mutig neue Wege gehen, die nicht an alten betriebswirtschaftlichen Glaubenssätzen festhalten und bereit sind, ihr gesamtes Unternehmenssystem nachhaltig auszurichten, können sich dagegen die unternehmerischen Chancen verbessern.

Wie lässt sich verhindern, dass die Bedeutung von Klimaschutz und eine an Nachhaltigkeit orientierte Wirtschaft in den Hintergrund treten?

Alice Berger: Wir müssen alle aktuellen Geschehnisse als zusammenhängend betrachten, ganz im Sinne eines umfassenden Nachhaltigkeitsverständnisses. Denn ohne eine weitreichende und schnelle Transformation hin zu einer nachhaltigen Entwicklung, stehen die nächsten Kriege und Fluchtbewegungen durch Klimakrisen, Hunger und Armut vor der Tür. Die 17 Nachhaltigkeitsziele der Vereinten Nationen (UN SDGs) stellen das in einem kreisförmigen Logo ganz anschaulich dar: Jedes Ziel – von „Keine Armut“ über „Weniger Ungleichheiten“ und „Maßnahmen zum Klimaschutz“ bis hin zu „Frieden, Gerechtigkeit und starke Institutionen“ – bedingt die anderen. Keines steht für sich allein. Wir sollten anfangen, diese Ganzheitlichkeit zu verstehen und zu leben. 

Unternehmen sind derzeit damit beschäftigt, ein komplexes Geflecht von Warenproduktion und Logistik aufrecht zu erhalten. Worauf kommt es nun dabei an?

Moritz Lehmkuhl: Obwohl es mir angesichts des so großen menschlichen Leids schwer fällt, es so auszudrücken – genau jetzt müssen wir die Gelegenheit nutzen, erzwungene Veränderungen in Impulse zum positiven Wandel umzukehren. Wir sind jetzt bereit, Einschnitte als Chance zur Verbesserung zu akzeptieren, uns mit der Verarbeitung von Neuem, Unbekannten zu beschäftigen. Das betrifft nicht nur den Ausstieg aus fossilen Energieträgern wie Öl, Gas oder Kohle, sondern grundsätzlich alle bisherigen Gewissheiten, die scheinbar unveränderbar waren. Wir erleben gerade, dass sich in atemberaubender Geschwindigkeit eine neue Realität einstellt, in der sich einseitige Abhängigkeiten als wirtschaftlicher und politischer Unsicherheitsfaktor zeigen.

Was wären hierfür konkrete Lösungsansätze?

Moritz Lehmkuhl: Es steht grundsätzlich fest, dass die Abhängigkeit von fossiler Energie wie Öl und Gas beendet werden muss. Es wird zum Beispiel im Energiesektor nun darum gehen, gezielt auf den Ausbau erneuerbarer Energien zu setzen. Das ist nicht nur eine Aufgabe des Staates, sondern kann auch durch Unternehmen gefördert und beschleunigt werden – zum Beispiel durch den Umstieg auf Ökostrom, die Nutzung von Solar- oder thermischer Energie und durch allgemeine Maßnahmen zur Energieeinsparung und Energieeffizienz. Auf der anderen Seite gilt aber auch: Wenn ich von heute auf Morgen auf alle Gasimporte aus Russland verzichte, dafür temporär auf Atomkraft setzen muss und damit den Krieg beenden könnte, würde ich es möglicherweise tun.

Kann die aktuelle Handlungsbereitschaft, die viele Unternehmen angesichts des Krieges zeigen, auch für mehr Klimaschutz genutzt werden?

Alice Berger: Dies sehen wir ganz deutlich. Eine Mehrheit in Deutschland ist für ein sofortiges Embargo fossiler Energien aus Russland, um unsere Wirksamkeit für den Frieden zu erhöhen. Auch die Wissenschaft bestätigt, dass ein sofortiger Ausstieg möglich wäre. Würde dies umgesetzt, wäre es zugleich ein gewaltiger Effekt für den Klimaschutz.

Moritz Lehmkuhl: Dem  kann ich nur zustimmen. Allein der Umstieg in der Energieversorgung kann einen enormen Effekt auf den Emissionsausstoß von Unternehmen haben. Viele sind nun bereit – egal ob durch die Umstände gezwungen oder aus eigener Überzeugung – grundlegende Veränderungen zuzulassen. Sie sollten nun in jedem neuen Prozess und bei jeder neuen Entscheidung den Klimaschutz gleich mitdenken.

Krisenfestigkeit und Anpassungsfähigkeit sind weitere Schlagworte, die Unternehmen jetzt hören. Wie können sie diese Punkte bei sich berücksichtigen?

Anita Merzbacher: Ein wesentlicher Punkt hin zu mehr Krisenfestigkeit ist, die aktuelle Situation mit all ihren Schwierigkeiten zu analysieren und zu verstehen, z.B. mit Hilfe einer Sustainable SWOT-Analyse: Wo sind Nachhaltigkeits-Risiken, wo liegen Chancen, wo sind Schwächen und was läuft schon gut? Dieser kurze Blick auf den Status Quo ist einfach, wird aber in vielen Unternehmen, gerade bezogen auf Nachhaltigkeitsaspekte, aktuell noch nicht gemacht. Darauf aufbauend gilt es dann, die eigene Unternehmensstrategie nachhaltig auszurichten. Idealerweise führt das auch zu einem positiven Impact auf die Gesellschaft. Die Resilienz im Sinne von Krisenfestigkeit steigt dann im Unternehmen an, wenn Nachhaltigkeit immer mehr zum Wesenskern wird, d.h. zur DNA des Unternehmens gehört.

Sind langfristige Strategieziele schnell genug, um den sich bereits zeigenden Klimawandel zu begrenzen?

Moritz Lehmkuhl: Alle Möglichkeiten, Emissionen in den Griff zu bekommen und die Erderwärmung zu begrenzen, müssen ausgeschöpft werden. Wenn dies sogar noch in Kombination mit Entwicklungsarbeit, Know-how-Transfer und ganzheitlicher Nachhaltigkeit geschieht, umso besser. Bei allen Transformationsstrategien, die in der Regel mittel- bis langfristig angelegt sind, kommt es weiterhin darauf an, auch solche Maßnahmen anzugehen, die sofort wirksam sind. Die Berechnung, die Reduktion und der Ausgleich von Emissionen ist dabei eine wichtige Methode. Aus ihr heraus ergeben sich entscheidende Impulse und Hinweise darauf, in welche Richtung mittel- und langfristige Reduktions- und Vermeidungsstrategien gehen sollten. Sie macht die Emissionstreiber ebenso sichtbar wie die Wirksamkeit von Maßnahmen zur Reduktion und Vermeidung. Auch der aktuelle IPCC-Bericht von Ende Februar spricht explizit an, dass die Dimensionen der drohenden Klimaveränderungen und die geringe verfügbare Zeitspanne von weniger als zehn Jahren es sogar zwingend erfordern, verstärkt kurzfristig wirksame Maßnahmen anzugehen.

Mit welcher Hoffnung blicken Sie in die Zukunft?

Alice Berger:Das gemeinsame Verständnis von Klimaschutz und Nachhaltigkeit ist es, die Lebensbedingungen weltweit zu sichern und zu verbessern. Dieses Verständnis gilt es aufrecht zu erhalten, denn Nachhaltigkeit ist stets auch Friedenssicherung.

Moritz Lehmkuhl: Die derzeitige Einigkeit in Wirtschaft, Gesellschaft und Politik zeigt, dass auf ähnliche Weise ein globales Handeln für mehr Nachhaltigkeit und Klimaschutz möglich ist, wenn wir es nur wollen.

Weitere Informationen zur Position von UNO INO sind hier verfügbar: https://unoino.de/welt-in-der-krise/

Veröffentlichung mit freundlicher Genehmigung von ClimatePartner (zum Original-Text)

Erfolgsfaktoren langfristiger Kundenbeziehungen

Adobe-Studie:

Personalisierte Erlebnisse stärken Kundenvertrauen 

„Zum Aufbau von Vertrauen gehören ein verantwortungsvoller Umgang mit Daten sowie relevante und personalisierte Erlebnisse“, verdeutlicht Thomas Barta, Global Marketing Leadership Experte und einer der Studienautoren.

Die Studie belegt die entscheidende Rolle von Vertrauen beim Aufbau erfolgreicher, langfristiger Beziehungen mit Kund*innen in der digitalen Wirtschaft. Der Adobe Trust Report unterstreicht die dringende Notwendigkeit für Marken, ihre digitalen Erlebnisse zu verbessern und Daten der Verbraucher*innen verantwortungsvoll zu nutzen, um das Geschäftswachstum zu fördern.

Basierend auf den Antworten von über 1.000 Verbraucher*innen und 200 Führungskräften in Deutschland richtet der Bericht einen Appell an Marken jeder Art und Größe: Vertrauen ist eine geschäftliche Anforderung, die an der Spitze des Unternehmens Priorität haben muss.

Der Umsatz in der digitalen Wirtschaft beträgt inzwischen weltweit über 4 Billionen US-Dollar. In dem wichtigen Markt ist Vertrauen die Grundlage eines jeden erfolgreichen Unternehmens und die Erwartungen der Verbraucher*innen sind heute höher denn je.

Mit neuen Verhaltensmustern und einer Vielzahl von Berührungspunkten sehen sich Marken mit wachsenden Herausforderungen konfrontiert, um im Zeitalter der Digitalisierung erfolgreich zu sein.

Der Adobe Trust Report zeigt, dass 7 von 10 Führungskräften (73 Prozent) in Deutschland es schwieriger finden, Vertrauen aufzubauen und zu erhalten als noch vor zwei Jahren. Die Daten zeigen auch, dass für Marken noch nie so viel auf dem Spiel stand: Knapp die Hälfte (49 Prozent) der befragten Verbraucher*innen gaben an, dass sie nach einem Vertrauensbruch nicht mehr bei einer Marke kaufen würden.


Keyfacts

  • 73 Prozent der Führungskräfte sagen, dass es heute schwieriger ist, Vertrauen zu gewinnen als vor zwei Jahren.
  • 68 Prozent der Verbraucher:innen sind darüber besorgt, wie Unternehmen mit ihren Daten umgehen.
  • Verbraucher:innen geben mehr für Marken aus, denen sie vertrauen.
  • Die digitale Wirtschaft erzielt weltweit 4 Billionen US-Dollar.

Der Umsatz in der digitalen Wirtschaft beträgt inzwischen weltweit über 4 Billionen US-Dollar. In dem wichtigen Markt ist Vertrauen die Grundlage eines jeden erfolgreichen Unternehmens und die Erwartungen der Verbraucher*innen sind heute höher denn je. Mit neuen Verhaltensmustern und einer Vielzahl von Berührungspunkten sehen sich Marken mit wachsenden Herausforderungen konfrontiert, um im Zeitalter der Digitalisierung erfolgreich zu sein.

Der Adobe Trust Report zeigt, dass 7 von 10 Führungskräften (73 Prozent) in Deutschland es schwieriger finden, Vertrauen aufzubauen und zu erhalten als noch vor zwei Jahren. Die Daten zeigen auch, dass für Marken noch nie so viel auf dem Spiel stand: Knapp die Hälfte (49 Prozent) der befragten Verbraucher*innen gaben an, dass sie nach einem Vertrauensbruch nicht mehr bei einer Marke kaufen würden.

Verantwortungsvoller Umgang mit Daten ist entscheidend für den Aufbau von Vertrauen

Um Vertrauen aufzubauen, müssen Marken ihre Kund*innen mit personalisierten Erlebnissen dort erreichen, wo diese ihnen den größten Nutzen bringen – und das auf der Grundlage der von ihnen gesammelten Daten. Die Studie zeigt, dass 68 Prozent der Verbraucher*innen darüber besorgt sind, wie Unternehmen ihre Daten nutzen. Ein ähnlich großer Anteil (71 Prozent) glaubt, dass die aus digitalen Interaktionen gewonnenen Informationen nur dem Unternehmen und nicht den Verbraucher*innen zugutekommen.

Der Adobe Trust Report zeigt auch, dass die Forderungen der Verbraucher*innen klar und eindeutig sind, wenn es um einen besseren Umgang mit Daten geht. 8 von 10 Verbraucher*innen (77 Prozent) halten es für wichtig, dass sie selbst entscheiden können, wie Unternehmen ihre Daten nutzen. Gleichzeitig gehören für 81 Prozent der Befragten Datensicherheit und die Möglichkeit, den Verbraucher*innen Transparenz und Kontrolle über die Verwendung ihrer Daten zu geben, zu den wichtigsten Maßnahmen, mit denen Marken das Vertrauen ihrer Kund*innen zurückgewinnen können, nachdem es zerstört wurde.

Für Marken, die mit Daten unachtsam umgehen, sind die Konsequenzen fatal: Zwei Drittel der Verbraucher*innen geben an, dass sie nicht mehr bei einer Marke einkaufen würden, die ihre Daten ohne Erlaubnis verwendet (64 Prozent), eine Datenschutzverletzung begeht (63 Prozent) oder ihre Datenpräferenzen nicht respektiert (61 Prozent).

Trotz dieser Warnung zeigen die Ergebnisse, dass weniger als die Hälfte (36 Prozent) der Führungskräfte zuverlässige Datenschutz- und Governance-Prozesse als oberste Priorität einstufen, was eine Kluft zwischen den Erwartungen der Verbraucher*innen und der Priorisierung von Daten durch die Führungskräfte offenbart.

„Vertrauen kann über alle Erfahrungen und Berührungspunkte hinweg erworben und gebrochen werden“, so Alvaro del Pozo, Vice President of International Marketing bei Adobe. „Wir haben einen Wendepunkt in der digitalen Wirtschaft erreicht. Marken, die sich auf den Aufbau von Vertrauen durch die verantwortungsvolle Nutzung von Kundendaten konzentrieren und so persönliche Erlebnisse schaffen, werden erfolgreich sein. Hingegen werden diejenigen, die weiterhin eigene Bedürfnisse über die der Kund*innen stellen, weiter zurückfallen.“


„Der Aufbau dieses Vertrauens ist eine unternehmensweite Aufgabe, die ganz oben mit dem CEO beginnt.“


Das Vertrauen der Verbraucher*innen wird mit jeder Erfahrung aufgebaut oder gebrochen

Die Ergebnisse zeigen, dass das Vertrauen der Verbraucher*innen zunimmt, wenn Kundendaten genutzt werden, um personalisierte Erlebnisse zu schaffen und anzubieten: 57 Prozent sagen, dass gut getimte persönliche Inhalte das Vertrauen erheblich steigern, während 54 Prozent finden, dass kreative Inhalte ihr Vertrauen in ein Unternehmen erhöhen. „Kund*innen erwarten an jedem Touchpoint der Customer Journey eine empathische, vertrauensvolle Interaktion“, so Thomas Wrobel, VP Global Data, BI & CRM, Douglas. „Hierfür braucht es relevante und qualitativ hochwertige Daten. Dies erfordert eine vertrauensvolle, transparente Kundenbeziehung.“

„Die Allianz bietet ihren Kunden seit mehr als 130 Jahren Versicherungs- und Vermögensverwaltungsdienstleistungen an, die auf Vertrauen basieren. Das ist die Essenz unseres Geschäfts“, sagt Serge Raffard, Group Strategy, Marketing, Distribution Officer bei der Allianz. „Angetrieben von diesem Vertrauen geben uns unsere Kund*innen digitale Zugriffsrechte und Daten, die es uns ermöglichen, sie jeden Tag besser zu beraten, mit mehr personalisierten Informationen, Unterstützung, Lösungen und finanziellen Vorteilen, zur richtigen Zeit und vor allem mit Leidenschaft und Sorgfalt.“

Verbraucher*innen erwarten von Marken Empathie

Weitere 7 von 10 Verbraucher*innen (68 Prozent) geben an, dass Marken Empathie zeigen sollten, indem sie die Dinge aus ihrer Perspektive betrachten, ihre Unzufriedenheit anerkennen und verstehen, was ihnen wichtig ist. Der Preis dafür ist hoch: Fast drei Viertel (70 Prozent) der Verbraucher*innen geben an, dass das Vertrauen in eine Marke sinkt, wenn die Personalisierung unzureichend ist, während fast die Hälfte (47 Prozent) nicht mehr bei einer Marke kaufen würde, die keine persönlichen Kundenerfahrungen mit Mehrwert bietet.

Gleichzeitig nimmt die Bedeutung der digitalen Medien für den Aufbau von Vertrauen weiter zu: Mehr als die Hälfte (51 Prozent) der Verbraucher*innen misst digitalen und persönlichen Erlebnissen inzwischen die gleiche Bedeutung bei, wenn es darum geht, ihr Vertrauen zu gewinnen.

Um den Anforderungen der Kund*innen in der digitalen Wirtschaft gerecht zu werden und ihr Vertrauen zu gewinnen, müssen Marken Millionen Menschen in Echtzeit die relevantesten Erlebnisse bieten – sowohl online als auch offline – und dabei gleichzeitig ihre Privatsphäre und ihre Präferenzen respektieren. Die Personalisierung in diesem Umfang erfordert, dass Marken ihre Datenstrategie weiterentwickeln: Sie müssen ihr Verständnis gegenüber Kund*innen durch verwertbare Daten in Echtzeit verbessern und Inhalte schnell bereitstellen, die persönliche und wertvolle Kundenbeziehungen fördern und so eine nahtlose Customer Journey für jede/n Kunde*in bietet.

„Die Studie von Adobe zeigt deutlich, dass Unternehmen für das Vertrauen ihrer Kund*innen mehr als nur großartige Produkte bieten müssen. Zum Aufbau von Vertrauen gehören ein verantwortungsvoller Umgang mit Daten sowie relevante und personalisierte Erlebnisse“, so Thomas Barta, Global Marketing Leadership Experte und ehemaliger McKinsey-Partner, der mit Adobe an der Erstellung einer zusätzlichen Analyse der EMEA-Landschaft gearbeitet hat. „Der Aufbau dieses Vertrauens ist eine unternehmensweite Aufgabe, die ganz oben mit dem CEO beginnt. Dann geht es darum, diese Vertrauenskultur in jedem Prozess, in jeder Technologie und für jede*n Mitarbeiter*in umzusetzen.“

Adobe Trust Report

Sie können den vollständigen Adobe Trust Report hier herunterladen.

Über die Studie

Der Adobe Trust Report wurde zwischen Januar und Februar 2022 von Advanis durchgeführt. Befragt wurden mehr als 12.000 Verbraucher*innen und 2.000 Führungskräfte in Unternehmen mit mehr als 50 Mitarbeiter*innen in 15 Ländern. Darunter befanden sich 1.005 Verbraucher*innen und 200 Führungskräfte aus Deutschland. In EMEA wurden Verbraucher*innen und Führungskräfte aus Unternehmen in sieben Ländern befragt, darunter: Belgien, Dänemark, Frankreich, Deutschland, Schweden und das Vereinigte Königreich. 

Lizenz: Pressemitteilung von Adobe

Vom Herzinfarkt zur Geschäftsidee

Meik Baumeister zeigt mit seinem Start-up Cardisio eine neue Herangehensweise an eine Volkskrankheit: Herz-Kreislauferkrankungen.

Noch immer sterben die meisten Menschen in Deutschlang Jahr für Jahr an Herz-Kreislauferkrankungen. Eine der Ursachen für die hohen Todeszahlen: Bis vor kurzem existierte keine Methode zur frühzeitigen Diagnose von Herzerkrankungen, die gleichermaßen präzise und einfach zu handhaben ist. Die gebräuchlichste Untersuchungsmethode im Bereich der Herzvorsorge ist bis dato das EKG. Was die wenigsten Patient:innen wissen: Dieses Standartverfahren ist inzwischen über 100 Jahre alt und besitzt nur eine geringe diagnostische Aussagekraft, sodass Erkrankungen des Herzens häufig unerkannt bleiben. Ein Herz-CT bzw. eine Herzkatheteruntersuchung hingegen sind zwar sehr präzise, allerdings vergleichsweise teuer und aufwändig. Darüber hinaus sind beide Verfahren für die Patient:innen zu belastend, um sie ohne konkreten Verdacht durchzuführen, was Ärzt:innen bislang vor ein Dilemma stellte. Die Lösung dieses Problems liefert nun die sogenannte „Cardisiographie“ (CSG) des Medizin-Start-ups Cardisio aus Frankfurt.

Die neue Ära der Herzvorsorge ist dreidimensional

Bei der Cardisiographie handelt es sich um eine neue Screening-Methode zur frühzeitigen Erkennung koronarer Herzerkrankungen. Das Verfahren ist nicht-invasiv, ähnlich unkompliziert und schnell durchführbar wie ein EKG, aber dank KI dennoch hochpräzise. Im Gegensatz zum Standardverfahren EKG (Elektrokardiogramm), welches die Herzströme lediglich zweidimensional erfasst, baut die Cardisiographie auf dem Prinzip der Vektorkardiologie auf, welches die dreidimensionale Visualisierung der elektrischen Herzaktivität ermöglicht. Die Ergebnisse der Datenaufnahmewertet ein patentierter Algorithmus aus, der zuverlässig in der Lage ist, Muster von Herzerkrankungen zu erkennen.

Cardisio-Gründer Meik Baumeister: Herzinfarkt im Alter von 32

Traurig, aber wahr: Den Anstoß zur Entwicklung der Cardisiographie und der Gründung von Cardisio gab der Herzinfarkt von Meik Baumeister, einem der Unternehmensgründer. Der damals erst 32 Jahre alte Coesfelder war immer sportlich, schlank und bis dato ohne größere gesundheitliche Beschwerden. Zum Glück reagierte Baumeister dennoch genau richtig, als er sich an einem Samstagnachmittag aus heiterem Himmel unwohl fühlte, ihm der kalte Schweiß ausbrach und er ein bislang unbekanntes Panikgefühl aus der Bauchregion aufsteigen spürte. Trotz der diffusen Symptomatik suchte der IT-Experte umgehend den ärztlichen Bereitschaftsdienst auf. Gerade erst in der Klinik angekommen, erlitt er in Anwesenheit des diensthabenden Arztes einen schweren Vorderwandinfarkt. Baumeister wurde daraufhin sofort in die benachbarte Klinik eingeliefert, wo die verstopfte Arterie per Katheter und mit Hilfe eines Stents wieder geöffnet wurde. Die Diagnose: koronare Herzkrankheit – und das mit erst 32 Jahren. Allein die Tatsache, dass zwischen dem eigentlichen Infarkt und dem Katheter-Eingriff lediglich eine Dreiviertelstunde lagen, rettete Meik Baumeister das Leben, denn bei einem Herzinfarkt zählt jede Minute.

Arteriosklerose blieb bei Standart-Check-Up unerkannt

Was Meik Baumeister besonders irritierte: Trotz seines jungen Alters ging er vor seinem Infarkt bereits regelmäßig zu Vorsorgeuntersuchungen bei seinem Hausarzt, der ihm stets einen guten gesundheitlichen Zustand attestierte. So musste das spätere Cardisio-Gründungsmitglied am eigenen Leib erfahren, was nur den wenigsten bekannt ist: Zum einen handelt es sich bei den meisten Herzerkrankungen um schleichend voranschreitende Prozesse, die meist solange unerkannt bleiben, bis es zum ersten und oftmals leider tödlichen Symptom kommt – dem Herzinfarkt. Zum anderen sind die traditionellen Untersuchungsmethoden wie das EKG nicht in der Lage, eine koronare Herzkrankheit zu erkennen und somit auch nicht besonders aussagekräftig, wenn es um die Vorhersage eines Herzinfarkts geht. Wesentlich präzisere Diagnosen lassen sich mit Technologien wie MRT oder CT erstellen. Allerdings sind diese Verfahren für einen rein prophylaktischen Einsatz in der Vorsorge viel zu aufwändig und teuer. Aus diesem Grund wird insbesondere bei symptomfreien Patienten wie auch Meik Baumeister eine koronare Herzerkrankung und somit ein erhöhtes Herzinfarktrisiko oftmals nicht erkannt.

Hochgenau und leicht interpretierbare Ergebnisse dank KI

Von der sehr viel präziseren Methode der Vektorkardiographie erfuhr Baumeister erst über Prof. Dr. Gero Tenderich, Kardiologe, Experte für Vektorkardiographie und ebenfalls Mitgründer von Cardisio. Das Problem des Verfahrens: Da die komplexen Vektorinformationen nur von geschulten Expert:innen interpretiert werden können, wurde das Verfahren lange Zeit lediglich zur Klärung besonderer Fragestellungen verwendet. Eine Tatsache, die Baumeister und Tenderich ändern wollten, um eine so einfache wie präzise Form der Herzvorsorge zu ermöglichen. Ihr Plan: die Vektorkardiographie in der Breite anwendbar zu machen. Das Ergebnis war die Gründung von Cardisio und die Entwicklung der Cardisiographie. Bei der neuen Screening-Methode analysiert die künstliche Intelligenz mittels Algorithmen die aufgenommenenHerzdaten und bereitet die daraus resultierenden Ergebnisse innerhalb weniger Minuten leicht nachvollzieh- und interpretierbar auf. So ist auch nicht speziell geschultes Personal in der Lage, kranke und gesunde Herzen voneinander zu unterscheiden – ein Aspekt, der beim aktuellen Fachkräftemangel besonders ins Gewicht fällt.

Neben der leichten Interpretierbarkeit hat die Cardisiographie noch einen weiteren, entscheidenden Vorteil: sie ist schnell. Dank der Methode kann innerhalb von weniger Minuten geklärt werden, wie es um die Herzgesundheit der Patient:innen bestellt ist und eine entsprechende Therapie – falls erforderlich – entsprechend schnell eingeleitet werden. Bei der konventionellen Diagnostik hingegen können durchaus mehrere Monate vergehen, bis ein endgültiges Ergebnis vorliegt – Zeit, die viele Patient:innen nicht haben. Im konkreten Fall von Meik Baumeister hätte eine Cardisiographie seine damals bereits bestehende Arteriosklerose frühzeitig erkannt und sein Herzinfarkt mit entsprechender Medikation höchstwahrscheinlich verhindert werden können. Nicht zuletzt aus diesem Grund hat das Team von Cardisio ehrgeizige Ziele für die nahe Zukunft: In spätestens fünf Jahren will das Team die Cardisiographie soweit etabliert haben, dass sie zur weltweiten Standardmethode für das Screening von Herzkrankheiten geworden ist. Damit hätte das EKG in der Herzvorsorge endgültig ausgedient.


Über den Autor:

Meik Baumeister (Co-founder und CEO Cardisio) hat über 20 Jahre Erfahrung in der Umsetzung von komplexen IT-Projekten und Führung von IT-Unternehmen. Angefangen als Berater für Business Intelligence und CRM, führte ihn sein Werdegang als Geschäftsführer zu mehreren mittelständischen IT-Häusern in ganz Deutschland (u.A. 7N, IMPAQ Group). Eine besondere Expertise weist Meik Baumeister in den Bereichen E-Health, Kardiologie und Künstliche Intelligenz auf. Zudem war er erfolgreich am personellen Aufbau von jungen Start-ups und im Markeneintrittsmanagement beteiligt.


Aufmacherbild / Lizenz: Photo by Alexandru Acea on Unsplash 


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.