New Work – Mindset des Enablements

Als Mitarbeiter- bzw. Employee-Enablement wird die Praxis beschrieben, Mitarbeiter möglichst vielseitig zu schulen, um sie so im Arbeitsalltag polyvalenter zu machen. Enablement befähigt Mitarbeiter, fortgeschrittene Aufgaben auszuführen und komplexe Tasks zu meistern. Dadurch können Aufgaben im Laufe der Zeit immer flexibler delegiert werden, Kompetenz-Hierarchien verflachen und die Mitarbeiter bekommen das berechtigte Gefühl, dass in sie investiert wird, was die Wertschätzung ihrerseits dem Unternehmen gegenüber stärkt. Enablement sorgt für hohe Bindungsraten, da eine solche Unterstützung den Mitarbeitern das Gefühl gibt, dass ihre Leistung anerkannt wird.

Katrin Seidel ist systemischer Coach für Mitarbeiter und Führungskräfte und begeisterte Unternehmerin. Seit 22 Jahren ist sie in der Führung der europaweit agierenden Trainingscompany bfkm GmbH tätig und somit selbst tagtäglich mit den Herausforderungen des Führungsalltags konfrontiert. Ihre Einblicke und Einschätzungen zum Thema Employee Enablement teilt sie in diesem Gastbeitrag.

Warum Enablement so wichtig ist

Mitarbeiterförderung ist gleichzusetzen mit Unternehmensförderung! Enablement ist insofern nicht nur als ein bisschen Imagepflege zu verstehen, sondern als wichtiger Grundstein für eine gesunde Unternehmenskultur. Zudem ist Enablement auch aus strategischer Sicht ein wertvolles Attribut für Unternehmen, um ihre Attraktivität für potenzielle Bewerber zu erhöhen und um Mitarbeiter effizienter zu binden. Gerade in Zeiten, in denen ganze Branchen händeringend um Auszubildende und Fachkräfte kämpfen müssen, sollte jedem klar sein, dass sich der Wettbewerb um fähige, engagierte Mitarbeiter in Zukunft tendenziell eher verschärfen als entspannen wird.

In die eigenen Mitarbeiter zu investieren und ihnen mehr Aufgaben anzuvertrauen, ist also nicht nur eine Maßnahme, die das Unternehmen für Bewerber attraktiver macht. Es ist auch strategisch wünschenswert, da der etablierte Mitarbeiterstamm durch breit gefächerte Qualifikationen qualitativ solider aufgestellt wird. “Kompetenzen und Fähigkeiten der Mitarbeiter werden damit sukzessive verbessert, was eigenständiges Arbeiten und Entscheidungskompetenz vor Ort erhöht. Das entschlackt nicht nur die Abläufe und erhöht die Performance. Auch der Zusammenhalt unter den Mitarbeitern wird potenziell gefördert, wodurch wiederum die Bindung an das Unternehmen gestärkt wird.”, so Katrin Seidel.

Vorteile von Mitarbeiter Enablement im Überblick

Die Zeiten, in denen Unternehmer (gelinde gesagt) noch recht trocken vom „Humankapital“ sprechen konnten, sind im Wesentlichen vorüber. Und gerade ein schlechter Ruf als Arbeitgeber spricht sich heute schneller herum denn je. Nicht zuletzt, weil es jedem offen steht, sich im Internet zu Unternehmen und deren Bewertung aus Arbeitnehmersicht zu informieren. In die eigenen Mitarbeiter gezielt zu investieren – und das nicht nur mit schönen Worten – ist in manchen Branchen mittlerweile ein regelrechter Sachzwang. Allerdings auch einer, der Früchte trägt:

  • Enablement ist gleich Empowerment – Kompetente, gut ausgebildete Mitarbeiter können Außergewöhnliches leisten, das Beste aus sich herausholen und im Unternehmen etwas bewegen. Das bewirkt, dass sie eben dort auch eine Zukunft für sich sehen. Umgekehrt steigt die Frustration, wenn Mitarbeiter, die sich für die Unternehmensvision und -werte begeistern, ihrer Arbeit nicht gewachsen sind oder aufgrund von zu geringer Qualifikation im monotonen Arbeitstrott versacken.
  • Höhere Produktivität steigert Umsatzchancen – Gezielte Schulungen können die Produktivität und Eigenständigkeit der Mitarbeiter steigern. Dies spiegelt sich in deren Denken und Handeln wider. Gut ausgebildete Mitarbeiter agieren effizienter, zielgerichteter und selbstbewusster. Eine gesteigerte Mitarbeiterkompetenz verbessert die Qualität der Arbeit, was sich letztlich positiv auf Aspekte wie Kundenkommunikation, Vertrieb und Umsatz auswirkt.
  • Bindung an Stelle von Fluktuation – Hohe Fluktuationsraten im Mitarbeiterstab verursachen Kosten, da ständig neue Mitarbeiter gesucht und ausgebildet werden müssen. Nicht zuletzt sind sie oft ein klares Indiz für unzufriedene Mitarbeiter. Es muss demnach im Interesse des Unternehmens liegen, Leistungsträger langfristig zu binden. Eine gute Mitarbeiterführung und engagiertes Enablement kann dafür die Weichen stellen.

Arbeitgebermarketing und Unternehmenskultur – Einen vielseitig qualifizierten sowie kompetenten Kern an Mitarbeitern zu haben, verbessert nicht nur die unternehmerische Resilienz gegen personelle Engpässe. Mit der Zeit wird auch die Qualität der innerbetrieblichen Ausbildung immer besser. Kompetente und qualifizierte Mitarbeiter können neuen Mitarbeitern und Auszubildenden wesentlich mehr vermitteln, wenn sie selbst diesbezüglich auf einem soliden Fundament stehen. Dies steigert die Attraktivität und den Ruf als Arbeitgeber!

Fazit – Enablement für Team Building und agiles Arbeiten

Mitarbeiter müssen Eigenverantwortung lernen, um ihr Können und Wissen flexibel und gewinnbringend einzusetzen und sich mit anderen (Kollegen sowie Kunden) zu vernetzen. Diese Eigenverantwortung wird durch gezielte Fort- und Weiterbildungen befeuert. Vor allem aber erhöht mehr Eigenverantwortung die unternehmerische Agilität im Arbeitsalltag.
Eine agile Arbeitsteilung bedeutet eine substanzielle Veränderung. Kompetenzen werden erhöht und interne Hierarchien verflacht. Ein solcher Wandlungsprozesse kann durchaus zunächst auf innere Widerstände stoßen. Gewohnheiten, bisherige Kompetenzbereiche sowie Pfadabhängigkeiten verursachen möglicherweise eine Neigung der Mitarbeiter, sich gegen Wandlung (und sei sie noch so positiv) zu sträuben. Nicht zuletzt kann auf der Führungsebene eine zunehmend agile Unternehmensführung auch einen Verlust an Führungskraft implizieren. Doch wenn alle im Unternehmen lernen, mehr Verantwortung zu übernehmen, wird sich das mittelfristig für Führungskräfte als entlastender Vorteil erweisen. Wenn alle in der Breite ermutigt und befähigt werden, auch im Angesicht dynamischer Entwicklungen und Probleme, flexibel und lösungsorientiert zu handeln, steigert das im Endeffekt den Anteil aller am unternehmerischen Erfolg. Ein besseres Feedback, im Sinne der Unternehmenskultur, ist kaum vorstellbar!


Über die Autorin

Katrin Seidel (Quelle: bfkm GmbH | Die Trainingscompany)

Katrin Seidel ist systemischer Coach für Mitarbeiter und Führungskräfte und begeisterte Unternehmerin. Seit 22 Jahren ist sie in der Führung der europaweit agierenden Trainingscompany bfkm GmbH tätig und somit selbst tagtäglich mit den Herausforderungen des Führungsalltags konfrontiert. Sie ist der festen Überzeugung, dass Frauen in ihre weibliche Kraft der Führung und Männer in ihre männliche Führungskraft kommen müssen, um den Arbeitsalltag neu für sich und die Mitarbeiter/innen zu gestalten. Die Themen Führung, neue Führung, Wandel der Arbeitswelt, Agilität und tiefe persönliche Weiterentwicklung von Führungskräften liegen Katrin Seidel besonders am Herzen. Die bfkm GmbH präsentiert sich heute unter ihrer Leitung als kompetenter Qualifizierungsanbieter und progressiver Organisationsentwickler. Das 9-köpfige Mitarbeiter- und 100-köpfige Trainerteam trainiert, berät und coacht pro Jahr um die 12.000 Seminarteilnehmer. Katrin Seidel setzt sich auch in der Nachwuchsförderung ein und initiierte in diesem Zusammenhang 2006 den Azubiwettbewerb „Young Professionals – Talente im Dialog“, um junge Menschen für Ausbildungsberufe im Dialogmarketing zu begeistern. Außerhalb des Berufs engagierte sie sich viele Jahre lang als Vorstandsmitglied der Saaleschule für „Inklusion“ und „individuelles Lernen“ für Kinder.

www.bfkm-halle.de


Bildquelle / Lizenz Aufmacher:

Photo by Towfiqu barbhuiya on Unsplash

Wenn den eigenen Augen nicht getraut werden kann

Klaus Joachim Gährs, Senior Account Manager bei BioCatch, schreibt über Deep Fakes als Bedrohungspotenzial aber auch über Lösungen, dieser Herausforderung zu begegnen.

„Je ungewöhnlicher eine Sitzung bei einem Konto verläuft, desto wahrscheinlicher ist es, dass es sich um Betrug handelt. Das lässt sich automatisiert messen und auswerten. Dies ist eine Möglichkeit, Deep Fakes beizukommen“, erläutert Klaus Joachmin Gährs.

Ende Juni machte die Videoschalte zwischen der Berliner Oberbürgermeisterin Franziska Giffey und einem vermeintlichen Vitali Klitschko Schlagzeilen. Der Grund: Der Gesprächspartner der deutschen Politikerin sah zwar aus wie der Bürgermeister von Kiew, war es aber nicht. Schnell wurde die Vermutung publik, dass es sich hierbei um einen Deepfake handelt, also eine Videomanipulation mithilfe von KI (Künstlicher Intelligenz). Die Vermutung erwies sich aber als falsch, denn bei der Fälschung handelte es sich nur um einen einfachen „Shallowfake“, der technisch weit weniger anspruchsvoll ist.

Dennoch zeigt der Vorfall deutlich, dass von manipulierten Ton- und Videoaufnahmen – Deepfake oder nicht – eine hohe Gefahr ausgeht und die Konsequenzen nicht zu unterschätzen sind. Laut einem Bericht von Europol stellen Deepfakes eine der besorgniserregendsten Entwicklungen dar, wenn es um den Einsatz von künstlicher Intelligenz durch Cyberkriminelle geht. Dies gilt ganz besonders für die Geschäftswelt. Dort kann die Technologie in den falschen Händen einen hohen finanziellen Schaden anrichten.

Authorized-Push-Payment und CEO-Betrug

In der Vergangenheit tauchten immer wieder Meldungen darüber auf, dass Betrüger Deepfake Voice benutzt haben, um beispielsweise die Stimme eines Vorgesetzten in Echtzeit nachzuahmen. So gelang es Betrügern bei einer deutsch-britischen Firma, einen Geschäftsführer zu überzeugen, 220.000 Euro auf ein Konto zu überweisen. Dazu mussten sie sich nur mithilfe dieser Technologie als Chef der deutschen Muttergesellschaft ausgeben.

Die Vorgehensweise der Kriminellen ist dabei ähnlich wie bei einem APP-Betrug (Authorized-Push-Payment) beziehungsweise einem CEO-Fraud in Echtzeit. Beide Betrugsversionen zählen zu den sogenannten Social-Engineering-Attacken. Und diese Angriffsmethoden zielen auf den Menschen als schwächstes Glied in der IT-Sicherheitskette: Die Kriminellen geben sich am Telefon als Geschäftsführer aus und überzeugen so ihr Opfer, einen bestimmten Betrag auf ein Konto zu überweisen. Die genutzten personenbezogenen Daten kaufen die Cyberbetrüger oftmals im Dark Web oder stehlen sie aus den öffentlichen Kanälen der sozialen Medien. So wirken sie auf den Angerufenen glaubwürdig und können ihn manipulieren, eine autorisierte Überweisung auszulösen. Ton- und Videoausschnitte lassen sich ebenso oft von Social-Media-Kanälen und durch Deepfake oder andere Methoden fälschen. Der Druck, der gegenüber dem Mitarbeiter aufgebaut wird, ist immens, wenn der leitende Angestellte oder der CEO eines Unternehmens telefonisch zur Überweisung auffordert. So wird oft nicht hinterfragt, ob die tatsächlichen Sicherheitsprozesse eines Unternehmens für eine Transaktion eingehalten werden.

Da ein echter Mitarbeiter die Überweisung auslöst, können die Cyberkriminellen die Sicherheitsprozesse der Bank umgehen und sich unbefugt Zutritt zu den Kundenkonten verschaffen. Diese Art von Betrug zu erkennen, ist schwierig, da die Betrüger nicht direkt mit einer Bankplattform interagieren, sondern den Mitarbeiter dazu bringen, eine Zahlung zu tätigen. Der Benutzer meldet sich während dieses Vorgangs vom eigenen Gerät und von einem gültigen Standort an, weswegen bei der Bank oft zu spät Verdacht geschöpft wird. Auch die Multi-Faktor-Authentifizierung (MFA) lässt sich so umgehen.

Betrugserkennung in Echtzeit

Das Problem bei Social-Engineering-Attacken in Echtzeit ist, dass herkömmliche Kontrollen wie etwa die Identifizierung des Endgeräts, der IP und des Standortes nicht mehr ausreichen. Selbst Out-of-Band-Methoden wie das Versenden eines Einmal-Passwortes (OTP) per SMS bieten keinen Schutz, da die Transaktionen durch legitime Nutzer mit einem legitimen Endgerät stattfinden. Auf diese Weise ist der Zugriff auf das OTP keine Hürde.

Hinzu kommt, dass Social-Engineering-Attacken im Vergleich zu anderen Cyberattacken relativ einfach auszuführen und lukrativ für die Kriminellen sind. Laut Daten von BioCatch ist die Zahl solcher Angriffe in den letzten Jahren deutlich gestiegen. Bisher sind sie im Jahr 2022 sogar deutlich auf dem Vormarsch. Schätzungen zufolge verlieren Opfer von APP-Betrügereien durchschnittlich 28.000 Pfund pro Stunde. Sind die Gelder erst einmal überwiesen, ist es sehr schwierig, diese zurückzubekommen. Weniger als die Hälfte der APP-Opfer werden nachher finanziell entschädigt, da sie die Zahlung selbst ausgelöst haben.

Abhilfe können Technologien auf Basis von Verhaltensbiometrie schaffen, mit denen sich die Identität von Personen während der gesamten Abwicklung ihrer Bankgeschäfte verifizieren lässt. Diese Technologie basiert auf KI und ML (Machine Learning) und analysiert das digitale physische sowie kognitive Verhalten eines Nutzers. So kann sie mit hoher Wahrscheinlichkeit zwischen Aktivitäten von legitimen Kunden und Cyberkriminellen unterscheiden – auch wenn der Kunde nur unter dem Einfluss des Kriminellen steht. Über datenbasierte Erkenntnisse lassen sich dabei „echte“ von „betrügerischen“ Verhaltensmustern unterscheiden. Und mithilfe von Risikomodellen lassen sich so eine Vielzahl von Bedrohungen in Echtzeit erkennen und rechtzeitig stoppen. Denn das Verhaltensmuster eines echten Nutzers unterscheidet sich während der Transaktion, wenn die Person unter dem Einfluss eines Cyberkriminellen steht.

Auffällige Muster

Dauert beispielsweise eine Kontositzung länger als gewöhnlich, kann dies ein Indikator für einen Nutzer sein, der von Cyberkriminellen manipuliert wird. Hinzu kommen oft ziellose Mausbewegungen, die darauf hindeuten, dass die Person nervös ist oder unter Druck steht, während sie auf Anweisungen ihres Gesprächspartners wartet. Auch das Tippverhalten weist bei einem APP-Betrug häufig Unregelmäßigkeiten auf. Segmentierte Tastaturanschläge zeigen etwa, dass es sich hierbei um keine routinierte Eingabe handelt und die Kontonummer von einem Cyberkriminellen vorgelesen werden könnte. Die benötigte Zeit für einfache, intuitive Aktionen wie das Bestätigen einer Angabe steigt solchen Fällen außerdem signifikant an. Und auch bei der Nutzung eines Smartphones lassen sich üblicherweise veränderte Bewegungsmuster feststellen – beispielsweise ändert sich die Ausrichtung des Endgerätes häufig. Das liegt daran, dass der eingeloggte Nutzer das Smartphone immer wieder ablegt oder aufnimmt, um die Anweisungen des Kriminellen entgegenzunehmen.

Je mehr unübliche Verhaltensmuster in Kombination ein Nutzer während einer Kontositzung zeigt, desto höher wird der Alarmscore bei der Bank. Die Sicherheitsspezialisten können dadurch rechtzeitig eingreifen, den Kunden warnen oder die Transaktion stoppen. So lassen sich erhebliche finanzielle Verluste vermeiden.

Die Spitze des Eisbergs

Die Betrugsmethoden der Cyberkriminellen entwickeln sich immer weiter. Auch wenn die Versuche über Deepfakes noch spärlich eingesetzt werden und der Einsatz der Technologie mit viel Aufwand verbunden ist, sind die gemeldeten Fälle laut Einschätzungen von BioCatch nur die Spitze des Eisbergs. Damit sich Unternehmen und auch Bankkunden vor den finanziellen Schäden schützen können, ist es unabdingbar, den Betrug in dem Moment zu erkennen, wenn er stattfindet. Security-Maßnahmen über Verhaltensbiometrie verringern das Sicherheitsrisiko enorm.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Progressive Delivery: Eine Weiterentwicklung von Continuous Delivery

* Autor: Dirk Radde

Progressive Delivery ist ein moderner Ansatz für die Softwarebereitstellung, der auf den Prinzipien von Continuous Delivery aufbaut. Unternehmen können so Code schneller und mit hoher Kadenz bereitstellen, während sie gleichzeitig die Risiken reduzieren. Um dies zu erreichen, werden Advanced-Deployment-Strategien mit zusätzlichen Kontroll- und Überwachungsmöglichkeiten genutzt. Verbesserte Kontrolle ist ein zentrales Fundament von Progressive Delivery.

Ziele von Progressive Delivery

  • Schnellere und kontrollierte Freigabe von neuer Software
  • Minimierung von Ausfallzeiten
  • Begrenzung des “Explosionsradius” unbeabsichtigter Folgen beziehungsweise negativer Ergebnisse
  • Begrenzung des Work-in-Progress (WIP), höhere Kadenz und ein reibungsloser Ablauf
  • Schnelleres Lernen und schnellere Entscheidungen im Prozess

Deployment-Strategien für Progressive Delivery

Nachdem wir betrachtet haben, welche Ziele mit Progressive Delivery erreicht werden können, sehen wir uns nun drei gängige Muster (Blue/Green, Canary, Feature Flags) der Implementierung näher an.

Bild: Vorteile der jeweiligen Deployment-Strategien

Bild: Vorteile der jeweiligen Deployment-Strategien

Blue/Green Deployment

Ein Blue/Green Deployment reduziert Risiken, indem zwei identische Produktionsumgebungen betrieben werden. Zu jedem Zeitpunkt ist nur eine der beiden Umgebungen im Live-Betrieb. In diesem Beispiel ist „Blue“ in Live-Betrieb und „Green“ im Leerlauf. Nachdem Sie die neue Version auf „Green“ installiert haben, führen Sie Ihre Smoke-Tests durch und stellen sicher, dass alles in Ordnung ist. Sobald die Tests erfolgreich abgeschlossen sind, wird der Live-Verkehr auf “Green” umgeleitet.

Im Falle einer fehlgeschlagenen Bereitstellung ist der Rollback-Prozess stark vereinfacht. Wenn mit Ihrer neuen Version auf “Green” etwas Unerwartetes passiert, können Sie sofort zur letzten Version zurückkehren, indem Sie wieder auf “Blue” wechseln.

Bild: Blue/Green Deployment (Quelle: Argo)

Canary Deployment

Bei Canary Deployments wird ein Software-Update zunächst nur einer kleinen Nutzergruppe zur Verfügung gestellt. Diese Gruppe wird über einen Load Balancer auf die neue Software geleitet. Die neue Version wird einige Zeit lang überwacht, um aussagekräftige Daten zu sammeln. Stellt das Team ein Problem fest, wird die Software umgehend zurückgezogen. Wenn keine Probleme festgestellt werden, wird die Version schrittweise für alle Anwender verfügbar gemacht.

Mit Canary Deployments können Sie neue Features kontinuierlich einführen, ohne befürchten zu müssen, dass eine einzige neue Funktion Ihre gesamte Nutzerbasis beeinträchtigt. Der Zweck eines Canary Deployments besteht darin, eine eindeutige Antwort zu erhalten, ob die Version so sicher ist, um sie risikolos komplett in die Produktion zu überführen. Voraussetzung für die Beantwortung dieser Frage sind ein Monitoring und definierte Metriken.

Bild: Canary Deployment (Quelle: Argo)

Feature Flag Rollouts

Bei Feature Flag Rollouts wird der Code mit deaktivierten neuen Features in der Produktion bereitgestellt. Um mit dem Rollout zu beginnen, können Sie den Code zunächst nur den Entwicklern für einen abschließenden Smoke-Test zugänglich machen. Als Nächstes stellen Sie die neuen Features beispielsweise den Early Adopters zur Verfügung.

Wenn die Dinge immer noch gut laufen, beginnen Sie damit, die Einführung zu beschleunigen. Auf diese Weise können Sie neue Features schrittweise den Anwendern zugänglich machen und sehen, wie die Software sich verhält, bevor Sie den Prozentsatz weiter erhöhen.

Rückgängig kann dies ganz einfach durch Ausschalten des Feature Flags gemacht werden. Es sind keine Patches, kein erneutes Deployment oder ein geändertes Netzwerk-Routing erforderlich. Sie sind immer noch in der Produktion, aber Sie geben den neuen Code nicht mehr an ihre Anwender weiter.

Bild: Feature Flag Rollout (Quelle: Argo)

Progressive Delivery für Cloud-native Apps

In der Regel werden heute Cloud-native Anwendungen entwickelt und automatisch auf Knoten in einem Kubernetes-Cluster innerhalb einer Microservices-Architektur bereitgestellt. Allerdings fehlt die einfache Unterstützung ein paar wichtiger Deployment-Strategien.

Ergänzende Tools wie Argo Rollouts oder Flagger bieten die Funktionalität, um Blue/Green, Canary, A/B Testing für Kubernetes, Red Hat OpenShift oder andere kommerzielle Kubernetes-Plattformen effizient umzusetzen. Damit können Sie problemlos Progressive Delivery für Ihre Kubernetes-Cluster übernehmen.

Bild: Argo Rollout Controller für Kubernetes (Quelle: Argo)

Fazit

Progressive Delivery kann der nächste Schritt zur Verbesserung Ihres Software-Delivery-Prozesses sein. Unternehmen, die dieses Verfahren anwenden, können Risiken reduzieren und die Customer Experience verbessern. Progressive Delivery ist ein bewährtes Mittel, um kontrolliert in hoher Kadenz und Geschwindigkeit neue Features auszuliefern.

Über den Autor

Der Autor Dirk Radde ist Tech Lead DevOps Infrastructure bei Devoteam Germany. Devoteam ist ein führendes Beratungsunternehmen, das sich auf digitale Strategie, Technologieplattformen, Cybersecurity und Business Transformation konzentriert, um Unternehmen zu helfen, ihre Zukunft zu gestalten. Mit 25 Jahren Erfahrung und 10.000 Mitarbeitern in ganz Europa, dem Nahen Osten und Afrika, fördert Devoteam verantwortungsvolle Technologien für Menschen.

Creative Tech for Better Change
Weitere Informationen: https://de.devoteam.com

4 Tipps für ein sicheres Cloud-Archiv

Im Frühjahr 2021 hielten tausende Unternehmen den Atem an: Beim größten Cloud-Anbieter Europas erscholl der Ruf: „Es brennt!“ Von den vier Rechenzentren des französischen Unternehmens in Straßburg ging ein Datenzentrum ganz in Flammen auf, eines zur Hälfte, die anderen beiden wurden aus Sicherheitsgründen heruntergefahren. Die Folgen dramatisch: Millionen von Webseiten waren vorübergehend nicht erreichbar. Ein Teil der Daten unwiederbringlich vernichtet.


Digitale Geschäftsprozesse sicher in der Cloud

Klar, ein Großbrand im Datencenter ist die Ausnahme. Trotzdem zeigt das Beispiel des OVH-Brands, dass Datensicherheit in der Cloud deutlich mehr beinhaltet als „nur“ Cyberschutz, Datenleaks oder Hackerangriffe. Während der Brandschutz meist noch durch die Gebäudeplanung abgedeckt ist, fallen andere Maßnahmen rund um physikalische IT-Sicherheit, Backup und Compliance in vielen Unternehmen eher mangelhaft aus.

Das Thema Sicherheit bereitet also nach wie vor Sorgen, wenn Unternehmen die Archivierung von Daten in der Cloud in Angriff nehmen. Vor allem wenn es um steuerrelevante und aufbewahrungspflichtige Dokumente sowie personenbezogene Daten geht, sind die Bedenken groß. Wie können Unternehmen sichergehen, dass ihre Daten nicht in Rauch aufgehen? Um es vorwegzunehmen: Die Cloud ist nicht nur sicher. Das Ende der Papierablage und der Wandel zum digitalen Dokumentenmanagement im Cloud-Archiv bringt zudem wichtige Vorteile. Dazu gehören die zeitsparende automatisierte Übertragung, revisionssichere und transparente Prozesse oder ein schneller und direkter Datenzugriff. Im Klartext heißt das: Augen auf bei der Partnerwahl. Wer bei der Auswahl einer Lösung für das Dokumentenmanagement nur auf die Kosten achtet, ist schlecht beraten. Bei der Wahl des Cloud-Partners sind in Sachen Sicherheit und Datenschutz einige Faktoren in Betracht zu ziehen. Die Voraussetzung für sichere Dokumenten- und Datenservices in der Cloud: Physische IT-Sicherheit, eine zuverlässige Datensicherung (Backup), Zertifikate sowie ein Rundum-Sorglos-Service-Paket des Anbieters.

Tipp 1 – Ganz schön sicher: Der Standort

Zuerst einmal das Offensichtliche: Der Zugang zum Gelände des Cloud-Partners sollte abgesichert sein. Eine Umzäunung ist genauso Pflicht wie Sicherheitspersonal rund um die Uhr. Personen, die Zutritt begehren, müssen angemeldet sein und sich ausweisen können. Was selbstverständlich klingt, sorgt in der Praxis immer wieder für Überraschungen. Wer denkt zum Beispiel beim Thema Sicherheit im Cloud-Archiv an die Besuchertoilette? Ein Pentester verschaffte sich im Juli 2022 Zugang in ein gesichertes Rechenzentrum – ganz einfach über eine öffentliche Toilette, die er zuvor im Gebäudeplan ausfindig gemacht hatte.

Die nächste Frage: Wie ist der Brandschutz des Rechenzentrums aufgebaut, in dem die Dokumentenmanagement-Lösung gehostet wird? Hier gibt es verschiedene Ansätze. Manche Serverräume sind so ausgestattet, dass ein Brand gar nicht mehr entstehen kann, zum Beispiel durch einen permanent niedrigen Sauerstoffgehalt in der Luft. Andere Serverräume verfügen über ein Brand-Früherkennungs-System. Bei einem ausgelösten Alarm wird der Raum mit Gas geflutet, um den Brand sofort im Keim zu ersticken. Idealerweise werden Serverdaten beim Hosting-Anbieter über verschiedene Brandschutzzonen hinweg doppelt gespeichert. Noch sicherer ist die Aufbewahrung der Serverdaten in verschiedenen Gebäuden mit ausreichend räumlicher Trennung.

Tipp 2 – Die beste Absicherung: Das Backup

Das A und O der Absicherung: Ein Cloud-Backup. Dies stellt jeder Anbieter zur Verfügung und sollte beim Auswahlprozess ganz oben bei den Prioritäten stehen. Nur durch ein entsprechendes Backup-System sind die auf den Servern gespeicherten Daten wirklich sicher. Viele Anbieter testen jedoch nie, ob Unternehmen ihre Daten im Notfall zurückbekommen. Beispiel: Das klassische Tape-Backup. Geschieht die Überschreibung der Tapes schon zum 160sten Mal, kann es beim Auslesen der Tapes und der Datenrekonstruierung zu Schwierigkeiten kommen. Service Level Agreements (SLA) decken solche Fälle in der Regel ab. Die Gewährleistung einer Serververfügbarkeit und Datensicherheit von 99,9 Prozent hört sich zunächst nicht schlecht an – ist aber wertlos, wenn die Unternehmensdaten am Schluss trotzdem weg sind.

Entscheidend ist daher ein verlässliches Backup, ein System mit einem vollständigen Datenbestand. In Unternehmen kommen völlig unterschiedliche Systeme zum Einsatz und die verschiedensten Objektdaten fallen an. Zum Beispiel erfolgt die Referenzierung von PDF- oder Word-Dokumenten aus unterschiedlichen Datenbanken heraus. Eine logisch sinnvolle Überführung bei der Datensicherung garantiert im Notfall eine vernünftige Wiederherstellung dieser unterschiedlichen Datentöpfe. Ein gutes Backup enthält auch Mechanismen, um Datenveränderungen zu erkennen. Damit wird sichergestellt, dass die Datenbank noch in Betrieb oder das Word-Dokument in unveränderter Form auch nach Jahren noch vorhanden ist.

Tipp3 – Zertifikate: Hilft viel wirklich viel?

Viele Rechenzentrumsbetreiber verweisen auf ihre zahlreichen Zertifikate. Nicht immer ist eine Zertifizierung jedoch ein Garant für eine vernünftige Leistung. Ja, Zertifikate sind wichtig. Sie zeigen beispielsweise, dass der Rechenzentrumsbetreiber einen überprüften Brandschutz hat, die Stromversorgung sauber ausgelegt ist und die Dieselaggregate im Notfall funktionstüchtig sind. Dennoch sollten Unternehmen genau prüfen, ob sich das vom Anbieter angepriesene Zertifikat auch tatsächlich auf den gewünschten Service oder auf einen ganz anderen Bereich bezieht.

Ein wichtiger Standard in Sachen Daten- und Cloud-Sicherheit ist ISO 27001. Dieses Zertifikat betrifft das Risikomanagement: Hat der Anbieter mögliche Risiken identifiziert und stimmt die Dokumentation für den Notfall? Wenn ein Mitarbeiter erkrankt, muss dessen Know-how sauber dokumentiert und die Vertretung geregelt sein. Wenn ein Server kaputt geht oder es brennt, müssen die einzuleitenden Maßnahmen ebenfalls bekannt sein. Risikomanagement heißt, der Anbieter hat das Risiko identifiziert und Maßnahmen ergriffen, die im Notfall das Risiko mitigieren. Das bedeutet, ein Risiko wird verkleinert oder komplett ausgeschaltet, zum Beispiel durch Redundanzen oder durch saubere Prozesse. Durch solche Vorbereitungen werden Servicelevel beschrieben und erbracht.

Die Compliance ist also wichtig und zeigt, wie ein Rechenzentrumsanbieter intern arbeitet. Kunden sollten sich trotzdem immer fragen, was diese Zertifizierungen tatsächlich bringen und wie es im Ernstfall mit der Lösungskompetenz und Flexibilität von Cloud-Providern aussieht. Nicht alle Probleme sind im Vorfeld definiert. Im Krisenfall zeigt sich, ob der Provider versteht, wie das System funktioniert und vor allem die Auswirkungen auf den Kunden. SLAs und die Einhaltung branchenweiter Standards gehören zu den Mindestanforderungen. Echte Datensicherheit setzt jedoch darüber hinaus smarte Workarounds voraus, die zeitnah und effektiv zur Verfügung stehen.

Tipp 4 – Was ist besser: Infrastructure as a Service oder Managed Service?

Infrastructure as a Service (IaaS) ist in aller Munde. Jeder Cloud-Provider bietet virtuelle Maschinen oder Services zur Miete an. Bei IaaS kümmert sich ein Unternehmen nicht mehr um die physikalischen Server, um eigene Anwendungen zu betreiben, sondern mietet diesen Service. Das entbindet das Unternehmen natürlich nicht von der Verantwortung.

Vielen Unternehmen fehlt ein tiefergehendes Wissen zum selbständigen Aufbau und Betrieb einer umfassenden virtuellen IT-Infrastruktur. Sie buchen deshalb Lösungen gleich als Managed Service. Bei diesem Service entwickelt der Provider interaktiv mit seinem Kunden ein Konzept zum Aufbau der Infrastruktur. Der Provider erhält einen gewissen Einblick in die Anwendungen eines Unternehmens, um die Infrastruktur daran anzupassen. Das Unternehmen kennt seine Software in und auswendig, während der Provider wiederum weiß, wie schnell zum Beispiel seine Datenspeicher und Netzwerke sind. So wird gemeinsam die optimale Lösung gefunden. Dazu zählen nicht nur technische, sondern auch finanzielle Aspekte. Technologisch immer auf dem neuesten Stand zu sein, muss auch bezahlbar bleiben. Das gehört bei einem Managed Service mit dazu.

Sicher mit entsprechenden Sicherheiten: Auf in die Cloud

Ein Datenverlust sollte nicht unterschätzt werden. Was für große Unternehmen bereits äußerst schmerzhaft ist, kann kleine und mittelständische Unternehmen innerhalb kürzester Zeit in die Knie zwingen. In diesem Sinne ist und bleibt die Frage nach Sicherheit in der Cloud berechtigt. Die gute Nachricht: Smarte Lösungen für Dokumentenmanagement und Archivierung bieten heute bereits umfassende Maßnahmen. Dazu gehören Hochverfügbarkeitsserver in deutschen Hochsicherheits-Rechenzentren und mit AES 256 verschlüsselte HTTPS-Verbindungen, um sowohl die Cloud Archivierung selbst als auch alle Übertragungswege wirkungsvoll vor unberechtigtem Zugriff und Datenverlust zu schützen. Damit steht dem Weg in die Cloud – und für digitale Geschäftsprozesse in der Beschaffung, im Vertragsmanagement oder auch im Personalwesen – nichts mehr im Weg.

Zum Autor:

Christoph Nordmann leitet die Unternehmenskommunikation der EASY SOFTWARE AG. Mit Stationen im Gesundheitswesen und der herstellenden Industrie in der Schweiz, den Niederlanden und Deutschland verfügt er über umfangreiche Erfahrungen im Aufbau und der Leitung von Kommunikationsabteilungen und der Begleitung von Change-Prozessen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Zukunft der Ernährung: Pilze können mehr

Über die spannende Zukunft der Ernährung – insbesondere vor dem Hintergrund von mehr Nachhaltigkeit – sprachen wir mit der Vice President of Product von Mushlabs, Cathy Hutz.

Frau Hutz, was ist die Vision hinter Mushlabs?
Unsere Vision ist es, dass jeder Mensch, unabhängig von geographischen, politischen oder sozio-ökonomischen Umständen Zugang zu gesunden, vollwertigen und nachhaltigen Lebensmitteln hat. Wir wollen dies durch die Fermentation von Speisepilzen erreichen. Dafür kultivieren wir das Myzel, das unterirdisch wachsende Wurzelgeflecht der Pilze, in einer Nährlösung in Fermentern. Sobald das Myzel nach wenigen Tagen zur Ernte bereit ist, verwenden wir es anschließend als Hauptzutat in unseren Lebensmitteln, derzeit handelt es sich dabei vor allem um Fleischalternativprodukte. Dieser Ansatz bringt viele Vorteile mit sich: Ein Fermenter arbeitet unabhängig von den herrschenden Umwelteinflüssen und kann daher überall aufgestellt werden. Unser Pilzmyzel können wir mit lokalen Nebenerzeugnissen aus der Agrar- und Lebensmittelindustrie füttern. All das ermöglicht den Aufbau einer dezentralen und lokal ausgerichteten Produktion. Dadurch wollen wir unsere Produkte nicht nur nachhaltiger produzieren, indem wir bspw. Transportstrecken so gering wie möglich halten, sondern auch zu möglichst erschwinglichen Preisen anbieten. Zudem können wir so robuste Produktionsprozesse schaffen und die lokale Versorgungssicherheit verbessern.

Cathy Hutz, Co-founder von Mushlabs sieht die Fermentation von Myzel für Fleisch und Fleischersatz für den industriellen Maßstab geeignet.

Insbesondere Fleisch und Fleischersatz hat einen hohen CO2-Fußabdruck. Wie gestaltet sich das bei Ihrer Methode und in welchen Mengen kann skaliert werden?
Fermentation, insbesondere mit Verwendung von Nebenerzeugnissen aus der Agrar- und Lebensmittelindustrie, ist weltweit eines der nachhaltigsten und effizientesten Verfahren zur Lebensmittelherstellung. Wir können alle Ressourcen mit maximaler Effizienz nutzen und so Zeit, Energie, Wasser und CO2 sparen. Für uns ist es aber auch wichtig, Nachhaltigkeit über CO2 hinaus zu betrachten. Wir brauchen in unserem Produktionsprozess wenig Flächennutzung und setzen keinerlei Pestizide oder Düngemittel ein. Damit geben wir vor allem Raum für mehr Artenvielfalt, welche für das Gleichgewicht unseres Planetens essentiell ist und in eine problematische Schieflage geraten ist.
Konkrete Zahlen zu unserem CO2 Fußabdruck können wir geben, sobald sich das Produkt auf dem Markt befindet und der gesamte Prozess auf industriellem Level etabliert ist. Unseren Produktionsprozess haben wir bereits auf industriellem Maßstab in diversen Testläufen bewiesen, die Umsetzbarkeit ist demnach sicher.

Die weltweite Ernährung insbesondere in Entwicklungs- und Schwellenländern wird zunehmend zur Herausforderung. Welchen Beitrag könnten Sie dazu in Zukunft leisten?
Wie bereits beschrieben kann unsere Produktionstechnologie unabhängig von Umwelteinflüssen überall auf der Welt eingesetzt werden. Zudem können lokale Nebenerzeugnisse aufgewertet und für die Kultivierung von Myzel in Fermentern vor Ort genutzt werden. All das kann unser derzeitiges Lebensmittelsystem positiv beeinflussen und es fairer, effizienter, nachhaltiger und sicherer machen.

Wie sehr waren diese Faktoren aus Ihrer Sicht entscheidend für den Einstieg des EIC-Accelerator?
Entscheidende Kriterien für die Auswahl für die EIC Förderung sind die Bereitstellung einer innovativen und strategisch relevanten Technologie für Europa, ein hervorragendes Scale-up-Potential, eine gut durchdachte Kommerzialisierung-Strategie und ein Beitrag für die Erreichung der Sustainable Development Goals. Wirtschaftlichkeit, Innovativität und Nachhaltigkeit müssen Hand in Hand gehen.

Bitte geben Sie uns einen kurzen Ausblick, wie sich Ihr Unternehmen weiterentwickeln könnte, gerade in dieser herausfordernden Zeit.
Aktuell befinden wir uns in der Kommerzialisierungsphase. Wir sind dabei, das Upscaling unserer Produktionsprozesse auf ein industrielles Level abzuschließen, Partnerschaften mit großen Unternehmen in Europa, den USA und Asien zu vereinbaren und die Markteinführung unseres ersten Produkts vorzubereiten. Die Herausforderungen an die Agrar- und Lebensmittelindustrie waren selten höher: steigende Energiekosten, Verknappung von Ressourcen, klimatische Veränderungen. Wir können dabei helfen, auf all das eine Antwort zu finden. Daher halten wir unsere Arbeit für wichtiger denn je.
Zudem wollen wir unser Team weiterhin so stark wachsen lassen wie bisher. Für nahezu jeden Bereich in unserem Unternehmen suchen wir weitere versierte Experten aus aller Welt. Aktuell arbeiten bei Mushlabs 50 Mitarbeiter aus über 20 Ländern.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Big Data und die Datafizierung der Welt

von Klaus Wiegerling

Ethische Grundprobleme im Umgang mit großen Datenmengen

Die moderne Informatik entstand aus einer Zusammenführung mathematischer und ingenieurswissenschaftlicher Interessen, was sich im Namen der Disziplin artikuliert, der sowohl den Zusammenhang von Information und Mathematik als auch von Information und Automation zum Ausdruck bringt. Von ihren Anfängen an ist sie durch vier Charakteristika gekennzeichnet:

a) Datafizierung
b) Digitalisierung
c) Formalisierung
d) Automatisierung

Datafizierung meint, dass die physikalische Außen-, die soziale Mit- und die psychische Innenwelt in Symbole bzw. berechenbare Zahlenwerte übertragen werden können, was zum Teil über sensorische Erfassungsapparaturen geschieht.

Digitalisierung meint, dass alle im Computer verfügbaren Daten miteinander verknüpft bzw. Datensätze durch Berechnungsvorgänge einer Analyse unterzogen werden können. Digitalisierung bedeutet der kalkulierende Umgang mit Daten.

Formalisierung meint, dass alle Weltverhältnisse auf eine formale Ebene übertragen werden können und dort zum Zwecke des Verstehens oder der Steuerung dieser Verhältnisse einem Kalkül unterworfen werden. Der informatische Informationsbegriff ist ein inhaltlich unbestimmter statistischer Begriff. Inhalte spielen nur vor dem Input und nach dem Output, nicht in der ‚Black Box‘ des Rechners, in der die Berechnungen stattfinden, eine Rolle.

Automatisierung meint, dass informatische Systeme den Menschen in allen Bereichen des Lebens entlasten und ihm neue Handlungsmöglichkeiten gewähren können. Arbeits- und Organisationsprozesse sollen erleichtert und verbessert werden. Aus der Automatisierung erwächst die Idee einer autonomen Technik, die uns ohne ausdrückliche Bedienung begleitet.

Zum Inhalt dieses Beitrags
Big Data: Vision, Einbettung und Genese
Artikulation vs. Desartikulation
Widerständigkeitsverlust
Transformation der Wissenschaft
Entlastung vs. Entmündigung
Entethisierung und technische Autonomie
Wandel des menschlichen Selbstverständnisses
Maßstäbe der Beurteilung

Big Data: Vision, Einbettung und Genese

Moderne Big-Data-Technologien basieren auf unterschiedlichen informatischen Ideen. Diese werden z.B. unter Begriffen wie Ubiquitous Computing oder AmbientIntelligence diskutiert. Die Idee des Ubiquitous Computing wurde 1991 von Mark Weiser eingeführt. Er bediente sich eines Konzeptes der mittelalterlichen Metaphysik. Der lateinische Begriff ‚ubiquitas‘ (Allgegenwärtigkeit) ist ein Attribut Gottes, der allein überall und gleichzeitig wirken kann. Das Konzept wurde mit perspektivischen Verschiebungen auch unter anderen Schlagworten (Pervasive Computing, Internet der Dinge) diskutiert. Es betont, dass die gesamte Mesosphäre [1] eine informatische Ausstattung erfahren soll, die uns jederzeit dienstfertig zur Verfügung steht. ‚AmbientIntelligence‘ betont die Vertraulichkeit von Informationen; der englische Begriff ‚intelligence‘ wird auch im Kontext geheimer, vertraulicher Tätigkeiten gebraucht: nicht jedes Datum steht jedem zur Verfügung.

Die unter Weisers Idee gefassten Konzepte zeichnen sich durch folgende Merkmale aus: weitgehendes Verschwinden von Hardwarekomponenten und der Mensch-System-Schnittstelle; Adaptivität und Smartness; Selbstorganisiertheit und Kontextwahrnehmung; informatische Aufladung der Mesosphäre; ubiquitäre Nutzbarkeit sowie die handlungsrelevante Verknüpfung lokaler und globaler Informationen.

Big Data erweitert die Idee der ubiquitären Nutzung von Systemtechnologien dahingehend, dass mit einem ständig wachsenden Datenmeer in einer Weise umgegangen werden soll, dass neue Welterkenntnisse in automatisierten Verfahren generiert werden – etwa wenn in der Medizin neue Relationen von Vitaldaten erkannt werden. Mit Big Data wird sowohl ein Erkenntnisanspruch als auch ein pragmatischer Anspruch verbunden. Letzterer artikuliert sich z.B. in der Idee eines maschinellen Lernens, das selbständig Probleme zu lösen vermag.

Mit Big Data wird sowohl ein Erkenntnisanspruch als auch ein pragmatischer Anspruch verbunden. Letzterer artikuliert sich z.B. in der Idee eines maschinellen Lernens, das selbständig Probleme zu lösen vermag.

Prof. Dr. Klaus Wiegerling

Mit Hilfe von Big-Data-Algorithmen soll eine datengetriebene Wissenschaft etabliert werden, die sogar die Kulturwissenschaften auf eine neue Exaktheits- und Präzisionsebene hievt, und neue Objektivitätsansprüche bis hin zur Idee einer automatisierten Wissenschaft erhebt, die sich subjektiver Ingredienzen menschlicher Akteure entledigt. Die Idee eines maschinellen Lernens, das auf dem Konzept neuronaler Netze aus den 1980er Jahren basiert, treibt die Vision einer automatisierten Wissenschaft an.

Schauen wir auf Probleme bei der Analyse und Nutzung großer Datenmengen, die v.a. aufgrund von Geltungsansprüchen zu ethischen Konflikten führen können.

Artikulation vs. Desartikulation

Mit Big Data ist eine ‚Massenideologie‘ verbunden, die daraus resultiert, dass man glaubt a) Daten wie einen unbehandelten Rohstoff behandeln und b) mit mehr Daten zwangsläufig zu präziseren Ergebnissen und letztlich einem digitalen Double wirklicher Verhältnisse gelangen zu können.

In den 1990er Jahren wurde die Rede von der Informationsgesellschaft durch die von der Wissensgesellschaft abgelöst. Während man erstere als eine Gesellschaft des Sammelns von Informationen als bewertete Daten sah, verstand man unter Wissensgesellschaft eine Gesellschaft, die Informationen zum Zweck der Anwendung des Wissens hierarchisiert und relationiert. Die aktuelle Rede von der Datengesellschaft unterbietet die von der Informationsgesellschaft, insofern es jetzt um das Sammeln unbewerteter Daten geht. Diese Rede gründet jedoch in einem Missverständnis. Daten sind Ergebnis eines Sammelprozesses, der gerahmt ist, zum einen durch die Intention der Datensammler, zum anderen durch die daran ausgerichtete Sensorik. Überall wo Daten erhoben werden, findet ein Selektionsprozess statt. Daten werden als relevant innerhalb eines Erfassungsbereichs gesammelt und artikuliert oder als irrelevant desartikuliert. Wie bei einem Richtmikrofon werden Störgeräusche quasi herausgefiltert. Wenn ein Unternehmen Datensätze, die für seine Zwecke nicht mehr nutzbar sind, veräußert, kauft das daran interessierte Unternehmen keinen Kessel Buntes, sondern Daten, deren Rahmung für es von Interesse ist. Der Wert einer Datensammlung ergibt sich aus der Sammelintention und der damit verbundenen Rahmung.

In allen Datenerfassungsprozessen spielt die Artikulation und Desartikulation von Daten eine entscheidende Rolle, was auch für Erkenntnisprozesse gilt. Erkenntnis ist Ausdruck von Artikulationen und Desartikulationen. Deshalb ist es auch falsch anzunehmen, dass ein ‚mehr‘ an Daten automatisch zu besseren Einsichten oder gar zu einem Double der Weltverhältnisse führt. Man kann die Welt nicht verdoppeln, sie ist sowohl im Mikrobereich als auch im Makrobereich unendlich differenzier- bzw. relationierbar. Jeder Zugriff auf Daten ist ein perspektivischer. Sammelprozess wie Erkenntnis sind an Intentionen gebunden. Die Bewertung von Sachverhalten und die damit einhergehende Einrichtung der Datenerfassungssysteme gehen jedem Sammelprozess voraus.

Widerständigkeitsverlust

Das grundlegendste Problem ergibt sich aus dem Versuch große Datenmengen zu nutzen, um uns mit Hilfe ihrer permanenten Analyse und selbständig agierender Systeme von der Widerständigkeit der Welt zu befreien. Fortgeschrittene Informationstechnologien sollen uns quasi in ein Schlaraffenland führen, in dem uns die gebratenen Tauben zum Mund fliegen.

Wirklichkeit ist an die Erfahrung von Widerständigkeit gebunden, die unserem Form- bzw. Konstruktionswillen widerstreitet und auch keinem Kalkül unterworfen werden kann. Dilthey brachte den im 17. Jahrhundert beginnenden Widerständigkeitsdiskurs auf den Punkt als er Wirklichkeit als Widerstand gegen unseren Formwillen fasste. Der Diskurs, der v.a. am Übergang vom 19. auf das 20. Jh. über die Frage nach der Wirklichkeit der Außenwelt geführt wurde, kann jedoch nicht auf eine physikalische bzw. physiologische Dimensionen beschränkt werden, sondern muss auch soziale, psychologische oder ideelle bzw. logische Dimensionen einschließen. Soziale Widerständigkeit artikuliert sich z.B. in Institutionen, psychische in Handlungsblockaden und ideelle oder logische in axiomatischen Bedingungen, gegen die man nicht verstoßen kann, ohne die Theorie selbst ad absurdum zu führen.

Mit dem Widerstandsverlust geht ein Wirklichkeitsverlust einher. Wenn Technologien uns die Widerständigkeit einer Sache nicht mehr wahrnehmen lassen, können wir sie auch nicht mehr kontrollieren. War die gut sitzende Brille, die ich als Medium nicht mehr spüre, das Ideal einer integrierten Technik, so ist dieses Ideal im Zeitalter der informatischen Durchdringung der Welt zum Problem geworden. Wenn Technologie uns die Widerstandserfahrung nimmt, werden der Manipulation Tür und Tor geöffnet.

Der Glaube, dass aufgrund der Verarbeitung großer Datenmengen zuletzt auch das Ereignishafte und Singuläre, also das Historische, vorhersagbar wird, ist ein Missverständnis. Jede wissenschaftliche Analyse führt nur zu einer Typologie, nicht zum Singulären oder Ereignishaften.

Wir können auch nur mit endlich vielen Daten rechnen. Sachverhalte sind aber in unendlich vielen Perspektiven und Relationen fassbar. Wir kommen nie zur Sache an sich. Diese lässt sich nie vollständig in einem Kalkül erfassen. Was einem Kalkül unterworfen werden kann, ist, was aus einem perspektivischen Zugriff auf die Sache an Daten geliefert wird. Der Zugriff aber ist Ergebnis einer vorgängigen Bewertung der Sache.

Transformation der Wissenschaft

Werfen wir einen Blick auf die Auswirkungen von Big-Data-Technologien auf die Entwicklung von Wissenschaften. Es gibt eine Tendenz Wissenschaft als datengetriebene Tätigkeit zu etablieren. Man glaubt so die chronische Unschärfe der Geisteswissenschaft beseitigen und sie als ‚Digital Humanities‘ in eine ‚exakte‘ Wissenschaft transformieren zu können, deren Ergebnisse ähnlich wie in den Naturwissenschaften nachvollzogen werden können. Die Idee der Datengetriebenheit impliziert noch eine weitere Intention: Wissenschaft soll im Sinne einer automatisierten Wissensgenerierung betreiben werden, die Ergebnisse liefert, die von subjektiven Einsprengseln gereinigt sind. Vergessen wird dabei, dass sich Daten aus perspektivischen Zugriffen zu einem bestimmten Raum- und Zeitpunkt auf die Welt ergeben.

Für die aufgrund von Quelleninterpretationen zu ihren Ergebnissen gelangenden Geisteswissenschaften gilt freilich, dass man mit Hilfe von große Datenmassen verarbeitenden Informationssystemen die Quellenrezeption verbessern kann, etwa indem man Wortschatzanalysen macht oder Textabgleiche vornimmt. Das Ergebnis kommt aber letztlich durch die auslegende Positionierung des Wissenschaftlers zustande. Er muss die Relevanz der Quelle für seine Zeit nachweisen und seine eigene Position v.a. gegenüber seinen Fachkollegen begründen. Dies tut er mit den genutzten Quellen aufgrund einer bestimmten Bewertung, also Hierarchisierung und Relationierung von Daten. Wie aber sollen wir uns eine historische Positionierung einer Systemtechnologie vorstellen, wie ihr Selbstverständnis als historische Entität? Es gibt in der ‚Sozialen Robotik‘ Überlegungen robotische Systeme mit einer eigenen Geschichte auszustatten, indem das an einem bestimmten Ort und zu einer bestimmten Zeit Daten erfassende und interagierende System seine spezifischen ‚Erfahrungen‘ in abrufbarer Weise speichert. Das ‚individualistisch‘ konzipierte System wäre dann zwar an bestimmte Handlungssituationen und Handlungspartner adaptiert, seine Ergebnisse und Aktionen wären dann aber nicht mehr so angelegt, dass sie das Situative auf ein Allgemeines transzendieren. Allgemeingültige Befunde würden nicht mehr notwendigerweise geliefert werden. Dies mag in Alltagssituationen nützlich sein, nicht aber brauchbar in wissenschaftlichen Kontexten oder Krisen.

Die Idee einer automatisierten Wissenschaft konterkariert, was Wissenschaft auszeichnet, nämlich die ständige Kritik an bestehenden Ergebnissen. Zum einen fehlt bei einer automatisierten Wissensgenerierung der Adressat der Kritik, zum anderen ist schwer vorstellbar, wie das Ergebnis eines Systems durch ein anderes System kritisiert und bewertet werden soll. Jede Bewertung setzt voraus, dass der Bewertende eigene Intentionen artikuliert und verfolgt. Wie aber soll ein System, das unser Werkzeug ist, zu einer eigenen Intention gelangen? Und wenn es diese Intention verfolgte, wie könnte es zu einer historischen und kritischen Einschätzung von Befunden gelangen? Und warum sollte es uns nicht die Unterstützung versagen, wenn die eigenen Intentionen mit den unsrigen nicht übereinstimmen?

Moderne IuK-Technologien lassen sich zum einen als Schlaraffenlandtechnologien beschreiben. Die ganze Welt soll smart und problemlos handhabbar werden, soll sich unseren Wünschen adaptieren und alles zu unserem Besten regeln.

Entlastung vs. Entmündigung

Überlastung ist eine Grundbefindlichkeit in einer hochkomplexen modernen Informationsgesellschaft. Wie Suchmaschinen uns die schnelle Nutzung des Datenmeers Internet ermöglichen, so sollen uns Big-Data-Technologien im beruflichen und privaten Alltag schnelle Unterstützung gewähren.

Der Entlastung korrespondiert ein Entmündigungspotential. Moderne IuK-Technologien lassen sich zum einen als Schlaraffenlandtechnologien beschreiben. Die ganze Welt soll smart und problemlos handhabbar werden, soll sich unseren Wünschen adaptieren und alles zu unserem Besten regeln. Wünsche sollen mit anderen bzw. allgemeinen Interessen einmoderiert werden und zwar möglichst so, dass wir davon nichts merken.

Zum anderen lassen sich fortgeschrittene IuK-Technologien als Zauberlehrlingstechnologien beschreiben, die sich unserer Kontrolle entziehen. Eine Technologie, die selbständig für uns Dinge erledigen soll, kann schon deshalb nicht mehr vollkommen kontrolliert werden, weil eine totale Kontrolle die Entlastungsfunktion konterkarieren würde. So entlasten uns moderne Systemtechnologien, nehmen uns zugleich aber auch Entscheidungen ab, womit sie zumindest potentiell unsere Autonomie gefährden. Zwar laufen nicht alle Entlastungsformen, wie im Falle eines ABS-Systems, unseren Intentionen zuwider, es gibt aber welche, die Entmündigungen gleichkommen, wenn sie dazu beitragen, dass wir unser Leben nicht mehr führen. Exemplarisch lässt sich dies an Pflegesystemen zeigen, die eine Möglichkeit des Ausstiegs aus der Systemunterstützung nicht mehr anzeigen – mit der Begründung, dass dies für Nutznießer, Pflegekräfte, Angehörige und die Gesellschaft so am besten sei.

Entethisierung und technische Autonomie

Die Idee technischer Autonomie widerstreitet der Autonomie des Nutzers. Von echter Autonomie zu sprechen verbietet sich hier schon deshalb, weil sie keine eigenen Intentionen verfolgt. Würde sie das tun, wäre sie nicht unser Werkzeug. Ein System trifft im eigentlichen Sinne auch keine Entscheidung, weil es im Sinne Peter Janichs weder Folgenverantwortlichkeit noch Zwecksetzungsautonomie kennt. Ein System rechnet und ‚entscheidet‘ sich für das Richtige oder Wahrscheinliche. Von Systementscheidung bei Scoringverfahren lässt sich nur sprechen, insofern wir die ‚Entscheidung‘, die aus einem Rechenergebnis erfolgt, als solche anerkennen. Die Gründe für die Entscheidung liegen aber bei denen, die das System einrichten oder nutzen. Prinzipiell lässt sich sagen, dass je größer die ‚Autonomie‘ einer Systemtechnologie ist, desto mehr Einbußen unsere eigene Autonomie erleidet. Wenn aber Verantwortlichkeit des Handlungssubjekts, Bestimmung der Wirklichkeit, in der gehandelt werden soll, und Wahl die Voraussetzung für einen ethischen Diskurs sind, so zeigt sich, dass technische Autonomie zu ethischen Konflikten führen kann, wenn sie uns ethische Probleme nicht erkennen lässt, sie umschifft oder verbirgt.


Über den Autor

Prof. Dr. Klaus Wiegerling
war bis Ende 2019 am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT Karlsruhe tätig, seit 2020 in Pension. Er lehrt an der TU Kaiserslautern, der TU Darmstadt und der HDM Stuttgart.
E-Mail: wiegerlingklaus@aol.com


Wandel des menschlichen Selbstverständnisses

So kann es infolge der Nutzung auf Big-Data-Algorithmen beruhender, vermeintlich autonom agierender Systemtechnologien zu Verschiebungen des menschlichen bzw. gesellschaftlichen Selbstverständnisses kommen. Wenn der Mensch nur noch als Datensatz gesehen wird, der in ein digitales Double gebannt werden kann, wird er zur berechenbaren Größe. Dass ein Datendouble unerreichbar bleibt, gründet in der Widerständigkeit und damit Wirklichkeit unserer Existenz, die sich einem Kalkül entzieht. Unser Menschenbild, das auf der antiken Logostradition, der christlichen Tradition der Gottesebenbildlichkeit und der Tradition der Aufklärung basiert, artikuliert sich v.a. in drei Momenten: der Würde als Ausdruck der unverhandelbaren Einzigartigkeit des Individuums, der Autonomie als Ausdruck der Fähigkeit die Dinge des eigenen Lebens zu entscheiden und es selbständig zu führen, und schließlich die auf die Gesellschaft verweisende Subsidiaritätsidee als Ausdruck einer Absicherung gegenüber gesellschaftlicher Bevormundung einerseits und eines Beteiligungsgebots andererseits.

Das Selbstverständnis wandelt sich dahingehend, dass sich der Mensch zunehmend als eine berechenbare Entität begreift. Mediziner beklagen, dass Patienten immer öfter eine instantane Gesundung erwarten. Der Arzt soll medikamentös oder durch minimalinvasive Eingriffe den Schalter umlegen und so Gesundheit wieder herstellen. Sogar in seiner historischen Kontingenz glaubt man den Menschen zum berechenbaren Objekt machen, also vollkommen versachlichen zu können. Die Rede einer auf Comte zurückgehenden ‚social physics‘ illustriert diese Tendenz. Gesellschaftliche Verhältnisse geraten unter die Walze eines ‚social engineerings‘, das Gesellschaft als gestalt- und steuerbare Masse begreift. Systemvorgaben werden als überlegener Vernunftausdruck gesehen. Infolge der zunehmenden Aufrüstung der Menschen mit intelligenten Implantaten und Prothesen begibt man sich auf den Weg ihn nicht nur physiologisch einem Kalkül zu unterwerfen. Die vom Menschen hervorgebrachten Artefakte scheinen ihn überflügelt zu haben. Das sich im Wandel befindliche Menschenbild hat Auswirkungen auf unseren Alltag, etwa wenn Krankheit als Präventionsversäumnis mit Schuld gekoppelt oder eigene Willensentscheidungen als gesellschaftliche Störgrößen wahrgenommen werden.

Die Maßstäbe einer ethischen Beurteilung von Big-Data-Technologien sind dieselben, die an alle fortgeschrittenen Informationstechnologien anzulegen sind.

Maßstäbe der Beurteilung

Die Maßstäbe einer ethischen Beurteilung von Big-Data-Technologien sind dieselben, die an alle fortgeschrittenen Informationstechnologien anzulegen sind. Immer geht es dabei um die Frage, ob durch die Nutzung einer Technologie die Bedingungen eines ethischen Diskurses oder die Leitwerte unseres Selbstverständnisses Würde, Autonomie und Subsidiarität gefährdet, in ihrer Realisierung erschwert oder gar verunmöglicht werden.

Zu den Bedingungen des ethischen Diskurses gehört, dass es ein handelndes, also verantwortliches, Zwecke setzendes und zur Mittelwahl befähigtes Wesen gibt. Ein ethischer Diskurs ist nur möglich, wenn die Identität des Handlungssubjekts gewahrt, die Wirklichkeit, in der gehandelt werden soll, bestimmbar und es für das Handlungssubjekt eine zu verantwortende Wahl gibt.

In normativer Hinsicht ist zu fragen, ob die Würde und Autonomie des Handlungssubjekts gefährdet und die Möglichkeit einer subsidiären Gesellschaftsorganisation aufgehoben wird. Würde kann gefährdet sein, wenn der Mensch durch technische Anwendungen nicht mehr in seiner Einzigartigkeit gesehen wird, Autonomie, wenn es zu einem Widerstreit zwischen der Autonomie des Menschen und der von ihm hervorgebrachten Artefakte kommt, und Subsidiarität, wenn menschliches Handeln durch systemische Regelfunktionen und Automatismen ersetzt wird.

Fußnoten

[1] Die Mesosphäre ist die Sphäre, in der wir unmittelbar agieren können, ohne mediale Hilfsmittel, ohne Werkzeuge, sozusagen die natürliche Lebenssphäre (die freilich nicht mehr so natürlich ist). Wir können diese Sphäre sinnlich erfassen und in ihr quasi körperlich wirken. Davon unterscheidet man die Makrosphäre, etwa das Gebiet der Astrophysik und die Mikrosphäre, etwa das Gebiet der Atomphysik oder Mikrobiologie, in der man ohne Hilfsmittel weder etwas wahrnehmen, noch in ihr agieren kann. Der Begriff spielt insbesondere in der Anthropologie eine Rolle.

Vertiefende und weiterführende Literatur

Wiegerling, Klaus / Nerurkar, Michael / Wadephul, Christian (2020) (Hrsg.): Datafizierung und Big Data: Ethische, anthropologische und wissenschaftstheoretische Perspektiven, Springer VS Wiesbaden.

Wiegerling, K.: Umfassende IT-Systeme. In: Heesen, J.: Informations- und Medienethik, (Metzler) Stuttgart/Weimar 2016. S. 217-226.

Ders.: Daten, Informationen, Wissen. In: Rechtshandbuch Legal Tech (Hg. Stephan Breidenbach/ Florian Glatz). München. CH Beck 2018, S. 20-25.

Ders.: Ethische und anthropologische Aspekte der Anwendung von Big-Data-Technologien (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th.: Big Data und Gesellschaft. Eine multidisziplinäre Annäherung. Wiesbaden (Springer) 2018. S. 1- 74.

Ders.: Wissenschaft (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th. (Hg.): Big Data – Gesellschaftliche Herausforderungen und rechtliche Lösungen. (C.H.Beck) München 2019. S. 401-449.

Ders.: Ethische Fragen zu Big Data und Datafizierung in der Medizin. In: Manzeschke, A./ Niederlag, W.:Ethische Perspektiven auf Medizin- und Informationstechnik. Berlin 2020 (de Gruyter).

Dieser Beitrag stammt aus dem Kompendium Digitale Transformation
Kompendium Digitale Transformation von Matthias Schmidt wird unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedinungen 4.0 International lizenziert, sofern nichts anderes angegeben ist.

Zwischen Anspruch und Wirklichkeit: Das kann 5G     

 

Autor: Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland

Dem neuesten Mobilfunkstandard 5G werden Wunderkräfte zugesprochen. Er soll die Funklöcher in Deutschland stopfen, das Smartphone neu erfinden, die Industrie revolutionieren und sogar die Welt retten. Oder anders formuliert, für mehr Nachhaltigkeit, eine saubere Umwelt und soziale Gerechtigkeit sorgen. Nur: Viele Erwartungen an 5G sind überzogen, einige Vorstellungen sogar schlichtweg falsch. Fakt ist, der jüngste Mobilfunkstandard wird durch seine zuverlässige Abdeckung und die Möglichkeit, sehr viele Geräte zu unterstützen, die Einführung von Internet-of-Things-Services in vielen Industriezweigen massiv vorantreiben.

Er wird auch dazu beitragen, unternehmenskritische Anwendungen zu ermöglichen, bei denen eine Millisekunde Verzögerung teuer wird oder sogar die Sicherheit von Menschen gefährden kann. Und er kann helfen, die Umweltbelastung zu reduzieren: In der Landwirtschaft beispielsweise werden Pestizide normalerweise nicht nur auf befallenen Stellen aufgebracht, sondern das komplette Feld wird besprüht. Werden künftig autonome Landwirtschaftsmaschinen, Sensoren, GPS-Kameratechnik, Drohnen und eben 5G eingesetzt, lassen sich Änderungen von Pflanzengesundheit, Bodenqualität und Feuchtigkeit genau erkennen und bei Bedarf die exakte Menge an Pestiziden, Wasser oder Dünger ausbringen.

Schlüsseltechnologie für die Digitalisierung

Dieses Beispiel zeigt deutlich, dass 5G nur ein Puzzleteil in dem kompletten Maßnahmenkatalog ist. Ohne Künstliche Intelligenz, Big Data und Edge Computing beispielsweise fehlen die notwendigen intelligenten Algorithmen und Daten können nicht direkt vor Ort verarbeitet und ausgewertet werden. Zudem: Technologie bleibt Technologie. Wir Menschen treiben Veränderungen voran, indem wir unser Handeln überdenken und innovative Einsatzszenarien schaffen. Nun mag 5G keine Wunder vollbringen, trotzdem ist der Mobilfunkstandard eine entscheidende Schlüsseltechnologie für die Digitalisierung von Wirtschaft und Gesellschaft. Digitalisierung wiederum wird uns – verantwortungsvoll umgesetzt – dabei helfen, neue Konzepte in der Mobilität, im Gesundheitswesen, für die Städte der Zukunft und in vielen anderen Bereichen zu realisieren und damit unseren Nachhaltigkeitszielen näher zu bringen.


„Jetzt kommt es darauf an, nicht weiter auf der Bremse zu stehen, sondern den Wirtschaftsstandort Deutschland mit Innovationen zu stärken.“

Kai Grunwitz

Für mich lautet die Frage nicht: Kann 5G unsere Welt retten? Sondern vielmehr: Können wir es uns leisten, erst einmal abzuwarten und Investitionen in Geschäftsmodelle auf Basis des Mobilfunkstandards nach hinten zu schieben? Ich denke nein. Wir laufen längst Gefahr, den internationalen Anschluss zu verlieren und damit die Möglichkeit, etwas zu bewegen. Der Innovationsstandort Deutschland steht bei Zukunftstechnologien massiv unter Druck, betroffen hiervon sind speziell zwei der deutschen Exportmotoren: Industrie und Mobilität.

Dabei sind unsere Rahmenbedingungen eigentlich perfekt. Die Regierung hat mit extra reservierten Frequenzen für Unternehmen die Möglichkeit geschaffen, eigene Campusnetze mit all ihren Vorteilen umzusetzen. Natürlich lassen sich die Ausgaben für 5G-Anwendungen nicht aus der Porto-Tasche zahlen, mit dem richtigen Anwendungsszenario rechnen sie sich langfristig. Warum auch nicht über As-a-Service-Modelle nachdenken? Das heißt, Unternehmen erwerben lediglich eine Bandbreite im 5G-Netz – und zwar privat auf dem Campus –, anstatt es selber zu betreiben.

Bislang dominieren technische Themen und Bandbreitenaspekte die Diskussion rund um 5G. Davon müssen wir weg und hin zu einem Verständnis darüber, welche innovativen Anwendungsfälle und Möglichkeiten durch die Nutzung der jüngsten Mobilfunkgeneration und künftig sogar durch 6G möglich sind. Vieles klingt heute noch nach Science-Fiction, wird aber innerhalb der nächsten Jahre Realität werden und die Wirtschaft, die Gesellschaft und unser Leben verändern. Jetzt kommt es darauf an, nicht weiter auf der Bremse zu stehen, sondern den Wirtschaftsstandort Deutschland mit Innovationen zu stärken.

https://hello.global.ntt/de-de/

Über den Autor:

https://www.trendreport.de/kai-grunwitz/

Umsatz- und Gewinnsicherung in unsicheren Zeiten

Vier Möglichkeiten, wie digitale Unternehmen in volatilen Märkten Werte freisetzen können

von Carsten Pingel, VP Commercial Strategy & Execution bei Valtech

Es ist kein Geheimnis, dass sich die Marktbedingungen in den letzten Monaten erheblich verändert haben. Die hohe Inflation, die Auswirkungen des Krieges in der Ukraine und mehrere andere Faktoren wirken sich spürbar aus und führen zu den niedrigsten Wachstumsraten seit vielen Jahren.

Diese Entwicklungen stellen digitale Führungskräfte von heute vor neue Herausforderungen. Sie müssen sich einige schwierige Fragen stellen und genau definieren, worauf sie sich konzentrieren sollten – Kanäle, Kund:innen oder Produkte. Die Lösung in einer solchen Situation besteht darin, zu vermeiden, sich in umfassende strategische Änderungen zu stürzen. Stattdessen sollten Führungskräfte die Situation ganz genau analysieren, bevor sie ihre Bemühungen auf die Bereiche konzentrieren, die zu einer Freisetzung von Werten führen können und sowohl kurz- als auch langfristig Vorteile bieten.

Mit anderen Worten: Sie müssen ihre internen Abläufe kritisch hinterfragen und ihre Prioritäten und Aktivitäten neu ausrichten. Für die meisten wird die Antwort ein verstärkter Fokus auf Umsatz- und Gewinnsicherung sein – was im Allgemeinen bedeutet, Wege zu finden, um Kosten und Misswirtschaft zu reduzieren und gleichzeitig den Gewinn zu steigern.

Aber wie genau können digitale Unternehmen diese Ziele in Zeiten der Krise und Unsicherheit erreichen?

Werte in volatilen Märkten freisetzen

Wir glauben, dass es vier Gruppen von Aktivitäten gibt, die sich auf wichtige Geschäftstreiber konzentrieren und die Unternehmen priorisieren sollten, um Innovationen voranzutreiben und Werte in volatilen Märkten freizusetzen.




Unser Autor

Carsten Pingel
VP Commercial Strategy & Execution bei Valtech


https://www.valtech.com/de-de/


1. Investieren Sie in Kernerlebnisse und Kund:innen

Anstatt Kund:innen an einen wirtschaftlichen Abschwung zu verlieren, bieten Sie ihnen einen Mehrwert, der ihre Loyalität erhöht. Jedes digitale Unternehmen kann dies erreichen, indem es seinen Kund:innen zuhört und sich auf die Dinge konzentriert, die sie von der Konkurrenz abheben – beides ist in Zeiten der Volatilität von entscheidender Bedeutung.

Der erste Schritt sollte darin bestehen, bestehende Kundensegmentierungen neu zu bewerten und den Bedarf ihrer Zielkund:innen wieder genau zu verstehen. Diesen Ansatz verfolgte eine weltweit führende Uhrenmanufaktur und Luxusmarke. Durch die Erfassung von Erkenntnissen über wichtige Kundencluster aus Website-Besuchen und Umfragen, sowie die Identifizierung von Clustern für Personalisierungszwecke auf der Grundlage nicht identifizierbarer Daten, konnte das Unternehmen ein tieferes Verständnis seiner Kund:innen entwickeln. Somit ist es jetzt in der Lage, gezieltere Werbung einzusetzen und personalisiertere Erfahrungen auf der Grundlage von nicht persönlich identifizierbaren Informationen zu schaffen.

Denken Sie daran, dass die besten Kund:innen – d. h. diejenigen, die den höchsten Wert für jedes Unternehmen bieten – diejenigen sind, die immer wiederkommen. Deshalb ist es so wichtig, in die bestmögliche Erfahrung für diese Top-Kund:innen zu investieren. Jedes Unternehmen, das Kundeninteraktionen optimieren kann, um ein erstklassiges Nutzererlebnis zu bieten, wird mit Folgegeschäften belohnt – was kurzfristig einen Mehrwert schafft und das Geschäft zukunftssicher macht.

Damit verbunden ist die Reduzierung der Kundenabwanderung. Kein Unternehmen kann es sich leisten, während eines wirtschaftlichen Abschwungs bestehende Kund:innen zu verlieren. Unternehmen sollten daher überlegen, ob ihre Strategie primär auf die erste Konversion ausgerichtet sein sollte oder wirklich dahingehend optimiert, Kund:innen auf Dauer zu binden. Im ersten Fall wird die Herausforderung, ein sinkendes Interaktionsvolumen in Profit umzuwandeln, noch schwieriger.

2. Stellen Sie Marketingprioritäten in Frage

In herausfordernden Zeiten sollte der Fokus aus Marketingsicht darauf liegen, zu analysieren, wie digitale Unternehmen ihr Budget ausgeben, um sicherzustellen, dass die Ausgaben allgemeine Unternehmensprioritäten unterstützen. Dies beginnt mit der Optimierung des Akquisitionstrichters und einer detaillierteren Herangehensweise an bezahltes, digitales Marketing. Dies wird digitalen Unternehmen dabei helfen, Wachstumspotenziale und Bereiche zu identifizieren, die verbessert werden könnten.

Wenn beispielsweise Nachfrage und Lead-Generierung Schlüsselaktivitäten sind, konzentrieren Sie sich darauf, die Taktiken zu identifizieren, die sich als am effektivsten erweisen. Unternehmen sollten bereit sein, verschiedene Ansätze zu testen und diejenigen zu optimieren, die am besten funktionieren. Je mehr Granularität und Sichtbarkeit Unternehmen hinsichtlich der Qualität ihrer Leads und der Customer Journey haben, desto mehr Möglichkeiten haben sie, um ihre Erkenntnisse anzuwenden und den ROI weiter zu verbessern.

Die Optimierung des Marketing-Mix kann ein effektiver Weg sein, um die Qualität der Online-Session zu steigern und gleichzeitig die Kosten zu senken. Dies kann durch die Nutzung von Data-Science-Fähigkeiten erreicht werden, z. B. durch die Einrichtung sich selbst generierender Reports mit Empfehlungen zu Marketingausgaben und erwartetem Uplift. Diese Reports können dann als Teil der Marketingstrategie an die jeweiligen gebotsfähigen Medienabteilungen gesendet werden.

Natürlich kommen Marketingbudgets in schwierigen Zeiten immer auf den Prüfstand. Aus diesem Grund ist es wichtig, sich ein klares Bild von den Auswirkungen der Ausgaben auf das Endergebnis zu machen. Wo haben die Ausgaben die größte Wirkung? Was sind die wertvollsten Akquisitionskanäle? Sich die Zeit zu nehmen, um zu verstehen, ob die Marketingausgaben die Zielkunden tatsächlich erreichen, ist ein wichtiger erster Schritt zur Optimierung des Betriebs.

3. Etablieren Sie Daten als Schlüsselfaktor

Eine datengesteuerte Denkweise hilft Unternehmen, selbst in Zeiten der wirtschaftlichen Rezession mit maximaler Effizienz zu arbeiten. Dies ist die Grundlage für ein Verständnis der Marktsituation. Wenn ein externer Schock eintritt, müssen digitale Führungskräfte ihre Daten und Analysen verdoppeln, um zu verstehen, was passiert und warum.

Aus analytischer Sicht kann die Beherrschung dieser Disziplin neue Kunden- und Markteinblicke liefern und zuvor verborgene Werte aufdecken. Dies ist nur mit einer datengetriebenen Denkweise möglich, bei der Verhaltensdaten von Kunden und Website-Besuchern verwendet werden, um Hypothesen zu testen und Innovationen zu unterstützen.

Beispielsweise haben wir kürzlich an einem interessanten Datenprojekt mit einem globalen B2B-Hersteller und Lösungsanbieter für die Bau- und Infrastrukturbranche gearbeitet. Um den Start seines E-Commerce-Geschäfts in mehr als 20 Märkten zu unterstützen, haben wir alle relevanten Datenquellen (Traffic-Quellen, Webverhalten, Finanzsysteme usw.) verbunden, um die richtigen Berichte und Erkenntnisse zu liefern. Das ermöglichte es den globalen Teams des Unternehmens und den lokalen Märkten, ihre Abläufe auf der Grundlage von Fakten und relevanten datengestützten Erkenntnissen zu optimieren.

Und diese Denkweise sollte auf die gesamte Customer Journey angewendet werden. Mit Daten als Kernstück ihrer Geschäftstätigkeit, werden Unternehmen in der Lage sein, Möglichkeiten aufzudecken, um zusätzliche Einnahmen zu erzielen und Conversions zu maximieren, indem sie Best Practices anwenden und Prozesse zum Testen, Messen und Lernen einrichten. Dies gilt sowohl für marginale Gewinne als auch für größere Wachstumschancen, die beide dazu beitragen, die Konkurrenz zu übertreffen.

4. Überdenken Sie interne Arbeitsweisen

Bei den letzten Aktivitäten geht es darum, Unternehmen in hocheffiziente Maschinen zu verwandeln. Wenn sich beispielsweise die Marktbedingungen ändern und Budgets oder Ressourcen begrenzt sind, ist es wichtig, die Bemühungen auf die Bereiche zu konzentrieren, die die größte Wirkung erzielen.

Dies beinhaltet auch ein wichtiges operatives Element. Indem Ineffizienzen im Arbeitsablauf identifiziert werden und Unternehmen sich die Zeit nehmen, Prozesse zu verbessern oder anzupassen – sowie interne Strukturen und Hierarchien neu zu bewerten – sind sie bestens gerüstet, um jeden Sturm zu überstehen.

Die dänische Einzelhandelsmarke Coop ist ein perfektes Beispiel für ein Unternehmen, das seine interne Vorgehensweise angepasst hat, als es mit einem Rückgang der Online-Marktnachfrage konfrontiert wurde. Es konzentrierte seine Ressourcen und sein Personal auf funktionsübergreifende Gruppen mit dem Ziel, die kommerzielle Exzellenz in drei Schlüsselbereichen voranzutreiben: Preisgestaltung, Marketing und Sortiment. Diese organisatorische Änderung half Coop, die Verkaufsleistung zu optimieren und wichtige Erkenntnisse zu gewinnen, die nun als Teil einer stärkeren operativen Aufstellung angewendet wurden.

Letztendlich ist es nicht einfach zu verstehen, wie man in Zeiten der Unsicherheit reagieren sollte. Aber es gibt viele Schritte, die digitale Unternehmen gehen können, um selbst in den schwierigsten Zeiten erfolgreich zu sein. Indem sie sich auf diese vier Bereiche konzentrieren, können sie neue Möglichkeiten nutzen und Werte freisetzen, die zuvor nicht möglich erschienen.

Deutsche IT-Unternehmen in China: So gelingt die Standortgründung

Peter Wohlfahrth, Geschäftsführer von Theobald Software, schreibt über die Herangehensweise, wie deutsche IT-Unternehmen die Chancen auf Erfolg in China „Fuß zu fassen“ enorm steigern können. Man sollte nur drei einfache Grundsätze beherzigen.

In China herrschen andere kulturelle und wirtschaftliche Rahmenbedingungen als in Deutschland. Das kann zu Missverständnissen und generell einer ineffektiven Kommunikation führen. Ein gutes Verständnis des Gegenübers und der Strukturen vor Ort ist notwendig für eine erfolgreiche Unternehmensgründung.

Im März 2021 hat der chinesische Nationalkongress seinen 14. Fünfjahresplan veröffentlicht, der als Leitfaden zur wirtschaftlichen Entwicklung dient. Demnach ist China fest entschlossen, in die vordersten Reihen der innovativsten Länder aufzusteigen und seine Abhängigkeit von ausländischer Technologie und Nachfrage zu reduzieren. Die neuen Richtlinien werden es ausländischen Firmen also schwerer machen, in China Fuß zu fassen. Dementsprechend wird es für deutsche IT- Unternehmen künftig noch wichtiger, sich mit den kulturellen und geschäftlichen Gepflogenheiten der Chinesen auseinanderzusetzen, damit sie zu der Gruppe ausländischer Unternehmen gehören, die von den Reformen profitieren. Denn die neuen Leitfäden bedeuten keineswegs, dass China auf die technologische Innovationsfähigkeit aus dem Ausland verzichten möchte. Aber ein härterer Konkurrenzkampf um die begehrten Plätze wird kaum vermeidbar sein. Im Falle einer falschen Herangehensweise können sich für Unternehmer bereits früh die Türen verschließen.
Wer jedoch drei einfache Grundsätze beherzigt, steigert seine Chancen auf Erfolg enorm.


Über den Autor

Peter Wohlfarth ist Geschäftsführer von Theobald Software. Wohlfarth blickt auf jahrelange Erfahrung in Vermarktung und Vertrieb von erklärungsbedürftigen Software-Produkten zurück – sowohl auf unternehmerischer Seite als auch in der Zusammenarbeit mit der Dualen Hochschule Baden-Württemberg. Seit 2010 ist er in dieser Funktion für Theobald Software tätig.


 

1. Synergieeffekte durch den richtigen Standort erzeugen

Der Erfolg beginnt bereits bei der Wahl des Standortes. Empfehlenswert sind wirtschaftsstarke Regionen, die auf die eigene Branche abgestimmt sind, da in diesen auch mehr potenzielle Kunden anzutreffen sind und ihr Prestige auf das zunächst unbekannte Unternehmen abfärbt. Die Wirtschaftszentren Shanghai, Peking oder Guangdong bieten mit ihren Industrieparks eine Infrastruktur, in der sich bereits zahlreiche deutsche und westliche Firmen angesiedelt haben. Die daraus entstehenden Synergieeffekte sind für Firmen zusätzlich attraktiv. Durch das Zusammenwirken unterschiedlichen Knowhows können nationale wie internationale  Unternehmen profitieren. Eine WinWinSituation für alle Parteien.

2. Auf lokale Partner und Angestellte setzen

Eine Herausforderung bildet die teils schwer durchschaubare chinesische Verwaltung. Daher ist ein kompetenter Partner vor Ort unerlässlich, der bei den bürokratischen Herausforderungen hilft.Dieser sollte nicht nur bei der Standortgründung zur Seite stehen, sondern auch in der Zeit danach, da administrative Aufgaben wie zum Beispiel Behördenkommunikation oder Jahresabschlüsse komplexe Anforderungen erfüllen müssen.

Darüber hinaus ist kompetentes einheimisches Personal hilfreich, da die chinesische Kultur und ihre Arbeitswelt sich fundamental von der deutschen unterscheiden. Die richtigen Mitarbeiter können sowohl sprachlich als auch kulturell eine Brückenfunktion im Unternehmen wahrnehmen und Konflikten oder Misskommunikationen zuvorkommen. Zudem steigern sie das Image eines ausländischen Unternehmens, da in China heimische Waren, Dienstleistungen und Angestellte gerne gesehen sind.

Wer sich einen weiteren Vorteil verschaffen möchte, sollte sich ein wenig mit der chinesischen Sprache und Kultur befassen. In geschäftlichen oder sozialen Situationen können bereits einige chinesische Redewendungen Wohlwollen beim Gegenüber auslösen. Des Weiteren profitiert ein Markenname davon, wenn Chinesen ihn leicht aussprechen und erinnern können. Hierfür sollten Unternehmer die Hilfe von spezialisierten Agenturen suchen, die die Marke optimal übersetzen. Ein guter, konfliktfreier Name bietet nicht nur einen Wiedererkennungswert, sondern bringt auch Sympathiepunkte bei Partnern und Kunden. Bei einer inhaltlichen Übersetzung entspricht der chinesische Markenname der ursprünglichen Bedeutung des Originals. Im Falle einer phonetischen reiht man chinesische Silben so aneinander, dass sie ausgesprochen so ähnlich klingen wie das Original. Wichtig ist dabei aber, dass der neue chinesische Name in seinen Einzelsilben positiv wahrgenommen wird.

Theobald Software, spezialisiert auf die automatisierte Integration von SAP-Daten per Schnittstelle, ist seit Jahren in China etabliert und hat die anfänglichen Herausforderungen der Standortgründung ebenfalls durchlaufen. Bei der Übersetzung des Markennamens hat die Firma eine phonetische Übersetzung gewählt. Ausgesprochen klingt der chinesische Name ähnlich wie der deutsch ausgesprochene Originalname und die drei einzelnen Schriftzeichen (德易普) haben eine positive Bedeutung: Deutschland/Tugend, einfach/Einfachheit, verbreitet/populär.

3. Geschäftsbeziehungen durch respektvolles Verhalten fördern

Zahlreiche Business-Knigge zu China zeigen: In China gelten andere Normen für angemessenes Verhalten. Unternehmer müssen natürlich nicht alle Umgangsformen der dortigen Kultur beherrschen, jedoch führt eine grundsätzliche Vertrautheit mit den chinesischen Gepflogenheiten zu einem besseren Verhältnis mit Partnern und Kunden. Vollkommene Unkenntnis oder Nichtbeachtung erzeugen bei Chinesen den Eindruck von Respektlosigkeit. Beispielsweise gilt in Deutschland der Augenkontakt als Zeichen von Interesse und Aufrichtigkeit, in China hingegen sollte solch ein längererBlick möglichst vermieden werden, da dies schnell als Provokation verstanden wird. Ähnlich verhält es sich mit der Gestik. Umarmungen und manchmal sogar Küsse sind hierzulande – zumindest außerhalb von Pandemiezeiten – Merkmale einer guten Freundschaft oder eines nahen Verhältnisses. Chinesen hingegen werten gerade das Vermeiden von körperlichem Kontakt als ein Zeichen von Höflichkeit und Respekt gegenüber dem anderen.

Für chinesische Geschäftsleute haben persönliche Beziehungen und Termine einen hohen Stellenwert. Diese entstehen in der Regel bei einem Kaffee mit viel Smalltalk und dem Austausch von Visitenkarten. Zu beachten ist hier, dass, anders als in Deutschland, im chinesischen der Nachname an vorderster Stelle steht und darauf der Vorname folgt. Auf der Rückseite steht der Name gewöhnlich nochmal in englischer Sprache und dieser wiederum in der im Westen üblichen Reihenfolge. Unternehmer sollten darauf achten, die Visitenkarte mit beiden Händen entgegenzunehmen und die Karte aufmerksam zu studieren. Ein Überspringen des Lesens der Karte oder das Einstecken in die Gesäßtasche gelten in der chinesischen Kultur als beleidigend und können die Chancen auf erfolgreiche Geschäfte reduzieren. Der Smalltalk sollte zudem keine geschäftlichen oder beruflichen Bezüge haben, da diese das harmonische Miteinander stören können. Anstelle dessen werden andere Themen wie Freizeitbeschäftigungen oder persönliche Interessen als angenehmer empfunden. Derartige Meetings zielen in erster Linie nicht auf das gemeinsame Business, sondern dienen dem Aufbau von Beziehungen zwischen den Teilnehmern – in China eine Mindestvoraussetzung für erfolgreiche Geschäftspartnerschaften.

Kundenzufriedenheit als höchstes Ziel

Bei allen Unterschieden sind zwei Eigenschaften in China genauso unabdingbar wie anderswo: Demut und das Streben nach Kundenerfolg. Unternehmen müssen sich vor Augen halten, dass der Markt im Zweifel nicht auf genau sie gewartet hat. Konkurrierende Hersteller sowie eine andere Einstellung des Marktes führen dazu, dass trotz eines besseren Produktes die Geschäfte nicht immer gemäß den Erwartungen verlaufen. Ein ständiges Hinterfragen der eigenen Strategie hilft nicht nur, den Markt besser zu verstehen, sondern auch das eigene Produkt an die Nachfrage anzupassen. So ziehen erfolgreiche Kunden weitere an und das erhöht die Chance, sich auf dem Markt zu etablieren.


Aufmacherbild/ Quelle/ Lizenz Tumisu auf Pixabay

KI-Projekte erfolgreich umsetzen: Strategisch planen und schrittweise realisieren

Henrik Jorgensen, Country Manager DACH von Tableau, spricht sich für einen pragmatischen Umgang mit den Technologien im Rahmen von künstlicher Intelligenz (KI) aus.

KI-gestützte Lösungen entstehen gerade in allen Unternehmensbereichen. Laut einer aktuellen Studie von S&P Global Market Intelligence haben mehr als 90 % der Unternehmen, die KI nutzen, ihr erstes KI-Projekt in den vergangenen fünf Jahren entwickelt. Allerdings erfüllen viele dieser Initiativen noch nicht die in sie gesteckten Erwartungen – wenn sie es überhaupt bis zur Einführung schaffen. Damit KI-Projekte erfolgreich sind, müssen sie auf Basis einer sorgfältig entwickelten Strategie konzipiert und durchgeführt werden. Dazu gehören klare Erwartungen und die konsequente Ausrichtung an Geschäftszielen.

KI-gestützte Lösungen werden oft überschätzt

Viele KI-Projekte, die heute scheitern, erinnern an Softwareprojekte aus den Neunzigerjahren. Damals missglückten Entwicklungsprojekte häufig, weil die neuen Technologien maßlos überschätzt wurden. Auch heute sind übertriebene Erwartungen, was eine Lösung tatsächlich leisten kann, kontraproduktiv.

Es ist ein Trugschluss, dass allein durch die Erfassung von ausreichend Daten komplette Transparenz entsteht – und damit das Kundenverhalten vorhersagbar oder perfekte Empfehlungen zur Erfüllung von Kundenbedürfnissen möglich werden. Zwar lassen sich mit Daten zunehmend hilfreiche Muster im Kaufverhalten ermitteln. Aber nicht alle Ereignisse stehen in einem kausalen Zusammenhang oder miteinander in Beziehung.

Zudem wollen viele Unternehmen mit dem Wettbewerb gleichziehen und implementieren ebenfalls KI-Projekte. Wenn allerdings in KI nur investiert wird, um den Anschluss nicht zu verlieren, kann dies zum Bumerang werden. Das gilt insbesondere dann, wenn unklar ist, was den Erfolg eines Wettbewerbers ausmacht und ob dieser auf das eigene Unternehmen übertragbar ist.


„Damit KI-Projekte erfolgreich sind, müssen sie auf Basis einer sorgfältig entwickelten Strategie konzipiert und durchgeführt werden. Dazu gehören klare Erwartungen und die konsequente Ausrichtung an Geschäftszielen.“


Gastautor:
Henrik Jorgensen, Country Manager DACH von Tableau

Erfolgsversprechende KI-Projekte identifizieren

Ist die KI-Strategie tatsächlich auf die Geschäftsziele abgestimmt? Die Projektauswahl ist wahrscheinlich die größte Herausforderung für Unternehmen bei KI-Initiativen.

Es gilt: Unternehmen müssen zunächst exakt die Probleme und Fragestellungen eingrenzen, die sie mit KI lösen möchten. Was tragen die Antworten zur Verbesserung der Geschäftsergebnisse bei und wie steht es mit den verfügbaren Ressourcen?

Angenommen, ein Unternehmen möchte mithilfe eines prädiktiven Modells bestimmen, ob es sinnvoll ist, einem Kunden Rabatt zu gewähren, und wie hoch dieser sein soll. Für das Data-Science-Team wäre das eine anspruchsvolle und komplexe Aufgabe. Denn zunächst lässt sich nicht ohne Weiteres feststellen, ob der Kunde das Produkt auch ohne Rabatt kaufen würde. Geht es darum, erforderliche Daten mit ausreichender statistischer Qualität zu erfassen, sind bestimmte Vorarbeiten erforderlich, die nicht zum eigentlichen Geschäftsablauf gehören. Das betrifft beispielsweise die Zufallsauswahl der Kunden, die Rabatte erhalten, oder die Bestimmung der Vertriebsmitarbeiter, die Rabatte gewähren können.

Mit KI lassen sich Modelle zur Simulation des Kundenverhaltens prüfen, das unter bestimmten Rabattbedingungen erwartet wird. Statt das System mühsam auf präzise Prognosen zu trimmen, lässt sich mithilfe einer Simulationsplanung ermitteln, welche Variablen einander wie beeinflussen. Beispielsweise: Wie muss der Kunde reagieren, damit dieser Rabatt sinnvoll ist? Solche Szenarien, um mögliche Ergebnisse auszuloten, sind sehr viel effektiver und auch einfacher umzusetzen als ein komplexes Data-Science-Projekt aufzusetzen.

KI-Projekte setzen Datenkompetenz voraus

Für jede Art von datenbasierter KI-Aktivität ist es entscheidend zu verstehen, wofür die Daten erfasst und gepflegt wurden. Das gilt auch für die Frage, wie sie in der Vergangenheit und in Zukunft genutzt werden sollen. Dazu ist es wichtig, ein Modell mit vollständigen Daten zu trainieren, die die reale Situation im Moment der Entscheidungsfindung abbilden.

Data Scientists wissen aber oft nicht, wofür die Daten im Detail stehen und wie sie generiert werden: Welche Aktivitäten und welche technologischen Prozesse sind für das Bereitstellen der Daten erforderlich und was bedeuten die Daten für das Business? Hier spielen Analysten und Anwender, die nahe an den Daten und den Problemen sind, die gelöst werden sollen, eine große Rolle. KI ist deshalb eine Teamaufgabe, deren Erfolg geschäftlichen Kontext und zusätzlich eine grundlegende Daten- und Modellkompetenz erfordert.

Mitarbeiter auf Erfolgskurs bringen

Und schließlich gibt es menschliche Faktoren für den Projekterfolg, die Unternehmen gerne übersehen, wenn sie sich zu stark auf Daten und Technologie konzentrieren. Mit KI sind meist Vorhersagen möglich. Aber es muss jemanden geben, der die Maßnahmen festlegt, mit denen sich diese umsetzen lassen. Ist der Vorschlag sinnvoll, weil er eine klare Maßnahme vorsieht und setzen die betreffenden Personen diese auch um? Und gibt es ein Umfeld, in dem diese Vorschläge effektiv aufgenommen werden?

Dass es in Punkto Datenkompetenz in Deutschland Nachholbedarf gibt, zeigt eine aktuelle Befragung von Tableau unter Führungskräften und ihren Mitarbeitenden, durchgeführt von Forrester Consulting. Demnach sehen 77 Prozent der Führungskräfte die Innovationsfähigkeit erhöht, wenn Daten richtig eingesetzt werden. Allerdings sind 43 Prozent der Führungskräfte der Meinung, dass Weiterbildung im Umgang mit Daten nur für traditionelle Datenfunktionen (z. B. Analytik, Datenwissenschaft) relevant sei. Lediglich 34 Prozent von ihnen bieten entsprechende Schulungen für die ganze Belegschaft an.

Klein anfangen und Schritt für Schritt erweitern

Oft ist das erste erfolgreiche KI-Projekt das, das sich am einfachsten operationalisieren und mit dem geringsten Änderungsaufwand produktiv setzen lässt. Es empfiehlt sich ein Projekt, das so schnell wie möglich einen Nutzen bringt, auch wenn es sich nur um kleine Verbesserungen handelt. Sinnvoll ist es, Kunden, Anwender und Interessenvertreter so eng wie möglich in den Entwicklungsprozess einzubeziehen. Zudem sollten Feedback für mehr Datenerfassung und Input der Verantwortlichen möglich sein.

Es wird immer Grenzfälle geben, bei denen eine KI-Lösung an ihr Limit kommt. Es macht aber mehr Sinn, Lösungen zu entwickeln, die für die Mehrheit der Kunden und Mitarbeiter funktionieren, statt eines besonders ausgefeilten Proof of Concept, der nur für bestimmte Anwendungsfälle maßgeschneidert ist. Das Ziel ist es, mithilfe von KI Reibungsverluste zu reduzieren und es den Menschen leichter zu machen, ihren Aufgaben nachzukommen und fundierte Entscheidungen zu treffen.

Bildquelle / Lizenz:


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Durch Digitalisierung die Komplexität der Supply Chain meistern

Dr. Andreas Baader, Leiter des Geschäftsbereichs Supply Chain Management in Europa bei Genpact Deutschland, schreibt über Supply Chain Management im Kontext der Digitalisierung.

Der demografische Wandel in Deutschland hat einen Wendepunkt erreicht und verändert den Arbeitsmarkt radikal. Die Klimawende erfordert einen grundlegenden Umbau der Art und Weise wie wir wirtschaften, wohnen, arbeiten und uns fortbewegen. Die Digitalisierung beschleunigt diese Transformation und kann gleichzeitig helfen, dass sie gelingt.

Nicht erst seit Ausbruch der globalen COVID-19 Pandemie agieren Firmen in einem zunehmend volatilen Umfeld. Flexibilität und Agilität gewinnen als Kernkompetenzen einer leistungsfähigen Organisation stetig an Bedeutung. Das Supply Chain Management beeinflusst beide Faktoren maßgeblich und verlangt nach innovativen Konzepten, um den sich ändernden Anforderungen des digitalen Zeitalters gerecht zu werden.

Die physische und die digitale Welt rücken immer näher zusammen und beeinflussen sich immer stärker gegenseitig. Dadurch entstehen neue Gefahrenpotentiale hinsichtlich der Datensicherheit. Außerdem sind neue Fähigkeiten mit Blick auf den Austausch und die Erfassung von Daten gefragt. Auf der anderen Seite bietet das Zusammenwachsen von physischer und digitaler Welt aber auch zahllose Möglichkeiten, um Lieferketten zu optimieren, zu flexibler zu gestalten und Risiken zu reduzieren. Ein entscheidendes Element dabei ist die Entwicklung der traditionellen Lieferketten hin zu einer vernetzten, intelligenten und hoch effizienten digitalen Lieferkette.

Eine herkömmliche Lieferkette besteht oft noch aus einer Reihe weitgehend isolierter Schritte: vom Marketing über die Produktentwicklung, die Fertigung und den Vertrieb bis hin zum Kunden. Die Digitalisierung kann und wird diese Silos auflösen und die Lieferkette wird sich zu einem vollständig integrierten Ökosystem wandeln, das für alle beteiligten Akteure völlig transparent ist: angefangen bei den Lieferanten der Rohstoffe, Komponenten und Teile, aber auch bei Transportunternehmen und beim Kunden, der die Leistungen in Anspruch nimmt.

Angebots- und Nachfragesignale werden von jedem Punkt innerhalb der digitalen Lieferkette ausgehen und sich sofort im gesamten Netzwerk verbreiten. Mehr noch – die neu gewonnene Transparenz ermöglicht es Firmen, nicht nur rasch und adäquat auf Störungen zu reagieren, sondern ihnen sogar zuvorzukommen, „Was-wäre-wenn“-Szenarien zu erstellen, die gesamte Lieferkette zu modellieren und sofort anzupassen, wenn sich Bedingungen ändern.

Dr. Andreas Baader leitet den Geschäftsbereich Supply Chain Management in Europa für Genpact Deutschland und ist Managing Partner von Barkawi Management Consultants.

Das Ziel dabei ist ehrgeizig: Es geht darum, eine völlig neuartige Lieferkette aufzubauen, die sowohl widerstands- als auch reaktionsfähiger ist als bisher.

Damit die Einführung der digitalen Lieferkette gelingt, ist es nicht damit getan, dass Firmen verschiedene neue Technologien einkaufen und lernen, sie anzuwenden. Firmen müssen auch Menschen mit den richtigen Fähigkeiten finden – innerhalb und außerhalb ihrer Organisation – und einen kulturellen Wandel vollziehen, der die digitale Transformation als eine positive Veränderung und Chance begreift, um im internationalen Wettbewerb auch in Zukunft bestehen zu können.

Die digitale Lieferkette stützt sich auf eine breite Technologien-Palette: eine neue Generation leistungsfähiger Planungssoftware, die in der Cloud läuft, Big Data, das Internet der Dinge, 3D-Druck und Augmented Reality, um nur einige zu nennen. Gemeinsam ermöglichen sie es neue Geschäftsmodelle zu kreieren, Produkte und Dienstleistungen zu digitalisieren und alle Glieder der Wertschöpfungskette innerhalb eines Unternehmens zu integrieren: den digitalen Arbeitsplatz, die Produktentwicklung und das Innovationsmanagement, das Engineering und die Fertigung, den Vertrieb, digitale Vertriebskanäle und das Management der Beziehung zu den eigenen Kunden. Im Zentrum all dieser Aktivitäten steht die digitale Lieferkette.

 

Dieser Wandel wird von zwei eng miteinander verknüpften Trends vorangetrieben. Einerseits breiten sich Technologien wie Big-Data-Analytics, die Cloud und das Internet der Dinge immer weiter aus. Auf der anderen Seite steigen die Erwartungen von Verbrauchern, Mitarbeitern und Geschäftspartnern an Firmen, zuverlässigere und reaktionsschnelle Lieferketten zu entwickeln.

Die Ziele, die mit der Etablierung der digitalen Lieferkette verfolgt werden, sind dabei vielfältig und reichen weit darüber hinaus, nur das richtige Produkt so schnell wie möglich in die Hände des Kunden zu liefern:

  • Sie soll die Reaktionsfähigkeit erhöhen, um schneller auf Änderungen und Unterbrechungen der Supply Chain reagieren zu können.
  • Sie soll eine kontinuierliche Vorhersage der Supply Chain Prozesse ermöglichen, um Probleme zu antizipieren
  • Durch die Automatisierung von Prozessen im SCM steigert die digitale Lieferkette außerdem die Effizienz und senkt Kosten
  • Dank künstlicher Intelligenz und Advanced Analytics soll sie selbständig aus Verspätungen und Fehlern beim Supply Chain Management lernen und so die Zuverlässigkeit von Terminen und der Supply Chain Planung allgemein erhöhen
  • Darüber hinaus kann die digitale Lieferkette die – stets aktuelle – Grundlage für alle Finanzprozesse eines Unternehmens bilden

Diese Ziele können nur erreicht werden, wenn die Lieferkette vollständig integriert ist, das heißt wenn Lieferanten, Fertigung, Logistik, Lagerhaltung und Kunden nahtlos miteinander verbunden sind und über eine zentrale, cloudbasierte Kommandozentrale gemanagt werden.

Ein solches Maß an Integration ermöglicht es den Akteuren – ja es zwingt sie sogar dazu – gemeinsam zu planen, datengestützte Szenarien durchzuspielen und Kompromisse zwischen verschiedenen Variablen wie Lagerkapazität, Kosten oder Gewinnspanne abzuwägen.

Wenn diese vollständige Integration über die gesamte Lieferkette gelingt, eröffnen sich ganz neue Möglichkeiten, um rasch und flexibel auf Störungen oder unvorhergesehene Veränderungen zu reagieren: So haben wir bei Genpact beispielsweise für einen unserer Kunden die neuartige Funktion eines Planungsmasters etabliert. Dieser kann entlang der gesamten Lieferkette – auch bei Partnern – Unternehmensentscheidungen wie zum Beispiel Planungsparameter treffen, inklusive der damit verbundenen finanziellen Konsequenzen.

Der Arbeitsablauf in der digitalen Lieferkette lässt sich exakt modellieren, erlaubt es alle Prozesse der Kooperation zu integrieren und ermöglicht es letztendlich den Kunden schnell und zuverlässig über den Zeitpunkt der Produktlieferung zu informieren. Durch die Integration von Daten über die gesamte Lieferkette hinweg – im Idealfall in Echtzeit und ohne menschliches Zutun – können Lieferfristen erheblich verkürzt und das Fracht- und Bestandsmanagement optimiert werden.

Der Schlüssel zum Erfolg einer jeden Lieferkette ist ein effizienter und schneller Austausch von Informationen. Da die Daten hierbei aus vielen verschiedenen Quellen stammen – Zulieferer, Spediteure, Lagerhäuser, Händler – ist deren Qualität und Interoperabilität von entscheidender Bedeutung und stellt Firmen oft vor erhebliche technologische Herausforderungen.

Gelingt es diese zu meistern, können sich daraus ganz konkrete Wettbewerbsvorteile ergeben: Amazon ist heute beispielsweise in der Lage Stornierungen einer Bestellung auch dann noch entgegenzunehmen, wenn das Zustellfahrzeug bereits unterwegs und nur noch wenige Minuten von seinem Ziel entfernt ist.

Die nächste Entwicklungsstufe, die überhaupt erst durch die digitale Lieferkette ermöglicht wird, ist die vorausschauende Gestaltung, die es Supply Chain Managern erlaubt, unterschiedliche, sehr detaillierte Szenarien durchzuspielen und diese bei Bedarf rasch zu implementieren.

Als Ergebnis können Unternehmen im Idealfall auch in Krisenzeiten die Kontinuität ihres Business aufrechterhalten oder doch zumindest belastbare Aussagen treffen, wie sich Störungen auswirken werden und geeignete Gegenmaßnahmen ergreifen.

Ein Digitalisierungsbeispiel aus der Praxis: Die Inbound-Logistik im Warehouse 4.0

Die Umgestaltung eines vollständig digitalen Lagers beginnt mit der Inbound-Logistik:

  • Ein Lkw auf dem Weg zum Lager übermittelt in Echtzeit seine Position und seine voraussichtliche Ankunftszeit an das intelligente Lagerverwaltungssystem. Sobald er sich dem Warehouse bis auf eine bestimmte Distanz genähert hat bzw. seine voraussichtliche Ankunftszeit einen bestimmten Wert unterschreitet, löst der Lkw automatisch mehrere Aktionen im Warehouse aus: Das intelligente Lagerverwaltungssystem vergibt in Abhängigkeit der aktuellen Situation den finalen Andockplatz für den Lkw und bereitet die Ent- bzw. Beladung des Fahrzeugs im Zuge des Pre-Check Ins vor, so dass die Just-in-Sequence-Lieferung optimal erfolgt.
  • Durch den Einsatz von RFID-Sensoren und/oder Barcodes ist es möglich in Realtime zu erfassen, was gerade geliefert bzw. abgeholt wurde, und automatisch die richtigen Auftragsdaten an die Warenerfassung zu übermitteln. Dort wird der neue Warenbestand bestimmt und zeitnah über die gesamte Lieferkette hinweg sichtbar gemacht. So wissen alle angeschlossenen Akteure – nicht bloß die Lagerleitung – stets, was für Waren und Produkte derzeit tatsächlich im Warehouse für die weitere Verwendung zu Verfügung stehen.
  • Ebenfalls im Zuge des Pre-Check Ins weist das Warehouse-Execution-System (WES) automatisch den Lagerplatz für neu gelieferte Waren zu und beauftragt automatisch die entsprechenden autonomen Transportfahrzeuge oder festinstallierte, automatisierte Transportbehälter bzw. Palettenfördersysteme, um die neuen Waren an die richtigen Stellen im Lager zu bringen.
  • Hier gibt es verschiedene Option, wie mit der neu eingetroffenen Ware verfahren werden kann: Zum Beispiel kann die Ware als Ganzes oder in Teilen in die Einlagerung gehen. Sie kann aber auch direkt in die Kommissionierung geroutet und umgehend im Rahmen eines Same-Day-Versand weiter versendet werden.
  • Innerhalb des Lagers aktualisiert das Warehouse-Execution-System mit Hilfe von Sensoren, die an zentralen Punkten im Lager angebracht sind, sowie RFID und Barcodes an der Ware selbst, den Bestand und den Warenfluss kontinuierlich. So entsteht ein digitales Abbild der realen Verhältnisse im Lager und ermöglicht es, den Warenfluss jederzeit durch Umrouten und/oder Buffern optimal auf die aktuell vorhandene Kapazität abzustimmen. Durch den Einsatz entsprechender Softwarelösungen für maschinelles Lernen sind solche intelligenten WE-Systeme außerdem in der Lage den Warenfluss selbstständig zu optimieren und energieeffizient zu gestalten.

Neben einer verbesserten Inbound-Logistik, autonomen Transporten und optimierten Logistikprozessen werden innovative Technologien in Zukunft auch Aufgaben wie die Kommissionierung von Waren verändern.

 

 

Aufmacherbild/Quelle/Lizenz
Bild von Gerd Altmann auf Pixabay

„New Work“ and why companies need to become more empathetic

TREND REPORT talks to Toby Martin, CEO of Extensis, a specialist in font and digital asset management. The company is based in Portland, Oregon.

Toby, it is my pleasure to have a conversation with you today about what „New Work“ means to you and why companies today should, indeed must, be much more customer focused. Extensis, based in Portland/Oregon, USA, is a specialist in font and digital asset management and has completely changed within the last 4 years. Has the company really reinvented itself? What was the catalyst for this? Was it the Covid-19 pandemic?
The transformation in our company started about 3 to 4 years ago and was not related to the Covid-19 pandemic. Our customers were the drivers of change, initiating it. They demanded more ways to interact with us. Software-as-a-service and cloud technologies were already more important to them. It was the explicit request of customers for an improved product experience. We realized that we had to take action to address customer needs. Otherwise, we risked becoming obsolete as a company. So, it was now up to us to gain an understanding of what our customers expect from us, how and when.


Toby Martin: „Looking at Extensis as it was four years ago and as we are today, you can see that it is no longer the same company.“

How exactly do I have to understand this externally driven change?
During the first 25 years of our operation, all of our software was on-premises, located directly at the customer’s site on their servers. We didn’t know exactly how it was actually being used and how customers were interacting with our product. We always thought we knew. But the fact is that there is a difference between theory and reality. The process of transforming Extensis has been 100% driven by our customers. That means we went from being a product-oriented organization to a customer-oriented organization. This is the transformation we have made in the last 4 years.
This shift to supporting our customers has changed everything in our company. It started with how we bring our products to market, how the products are designed and supported, and most importantly, what the future of the products may look like. We broke away from what we thought we knew in solutions and marketing channels. We had to re-engineer everything, so we had better access to customer experience about what was actually going on. That was different from what we thought we knew. The transformation of our products supports that. We’ve integrated more features that show us what customers actually use, what they value and how they interact with it. This enables us to develop what works. In turn, we leave out what doesn’t benefit customers. That wasn’t possible with the old on-premises products of Extensis‘ first 28 years.

Can you explain at this point what the main lessons learned were or are for the way Extensis works and organizes itself? I am talking about development methods and working methods within Extensis – not about the product. For example, are we moving closer to the DevSecOps principle? The more so as the process is ongoing.
The first step happened about 3 years ago when we set up a completely new team for Customer Success. It included the old sales, support and technical service groups, but was expanded to include many new team members. They focused exclusively on listening to customers during maintenance renewals and learning more about how we could help them solve workflow issues at other times. This team evolved over the three years as we learned more. We deployed resources in a way that achieved the best return on investment for our customers. Prior to this evolution, we had already moved away from the waterfall approach (4-5 years prior), so we were able to deliver solutions to our customers much faster. Once we figured out more about what was most important, we were able to deliver products and solutions faster. Without restructuring every team in the company, we would never have been able to work together so well. Today and in the future, we will consequently focus on what customers actually need, rather than what we think they could or should need.

Have customers been involved in the change process?
Yes, we included the customers. First, we had commissioned a survey by an external consultant. We also did research directly among our customers. Throughout this process, we kept doing validations to make sure we were on the right track. Customers were always involved and gave us feedback on which product changes and improvements made sense and which did not. We wanted to make absolutely sure that we were offering solutions that really made sense and would enable our customers to be successful.

Has the „organization“ of Extensis as such also been changed? And how was the internal team involved?
That was an even bigger transformation. In 2018, we had a sales organization in place whose job it was to sell software. We have since dropped „sales“ as a term in the company. All employees from this department are now responsible for „Customer Success“. Because we believe that if you ensure that customers are successful, they will remain our customers for a longer period of time.
So, we implemented a completely new organizational structure, especially for those employees who generate the revenue. This affected about 40 percent of the company, who, after appropriate training, have now become responsible for „Customer Success.“ As a result, other teams within the company have also changed: Product Development and Product Marketing have also aligned themselves with „Customer Success“ and restructured accordingly.
Part of that was reskilling the teams. So, it wasn’t just about changing our current workforce, it was about changing the entire construction of our organization around Customer Success. That, in turn, has led to other parts of the company transforming their marketing, their product management, and their product development.

Why is it important for companies to be more empathic?
We know about the challenges and problems. We know how creative work has changed in agencies and companies, this also due to the many new digital channels and platforms. The pandemic has also contributed to these changes. It was clear to us that this would require a completely new approach. To map the creative workflows in an ideal software solution was our goal. „Empathy“ for us means that we listened to our target group. We not only came to understand, but also felt what was needed and wanted. This resulted in the new cloud strategy and the completely new product „Connect“. And the brand name speaks for itself because this is what we are striving to achieve: To connect creatives with their fonts and assets in such a way that they can access them quickly and seamlessly at any time and from anywhere. This is how we help make workflows better and actually give creatives more time to focus on what’s important: Unlimited creativity.  

So how long did it take Extensis to realign the company like that?
This change has taken us a total of about 3 years, and we have adopted a new approach to development and sales. The idea is to first discuss with customers what is necessary to shape their work processes in a meaningful way and to be successful. The idea is to build a long-term relationship with our customers, rather than simply taking orders and selling products. We want to be and remain genuine partners for our customers. And if we fall short in any of these areas, we expect to hear about it and resolve the challenges that we may introduce so it’s a constantly evolving process and one we will never complete!

Has this process of reorientation now been completed or is it ongoing?
Oh, it’s still ongoing. We have been changing the process practically every quarter. For instance, we offer regular updates to our team in terms of training. We’re constantly looking for changes we can take advantage of that will allow us to be better partners with our customers and offer better products, like new systems we can put in place to improve our operations.
One example is the development of a new sales program. In Europe in particular, we are establishing sales channels that are not just focused on technology but are designed to provide additional benefits for our customers. There will also be continuous training and expert contacts. And we will continue to change constantly because both customers and the market are changing. We have to try to anticipate this and, ideally, always stay one step ahead.

We have developed an entirely new platform and not just updated existing solutions.

Toby Martin

I’m sure there has been feedback from your customers as a result of all these changes. Is there anything you can tell us more about that?
The first feedback was usually along the lines of, „Now all of a sudden everything is different and we don’t understand why.“ We then spoke to customers, some of whom had been using our products for decades and explained our points of view to them. The idea was to explain why the change in our organization would bring benefits to both sides. There were customers who couldn’t or didn’t want to understand this but continued to work with us and our products because we still offered them added value. Others confirmed that our changes made sense and that we understood them, their workflows and the challenges of the digital processes.
As we introduce our new products and Extensis Connect, customers better understand why we did what we did and why it is now more convenient and secure for them. We have developed an entirely new platform and not just updated existing solutions. The advantages are obvious: Extensis delivers high-quality solutions with regular updates and users don’t have to worry about anything. This also means there is no need to hire extra IT specialists for maintenance and updates.
Many of the large German customers have been working with us for a while, such as various agencies and large retailers. Some were reluctant to change at first because it had worked quite well for them all this time. But the feedback we’ve received recently has become more and more positive, because our customers now understand better why we acted the way we did and wanted to completely reinvent ourselves. It can be difficult to say to customers and partners ‘trust us’ but for those who did, we are maintaining that past relationship and look forward to growing it in the future.

Was Extensis among the first to reorganize the company compared to its competitors?
Although I would like to answer „yes“ to your question, the answer is no. Software-as-a-service is not new. Adobe, for example, has offered it in the creative space for many years. And more and more companies are making the shift. In our case, we actually started from scratch. So, it wasn’t about re-packaging what already existed, sometimes called ‘lift and shift’. It was about defining the value we bring to our customers and, as we say, „controlling the creative chaos with font management and digital asset management.“ We didn’t just say, „Take everything and move it to the cloud.“ We certainly didn’t want to do that, because we had seen others try and fail. So, we decided to take a new approach to make that happen. And, of course, that took some time and it cost more to do it during a pandemic. That was a real challenge for us as a company. But in the end, it actually turned out to be a better designed solution. So, we’re not the first to go down this path, but we were able to learn from the mistakes of our competitors.

Extensis no longer considers itself a strictly „product company“?
To us, the most important part is the transformation story. Starting with customer success, for us transformation was all-encompassing. Most other companies that are involved in the creative process are making amazing tools: for example, plug-ins and graphics that you can interact with in full-motion video and the like. So, they’re creating a whole new set of assets. But what they haven’t figured out yet is what happens when you’re done creating that content? In the past, you would have cataloged it, assigned numbers to it, and stored it in a library system or lost it in a poorly designed database. And now imagine creatives in agencies or companies that are changing employers and all their knowledge of where to find design assets is lost. Why are we different? I would say the difference is that we’ve been working with creatives in the same ecosystem for 25 years and know exactly what they need for meaningful and seamless processes.
Looking at Extensis as it was four years ago and as we are today, you can see that it is no longer the same company. There is one exception, and that is that we continue to add value to our customers the same way: by storing digital assets and controlling creative chaos so designers can do their best work. That’s the most important thing that has guided us throughout this transition.
Change is always difficult: change management, developing new products, engaging our customers, and then doing it all during a pandemic. Just months or years ago, it looked like we had a lot of work ahead of us. But now we have this big turnaround under our belt, and this is the start of something completely new.

Throughout this change process, what has the Covid-19 pandemic changed for Extensis?
Extensis was an early adopter of working from home. So, during the pandemic, the team immediately started working 100 percent from home, because the health and safety of our employees is our top priority. It wasn’t a big change for us. We were able to continue working at the same pace and efficiency. We were fortunate because we already had all the tools in place (Slack, Zoom, Confluence / Jira, Salesforce) for decentralized working and the team was familiar with all of them. So, there was no need to build a new infrastructure; the processes for collaboration and communication were already established.

Is there not a desire in your teams to meet in person? Don’t they want to see their colleagues again, in the coffee kitchen or in the meeting rooms?
We are a small team, and we all know each other quite well. There was indeed a request in some cases to work in a „real“ office some of the time. But no one really wants to do that full-time anymore. The advantages of a home office are more significant: there is no daily commute, and you have more time for yourself and your family. „Happy hours“ in front of a monitor, however, just aren’t the same as an actual meeting in the coffee kitchen, for example. We are talking here about the social component of working in a team. And there is sometimes the wish for some more in person meetings in the real world. Now, in summer, we will certainly plan some team activities, as most of our employees live in Oregon and this is easy to organize. Of course, the team can also get together for training or meetings in an office space at any time and as needed. However, this is actually not often necessary in our corporate organization because we have everything it takes to have a comfortable and productive work environment – at home.
You also need to know that we have colleagues living in multigenerational households, with children who cannot be vaccinated, or with elderly parents or grandparents. It is therefore very convenient that they do not have to expose themselves to the risk of being infected during the pandemic and now.
So, everything is currently going according to plan for Extensis, and we are very pleased that the transformation has been successful and is also being accepted by customers.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Biometric Payments

Wir sprachen mit Dr. Rolf Werner, Head of DACH bei Cognizant inwieweit sich biometrische Methoden bei Zahlverfahren realisieren lassen.

Dr. Rolf Werner sieht biometrische Zahl- und Authentifizierungsverfahren vor allem vor dem Hintergrund von mehr Sicherheit für Endverbraucher.

Welche Möglichkeiten bieten Technologien, die sich auf biometrische Daten stützen bei der Kartenzahlung und in anderen Bereichen? Welche Missbrauchspotenziale sind denkbar?
Der Fortschritt der letzten Jahre im Bereich biometrischer Technologien ist rasant und die Fehlerquote der Technologie ist sehr gering. Biometrische Technologien bieten eine ganze Reihe an Vorteilen für Unternehmen und KundInnen in diversen Branchen, vor allem in Bezug auf die Sicherheit von Konten und als Vertrauensbasis in einer immer digitaler werdenden Umwelt. Sie können beispielsweise eingesetzt werden in den Bereichen Sicherheit und Strafverfolgung, Grenzkontrolle und Überwachung, digitale Kontoeröffnung bei Finanzdienstleistungen, Gesundheitswesen und physische, logische Zugangskontrollen. Mit einem Umsatz von voraussichtlich 18,6 Milliarden US-Dollar bis zum Jahr 2026 ist das Potenzial des Marktes enorm.
Die Risiken beim Missbrauch biometrischer Daten sind enorm, da die Daten über längere Zeit oder dauerhaft missbraucht werden können. Zudem hat die Person, die über die Daten verfügt, Zugriff auf alle Anbieter, die die Identifikation mit biometrischen Daten anbieten, während man oft unterschiedliche Passwörter für unterschiedliche Anbieter nutzt. Ein Passwort kann zudem schnell geändert oder zurückgesetzt werden, wohingegen man biometrische Daten nicht einfach ändern kann.

Wie werden die biometrischen Daten der KundInnen geschützt und inwieweit ermöglichen biometrische Merkmale mehr Personalisierung im Bankgeschäft?
Biometrische Daten sind personenbezogene Daten, da sie sich auf eine identifizierte oder identifizierbare Person beziehen. In Europa bietet die Allgemeine Datenschutzverordnung einen strengen Rahmen für den Datenschutz. Die Möglichkeit, biometrische Daten für Personalisierungszwecke zu verwenden, setzt voraus, dass die betroffene Person ihre ausdrückliche Zustimmung zur Verarbeitung personenbezogener Daten für den angegebenen Zweck gibt.
Außerdem enthält die GDPR (General Data Protection Regulation) eine weit gefasste Definition biometrischer Daten und erlaubt es den Mitgliedstaaten, auf nationaler Ebene zusätzliche Bedingungen und Einschränkungen festzulegen. Dies bedeutet, dass Unternehmen, die den Einsatz von verhaltensbiometrischen Daten in Erwägung ziehen, sicherstellen müssen, dass ihre Verarbeitung im Einklang mit den Datenschutzbestimmungen steht.
Durch den Einsatz von Biometrie im Bankgeschäft ist es möglich die Konten der BankkundInnen persönlicher zu schützen. Nur sie selbst können auf ihren Account mit ihren persönlichen biometrischen Merkmalen wie dem Fingerabdruck oder der Iris zugreifen. Die Technologien bieten einen wichtigen Sicherheits- und Vertrauensfaktor, da das Bankkonto und die damit verbundenen Transaktionen besonders zu schützende Daten einer Person darstellen.

Lohnt sich die Technologie, auch unter Berücksichtigung der Einführungskosten der entsprechenden Terminals? Welche Vorteile haben die EndnutzerInnen?
Die Einführung biometrischer Technologien ist nicht günstig; High-End-Systeme kosten bis zu 10.000 Dollar, aber mit höheren Akzeptanzraten wird der Preis weiter sinken. Der Business Case in Bezug auf Kosten, Nutzen und Risiken variiert aber von Anwendungsfall zu Anwendungsfall. Im Falle einer Zugangskontrollanwendung für ein Kernkraftwerk beispielsweise möchte man nicht, dass jemand zufällig eintritt, und muss in einen starken, mehrschichtigen biometrischen Authentifizierungsmechanismus investieren. Im Bereich des Zahlungsverkehrs ist der Geschäftsnutzen bei hohen Zahlungen größer als bei Zahlungen mit kleinen Beträgen und hohem Volumen. Insgesamt müssen nicht nur die Wünschbarkeit und die technische Machbarkeit, sondern auch die wirtschaftliche Tragfähigkeit und die Investitionsrentabilität für jeden Anwendungsfall individuell analysiert werden.
Für die EndnutzerInnen bietet sie beispielsweise die Möglichkeit, Zahlungen zu beschleunigen, Warteschlangen zu verkürzen und mehr Sicherheit zu bieten als eine herkömmliche Kredit- oder Debitkarte. Laut einer Studie des Zahlungsanbieters Klarna aus dem Jahr 2021 besteht jedoch eine gewisse Skepsis gegenüber der Biometrie im Zahlungsverkehr, vor allem bei den Deutschen, denn im Vergleich zu anderen Nationen ziehen nur 2 % der Befragten aus Deutschland neue Zahlungsmöglichkeiten den bekannten Methoden vor.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Digitalisierungsplattformen mit Robotic Process Automation

Thilo Kiefer, Geschäftsführer der munich enterprise software GmbH, schreibt über Potenziale der Automatisierung gerade im Mittelstand.

Thilo Kiefer liefert Beispiele für Prozesse, die sich sinnvoll automatisieren lassen.

Wenn Softwareroboter, sogenannte Bots, zeitintensive oder fehleranfällige Routineaufgaben automatisiert ausführen, spricht man gemeinhin von Robotic Process Automation (RPA). Wie groß der Nutzen einer solchen Prozessautomatisierung ist, lässt sich an einem Rechenbeispiel im Bereich des Testens von Software darstellen. Ein Mensch schafft es pro Arbeitstag vielleicht 3,5 Stunden effektiv zu testen, der Rest geht für E-Mail-Verkehr, Meetings, sonstige Gespräche oder Unterbrechungen des eigentlichen Testbetriebs drauf. Wo man in der Summe also auf 17,5 Stunden Testtätigkeit pro Woche kommt, ermöglicht die RPA-gestützte Testautomatisierung im 24/7-Einsatz 168 Stunden Testzeit – und dabei wird noch alles lückenlos automatisch protokolliert, was den menschlichen Tester sonst noch einmal einige Stunden nebenher kosten würde.

Neben der Zeitersparnis hilft RPA auch, Risiken durch menschliche Fehler zu vermeiden, Unternehmen sind weniger abhängig vom Fachkräftemangel, Prozesse laufen stabiler und die Beschäftigten haben mehr Zeit für wertschöpfendere Tätigkeiten. Fortschrittliche RPA-Lösungen verfügen neben maschinellem Sehen sogar über Kinematiken und Stimmen, um auch berührungs- und sprachgesteuerte Geräte bedienen zu können.

Automatisierung kann trotz aller Vorteile aber auch zur Verschlechterung von Prozessen führen, speziell dort, wo Interaktionen mit Menschen stattfinden. Wer kennt sie nicht, die endlosen Minuten in Telefonwarteschleifen von Telekom und Co? Wo minutenlang der Bedarf des Kunden umständlich abgefragt wird und dieser letztendlich doch verärgert zurückbleibt. Sicherlich spart das Service-Unternehmen Arbeitskraft und Kosten; der Schaden, der durch die Verärgerung entsteht, ist allerdings ebenfalls immens.

Automatisches Öffnen, Lesen, Verarbeiten und Archivieren von E-Mails im Kundenservice

Die Entgegennahme eine E-Mail im Bereich Kundenservice ist ein gutes Beispiel für einen in vielen Teilen automatisierbaren Prozess. Der Kunde verfasst eine Meldung an den Kundenservice in Form einer E-Mail oder über ein Kontaktformular auf der Webseite. Das Unternehmen erfasst diese in seinem IT-System, sucht den betreffenden Kunden (eventuell auch noch das betroffene Produkt des Kunden) heraus und informiert ihn über den Eingang der Meldung.

Mit der Digitalisierungsplattform MailCenter werden solche E-Mails automatisch im Exchange Backend geöffnet, der zugehörige SAP-Kunde automatisch ermittelt und die E-Mail in das SAP-System übertragen. Dort wird automatisch eine Servicemeldung angelegt, der Text aus der E-Mail extrahiert und die eingehende E-Mail zu dieser Servicemeldung archiviert. Hat der Kunde am Front End ein Webformular verwendet, werden weitere spezifische Daten (Gerätenummer in SAP etc.) zugeordnet. Anschließend werden Kunde und Servicemitarbeiter automatisch per Mail informiert, wobei ersterer einen fallspezifischen E-Mailtext erhält.

Durch Monitoring die SAP-System-Überwachung automatisieren

System-, IDOC-, Job- und Backup-Monitoring sind periodisch wiederkehrende Überwachungsaufgaben, die Bestandteil der Routinearbeiten jeder Systembetreuung sein sollten. Es handelt sich dabei um Aufgaben, mit deren Hilfe im laufenden Betrieb unerwartet aufgetretene Probleme zu entdecken und zu beheben – eine aufwändige, zeitintensive Tätigkeit, welche die IT-Abteilung und Fachbereiche gleichermaßen belastet. In vielen Einzelschritten müssen diese Fehlersituationen erkennen und analysieren.

Eine Digitalisierungsplattform mit RPA-Funktionen kann Probleme proaktiv 24/7 erkennen, bevor sie eskalieren. Automatisierte Warnmeldungen per E-Mail informieren das IT-Team. Mit regelbasierten Verteilerlisten werden Tätigkeiten automatisiert. Mit Hilfe dieser Mechanismen werden Arbeiten automatisiert aus der IT in den zuständigen Fachbereich verlagert.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Digitale Transformation neu gedacht: Von den Prozessen zu den Kunden

Von Emily Brand*

Die Covid-19-Pandemie war für viele Unternehmen ein Katalysator für ihre Digitale Transformation. Sie haben Technologie-Initiativen beschleunigt, drastische Änderungen an Prozessen vorgenommen und die Bedeutung der Unternehmenskultur überdacht. Einige Unternehmen waren mit ihren Strategien zur Digitalen Transformation bereits erfolgreich, sodass sie sich nun auf die Verbesserung der Kundenerfahrung durch die Sammlung und Analyse von Daten konzentrieren können.


Die Weiterbildung und Schulung interner Talente könnte den Unternehmen helfen, die derzeitigen Probleme bei der Mitarbeitergewinnung und -bindung zu überwinden. Allerdings geben die Befragten an, dass die Weiterbildung kein primäres Geschäftsziel ist.

Emily Brand, Chief Architect and Global Ecosystem Presales Leader bei Red Hat

Red Hat sponsert seit Jahren eine Studie von Harvard Business Review Analytics Services, die die Entwicklung der Digitalen Transformation untersucht. Für die vierte jährliche Umfrage haben die Marktforscher Anfang des Jahres mehr als 700 Führungskräfte weltweit befragt. Der Report zeigt, mit welchen Herausforderungen Unternehmen heute konfrontiert sind, was führende Unternehmen anders machen und welche Schritte sie gehen können, um wichtige Schwerpunktbereiche zu identifizieren.

Die Prioritäten der Unternehmen bei der digitalen Transformation im Vergleich der Jahre 2021 und 2022 (Quelle: Harvard Business Review Analytics Services Report)

Ein zentrales Untersuchungsergebnis ist, dass Unternehmen neue Prioritäten setzen und damit auch andere Herausforderungen bewältigen müssen. Gerade im Zuge der kontinuierlichen Überprüfung von Geschäftsmodellen, Strategien und Prozessen entstehen auf Unternehmensseite nach und nach neue Ziele bei der Digitalen Transformation. So erklären die Befragten, dass 2021 interne Prozesse eine hohe Priorität einnahmen – wie die Steigerung der Produktivität und Effizienz (37 %), die Verbesserung der Geschäftskontinuität und Resilienz (32 %) sowie die Erhöhung der Agilität (30 %). Viele technologische, kulturelle und prozessuale Änderungen erfolgten dabei als Reaktion auf die neue Normalität, die die Pandemie geschaffen hat. Im Jahr 2022 und darüber hinaus setzen die befragten Unternehmen allerdings neue geschäftliche Ziele. Dazu gehören die Verbesserung der Kundenzufriedenheit (34 %) und die optimierte Analyse von Unternehmensdaten, um neue geschäftliche und operative Erkenntnisse zu gewinnen (33 %).

Um diese Ziele zu erreichen, müssen die Unternehmen jedoch andere Herausforderungen bewältigen. Zum einen geht es dabei um die Akzeptanz für die anstehenden Veränderungen im gesamten Unternehmen (46 %) und zum anderen um die Ausrichtung der Digitalen Transformation auf die Geschäftsziele (45 %).

Eine weitere Herausforderung betrifft den Mitarbeiterbereich, sowohl im Hinblick auf die Suche und Sicherung von Talenten zur Unterstützung neuer digitaler Initiativen als auch hinsichtlich der Schaffung einer Kultur des kontinuierlichen Lernens. Ohne konzertierte Aktivitäten in diesen Bereichen riskieren Unternehmen den Verlust ihrer Wettbewerbsstärke.

Die Weiterbildung und Schulung interner Talente könnte den Unternehmen helfen, die derzeitigen Probleme bei der Mitarbeitergewinnung und -bindung zu überwinden. Allerdings geben die Befragten an, dass die Weiterbildung kein primäres Geschäftsziel ist; bei den meisten Unternehmen zählt sie zu den am wenigsten genannten Prioritäten (14 %). Falls die Unternehmen aber künftig die Weiterbildung stärker priorisieren, könnten sie Qualifikationslücken schließen, ohne auf den hart umkämpften Markt für Fachkräfte angewiesen zu sein.

Ein Ergebnis des Reports ist auch, dass Unternehmen weiterhin in Technologien investieren, die Prozesse rationalisieren und einen höheren Geschäftswert liefern. Wie bereits 2021 gibt die Hälfte der Befragten (50 %) an, dass ihr Unternehmen im Jahr 2022 in die Automatisierung von Geschäftsprozessen investieren will. Ebenfalls hoch im Ranking stehen Technologien für Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) (44 %).

2022 und in den folgenden Jahren müssen Unternehmen vor allem die kulturellen Herausforderungen adressieren und aktiv angehen, um eine Umsetzung der Digitalen Transformation im gesamten Unternehmen sicherzustellen. Für einige Unternehmen wird dies bedeuten, dass sie ihre Recruiting-Strategien neu bewerten und die Initiativen zur Umschulung und Weiterqualifizierung erhöhen müssen, um angesichts des Fachkräftemangels wettbewerbsfähig zu bleiben. Für andere Unternehmen wiederum könnte eine Evaluierung notwendig sein, ob sie die richtigen Technologien einführen und adäquat anwenden. Unabhängig davon ist für den Erfolg der Digitalen Transformation immer entscheidend, dass die Transformationsbemühungen auf die Geschäftsziele und KPIs ausgerichtet sind.

Der vollständige Report „Digital transformation refocused: New goals require new strategies“ ist verfügbar unter https://www.redhat.com/en/engage/digital-transformation-culture-innovation-20181113.

* Emily Brand ist Chief Architect and Global Ecosystem Presales Leader bei Red Hat


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Unternehmen krisenfest machen

Achim Röhe beschäftigt sich mit der Art und Weise, wie Unternehmen in Zukunft sozusagen „software-gesteuert“ werden.

Irgendeine Krise ist immer. Aktuell kumulieren viele weltpolitische und weltwirtschaftliche Katastrophen und belasten die Unternehmen. Aber auch jenseits von Klimakrise, Ukraine-Krise oder Corona-Krise gab es immer Gefahren und unerwartete Ereignisse in Unternehmen: Unfälle, eine Insolvenz großer Kunden, technisches Versagen oder eine Umwelttragödie. Mit guter Software und klugen Algorithmen lassen sich heute Risiken berechnen und mit einiger Treffsicherheit vorhersagen, zumindest aber lassen sich Szenarien und Folgewirkungen betrachten. Der Einsatz von Software, Algorithmen und Künstlicher Intelligenz (KI) macht Unternehmen resilienter. Wie Unternehmen resilient werden, beschreibt der COO der ReqPOOL Gruppe Achim Röhe in seinem neuen Buch „Das resiliente Unternehmen – Die Krisen der Zukunft erfolgreich meistern“, das jetzt im Springer Gabler Verlag erschienen ist.

„Wir werden sehr bald erleben, dass Unternehmen selbstfahrend werden. Das bedeutet, dass rund 80 Prozent der Entscheidungen von Algorithmen, also softwarebasiert, getroffen werden. Mitte der 2030er Jahre dürfte das der Normalfall sein. Schon heute können Modellierer bestimmte Szenarien vorhersagen. Allerdings werden solche Technologien derzeit noch meist nur im naturwissenschaftlichen Kontext angewendet, etwa in der Klimafolgenforschung oder im Rahmen von Pandemien. Doch für Unternehmen ist dies genauso wichtig. Neue Software und die Möglichkeiten von KI machen Vorhersagen für jedes Unternehmen erschwinglich“, erklärt Achim Röhe, der in seinem Buch auch Berechnungsmethoden für die Folgenschwere von Krisen und einen „Resilienz-Quotienten“ vorstellt, mit dem Unternehmen eine Kennzahl erhalten, die aussagt, wie gut ein Unternehmen oder ein Standort auf potenzielle Erschütterungen eingestellt ist.

Resilienz werde zum absoluten Wettbewerbsvorteil. Basis für Resilienz sei eine intelligente IT, die einerseits in der Lage ist, die richtigen Entscheidungen vorzubereiten oder zu treffen, um Ernstfälle idealerweise zu vermeiden oder bei deren Eintritt zu managen, die aber andererseits maximal transparent ist, so dass aus ihr selbst heraus keine Gefahr entsteht. Hinzu komme der Aspekt der IT- und Datensicherheit. „Alle drei Dimensionen müssen gedacht und gelöst werden. Unternehmen müssen sich auf ihre Software und IT-Architektur verlassen können und sie als Teil einer Resilienz-Strategie begreifen. Heute lassen sich dank KI und Software die Probleme von morgen schon lösen“, ist Röhe überzeugt.

Wie werden Unternehmen resilient? Dieser Frage geht Achim Röhe in seinem Buch nach.


Röhes Buch „Das resiliente Unternehmen“ baut in seiner Argumentation und Schlussfolgerung auf dem Buch des ReqPOOL-CEO Florian Schnitzhofer auf, der unlängst sein Buch „Das selbstfahrende Unternehmen“ vorgelegt hat, das ebenso im Springer Gabler Verlag erschienen ist. Beide Werke geben Auskunft über die digitale Zukunft und auf eine softwaregestützte Wirtschaft im nächsten Jahrzehnt. „Technologische Entwicklungen verlaufen exponentiell. Die Zukunft hat begonnen. Noch ist Zeit, die richtigen Weichen zu stellen. Wir werden aber sehr bald eine radikale Umwälzung erleben, die das Wirtschaften, die Arbeitswelt und die Basis unserer Entscheidungen revolutionieren wird“, so Röhe. Sein Buch „Das resiliente Unternehmen – Die Krisen der Zukunft erfolgreich meistern“ solle hier Kompass und Leitfaden sein, endlich aus dem Krisenmodus herauszukommen.
 
Das neue Buch von Achim Röhe ist auf Amazon und im stationären Buchhandel zum Preis von 34,99 Euro erhältlich, Weitere Informationen über die ReqPOOL Gruppe, die Themen Software, Digitalisierung und digitale Transformation gibt es unter https://reqpool.com.


Automated Security? Wie KI Cyberangriffe abwehrt

Cybersicherheit ist längst keine Zusatzlösung mehr, sondern besitzt bei der Umsetzung neuer Technologien hohe Priorität. Denken wir nur an Smart Homes oder Connected Cars, Security muss in unserem Arbeits- und Privatleben mitgedacht werden, denn der Fortschritt scheint unaufhaltsam. Deshalb muss das Augenmerk auf automatisierte und auf Künstlicher Inteligenz (KI) basierende Lösungen gerichtet werden, um die steigende Anzahl von potenziellen Sicherheitsbedrohungen zu verhindern. Im Interview erklärt uns Gergely Lesku, Head of International Operations beim europäischen Anbieter für Cybersecurity SOCWISE, wie sich Unternehmen dank automatisierten Lösungen sicherer aufstellen können.

Wie können Unternehmen durch automatisierte Cyber-Sicherheitslösungen mehr Resilienz entwickeln?
Der Großteil der Lösungen, die auf AI basieren, setzen auf „Unsupervised Machine Learning“. Das bedeutet, dass sie das normale Verhalten der Nutzer und anderen Teilen des Netzwerks (Tausende von Entitäten, Kommunikationsebenen, Aktionen im Systemspeicher etc.) lernen, ohne, dass sie speziell programmiert werden. Dieses komplexe Muster vergleichen sie dann mit dem tatsächlichen Verhalten. Wenn dann ein verdächtiges oder ungewöhnliches Verhalten beobachtet wird, vergleichen diese Lösungen mit dem typischen Vorgehen bösartiger Akteure. Dieser Prozess mündet dann in einer (erhöhten) Risikoeinschätzung oder sogar einem Alarm. Je nachdem, welche Möglichkeiten der AI am Anfang zugewiesen wurden, kann sie beispielsweise die Sperrung oder Löschung eines Accounts oder die Isolation einer schadhaften Datei veranlassen. Der größte Vorteil, den eine AI basierte Sicherheitsstruktur mitbringt, ist, dass sie so auch diejenigen Angriffe erkennt, die aus einer unbekannten Malware oder IP-Adresse stammen oder andere Hinweise dieser Art geben. Diese bringen auch neue Herausforderungen mit sich, denn je mehr Verdachtsfälle aufkommen, desto mehr Analyseschritte sollten von Menschen gemacht werden.

In der aktuellen Cybersicherheitslage bleibt quasi keine Reaktionszeit mehr. Wie kann künstliche Intelligenz helfen?
Aufgrund der aktuellen Konfliktsituationen gehen viele fälschlicherweise davon aus, dass die Gefahr einer Cyberattacke für Unternehmen generell größer geworden ist. Bis auf einige Unternehmen aus dem Bereich der kritischen Infrastruktur (wie Öl-, Gas,- Elektrizität, Transport, etc.) ist dies allerdings nicht unbedingt der Fall. Für diese Unternehmen wird AI allerdings auch nicht alles allein stemmen können. Es ist jedoch ein wichtiger erster Schritt, wenn Firmen beispielsweise auf eine verlässliche XDR-Lösung (Extended Detection & Response) setzen und diese mit den Fähigkeiten eines potenten Security-Dienstleisters verbinden. Zusätzlich braucht es Incident-Response-Pläne. Ihnen kommt wahrscheinlich die größte Bedeutung zu, da sie die Richtlinien für alle konkreten Maßnahmen sind, die im Falle eines Angriffs getroffen werden: beispielsweise welche Abteilung muss welche Schritte einleiten, um den Angriff so schnell wie möglich abzuwehren und so den Schaden zu minimieren.

Auch Cyberkriminelle besitzen Zugang zu künstlicher Intelligenz. Welche Szenarien sehen Sie auf uns zukommen?
Das ist ein sehr wichtiger Punkt. Auch Cyberkriminelle haben natürlich längst die Vorteile von KI erkannt und nutzen diese. Sie ist vor allem dann hilfreich, wenn es um große Mengen an Daten und Informationen geht. Angreifer nutzen KI inzwischen an vielen verschiedenen Stellen und sie wird sowohl bei DDOS oder Brute-Force Attacken und Kampagnen genutzt. Ebenso kommt sie auch für ausgeklügelte Vorgehensweisen wie Phishing-Aktivitäten zum Einsatz. Die Hacker testen mithilfe künstlicher Intelligenz automatisiert eine Vielzahl an Versionen und Möglichkeiten.

Sie haben Einfluss auf die Aktualisierung der Nato-Cybersicherheit gehabt? Welche Erfahrungen nehmen Sie aus diesem Prozess mit?
Die Experten der NATO sind – Gott sei Dank – wirklich gut vorbereitet. Test und Recherchen bilden das Fundament für das Design. Wir können in erster Linie mit Fachexpertise im Umgang mit den genutzten Systemen weiterhelfen. Da wir diese in vielen verschiedenen Einrichtungen und Organisationen einsetzen, sind wir mit verschiedensten Situationen konfrontiert und haben so einen umfassenden Überblick. Dies und die Erfahrungen aus der Praxis sowie konkreter Anwendungsfälle haben SOCWISE dazu befähigt, die kontinuierliche Entwicklung der NATO zu unterstützen.
Der militärische Anwendungsfall ist natürlich ein besonderer. Diese Organisationen basieren auf sehr durchgetakteten und strengen Prozessen. Da es hier im wahrsten Sinne des Wortes um Leben und Tod gehen kann, ist noch einmal ein besonders detailliertes Know-how erforderlich, welches in vielen Lernprozessen und konkreten Schulungen angeeignet werden muss. So können die IT-Teams der NATO in der Wartung ihrer Prozesse völlig unabhängig sein und diese selbstständig durchführen. Dies ist im militärischen Einsatzbereich einzigartig und eröffnet neue Perspektiven und Möglichkeiten bei jedem einzelnen Schritt der Implementierung.

Warum hat die digitale Transformation ohne Vertrauen in Daten keine Chance?
Das ist eine sehr interessante Frage. Auf der einen Seite müssen wir über valide, nicht kompromittierte, saubere und nicht dublizierte Daten verfügen. Das ist der Minimalstandard, um das eigene Unternehmen auf digitalen Informationen und Tools aufzubauen. Die Rolle der Informationssicherheit ist es nun, die Integrität, Verlässlichkeit und Verfügbarkeit dieser ganzen Daten für den Menschen und die restlichen Systeme sicherzustellen. In anderen Worten: auch die Anwendungen sind Daten. Es gibt keine moderne Organisation, die nicht darauf vertrauen muss.
Auf der anderen Seite sagt die Zero-Trust-Philosophie, dass wir keiner Quelle oder Entität vertrauen dürfen, bevor wir wissen, dass ihr Einfluss sicher ist. Ansonsten kann unser gesamtes System in Gefahr geraten. Deshalb sind Zugangs- und Identitätsmanagement, sowie die Verhinderung von Datenverlust und ungewollter Verschlüsselung essentiell für die Resilienz von Unternehmen.

Was raten Sie den Verantwortlichen jetzt?
Wir raten Organisationen immer, dass sie mit einer Einschätzung anfangen sollen: Führen Sie eine grundsätzliche Risikobewertung durch und analysieren sie dann, welche Fähigkeiten Ihnen zur Identifizierung und Abwehr von schädlichen Vorgängen zur Verfügung stehen. Wir haben auch Methoden um herauszufinden, wo die Schwachpunkte der industriellen Netzwerke und Prozesse liegen. Diese Analyse versetzt Unternehmen in die Lage, die möglichen Konsequenzen eines Angriffs oder eines anderen katastrophalen Vorfalls ( denn nicht alle sicherheitsrelevanten Vorfälle sind immer auf einen Angriff zurückzuführen) und die Möglichkeiten sich von diesem zu erholen, abzuschätzen. Die Erfahrung zeigt, dass das Management in den meisten Fällen einen falschen Eindruck von ihren verwundbarsten Stellen haben und nur sehr wenig Informationen darüber besitzen, welche Strategien, Kosten und andere Voraussetzungen mit einem solchen Vorfall verbunden sind und das trotz der Qualitätssicherung und Regularieren.


Bildquelle / Lizenz Aufmacher:
Photo by Philipp Katzenberger on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Next home – Wie wohnt Deutschland übermorgen

Wir sprachen mit Mathias Bork, Geschäftsführer von QVC Deutschland über das „digitale Zuhause“ und die Bedeutung desselben für das Konsumverhalten.

Mathias Bork: „In unserer „Next Home“-Studie kristallisiert sich heraus, dass rund die Hälfte der Deutschen befürchtet, dass die Digitalisierung mehr und mehr unsere Sinne einseitig fordert.“

Herr Bork, Ihr Unternehmen QVC hat mit „Next Home – Wie wohnt Deutschland übermorgen“ eine weitere Zukunftsstudie herausgebracht. Was sind die zentralen Erkenntnisse der Studie?
Die letzten zwei Jahre haben uns allen vor Augen geführt, welch große Rolle digitale Technologien in unserem Alltag spielen. Heute mehr als je zuvor. Beruflich wie privat. Unser Wunsch nach Multifunktionalität und Virtualität ist durch die Pandemie rasant gestiegen. Das Metaversum wurde in den letzten Jahren zum neuen Treffpunkt und das „digitale Zuhause“ zu unserer neuen Wirklichkeit. Unsere „Next Home“-Studie bestätigt dies und zeigt, dass diese Digitalisierung des Lebens und unser Verlangen nach Virtualität in Zukunft sogar noch weiter zunehmen wird.

Sie sprechen vom „digitalen Zuhause“. Was können wir uns darunter vorstellen?
Das „digitale Zuhause“ ein Ort für Freizeit, Entertainment, Shopping und Arbeit – alles auf der digitalen Ebene. Hier spielen Aspekte wie Augmented Reality und Smart Home eine wichtige Rolle. So haben wir im „digitalen Zuhause“ berufliche Besprechungen online per Video-Chat, treffen unsere Freund*innen und Familien im Virtuellen Meetingpoint, lassen uns von Smart-Home-Helfern Einkaufslisten zusammenstellen und bestellen unsere Konsumgüter im Internet.

Was bedeutet das alles für unser Konsumverhalten?
Dieser digitale Fortschritt hat einen großen Einfluss auf unser Shopping-Verhalten. Heute gibt es kaum noch etwas, was wir nicht kontaktlos von zuhause aus einkaufen können. Live-Shopping, ein Vertriebsweg den QVC groß gemacht hat, hat einen Boom auf diversen Plattformen erlebt. Und die Technologien und damit die Möglichkeiten entwickeln sich immer weiter, bieten uns immer mehr an, machen immer mehr möglich. Und so gehen unsere „Next Home“-Zukunfts-Experten davon aus, dass Virtual Reality Shopping per Livestream 2040 zur absoluten Normalität wird – sowohl für die Unternehmen als auch die Verbraucher*innen.

Alles verlagert sich ins Digitale – verändert sich auch unser Verhältnis zu unserem Aussehen?
Unser Aussehen wird zukünftig eine immer größere Rolle spielen. Speziell unsere Haut. Auch hier der Grund: die steigende Virtualität. Social Media, Video-Chats, online Netzwerke – vieles findet schon heute nur noch auf dem Screen statt. Wir sind mittlerweile darauf konditioniert, auf Bildschirmen möglichst gut aussehen zu wollen. Und da uns in Zukunft ein stetig wachsender Markt an virtuellen Technologien erwartet, gehen unsere Forscher davon aus, dass unsere Haut bis spätestens 2040 das Symbol für Gesundheit und Vitalität sein wird.

Wie werden wir also in Zukunft leben und arbeiten?
Unsere Lebensbereiche sind bereits heute stark miteinander verschmolzen. Das Büroleben, wie wir es bis vor der Pandemie kannten, wird es laut unserer Studie bis 2040 so also nicht mehr geben. Stattdessen wird sich die Kultur der hybriden Arbeitsmodelle immer weiter etablieren. Was als Notlösung während der Pandemie startete, ist ganz klar die Arbeitswelt von morgen. Neben Activity-Based-Working ist Home-Office wohl das Stichwort der Zukunft. Dafür wird es auch auf der architektonischen Seite immer mehr Anpassungen geben: unser Zuhause wird ein zunehmend flexibel nutzbarer Raum werden, der auf immer kleiner werdender Fläche immer mehr Aktivitäten zulässt.

Wo sehen Sie den Ausgleich zum digital geprägten Alltag / der Beschleunigung?
In unserer „Next Home“-Studie kristallisiert sich heraus, dass rund die Hälfte der Deutschen befürchtet, dass die Digitalisierung mehr und mehr unsere Sinne einseitig fordert. Unsere Experten sehen deshalb einen vermehrten Wunsch nach handwerklicher Betätigung und der Beschäftigung mit haptischen und vor allem analogen Dingen als Gegentrend zu all der Digitalisierung.


Bildquelle / Lizenz Aufmacher:

Photo by Jan Antonin Kolar on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Cybersicherheit: Mensch und Maschine im Team

Die Cyber-Sicherheitslage ist volatil. Eine Kombination von Technologie und Schulungen der Mitarbeiter scheint da ideal zu sein. Das funktioniert aber nur, wenn diese, wie Ingo Schäfer von Proofpoint ausführt, nicht wie eine Pflichtübung anmuten. Darüber und über die generellen Trends im IT-Security-Bereich sprachen wir mit ihm.

Herr Schäfer, die bei Cyberkriminellen beliebte Malware wie Emotet ist nicht tot zu kriegen. Proofpoint gestaltet zahlreiche Analysen und betreibt viel Research-Arbeit. Was sind da die Trends aus Ihrer Sicht? Mit welchen Szenarien müssen wir rechnen?
Tatsächlich ist die Bedrohungslandschaft sehr volatil und entwickelt sich ständig fort. Im Allgemeinen gibt es nur wenige Gewissheiten in diesem Bereich. Eine davon ist jedoch, dass Cyberkriminelle, egal ob finanziell motiviert oder staatlich gelenkt, alles tun, um den Menschen als Schwachstelle auszunutzen.
Ein Trend, der sich darüber hinaus abzeichnet, besteht darin, dass bestimmte APIs (Schnittstellen von Anwendungen) angegriffen werden, um Lieferketten zu kompromittieren. Dies ist ein Beleg dafür, wie innovativ die kriminellen Akteure sind und dass sie ständig neue Tools zur Ausnutzung von Schwachstellen verwenden. Die menschliche Komponente bei Cyberangriffen, z. B. die Gefahr, Opfer von Social Engineering oder Insider-Bedrohungen zu werden, verstärkt sich mit dem Trend hin zu hybriden Arbeitsformen. Da die Fluktuation unter der Belegschaft vieler Unternehmen aktuell sehr groß ist, entsteht dadurch eine wachsende Qualifikationslücke im Bereich der Cybersecurity. Dies hat Auswirkungen auf die Sicherheit von Organisationen insgesamt, wodurch sich der Bedarf an effektiver Automatisierung in diesem Bereich massiv erhöht.
Zudem ist davon auszugehen, dass Bedrohungen rund um die Cloud weiter zunehmen und im Zuge der Cloud-Migration vieler Unternehmen auch kostspieliger werden. Auch der Gesetzgeber wird hier voraussichtlich nicht untätig bleiben, sondern die Vorschriften zur Stärkung der Cybersicherheit dürften in den nächsten Jahren erheblich ausgebaut werden. Standardisierte Meldepflichten im Falle von Sicherheitsverletzungen werden sich dabei als notwendig erweisen. Und auch im Bereich der Cyberversicherungen wird sich einiges verändern, da sich die Branche einer Explosion an Forderungen gegenübersieht. In der Folge müssen viele Unternehmen selbst für ihre Sicherheit sorgen, weil dieser Schutzschirm im Fall der Fälle möglicherweise nicht mehr alle Schäden abdecken kann.

Wie kann KI vielleicht helfen, die Mitarbeitenden unterstützen, wenn es um Fragen der IT-Sicherheit geht?
Besonders die Erkennung von textbasierten Angriffen wie im Falle von BEC (Business Email Compromise, auch CEO-Betrug genannt), bei denen keine Malware oder präparierte Web-Links verwendet werden, ist eine Herausforderung für klassische Security-Lösungen. Hier können KI- und Machine-Learning-Technologien einen wichtigen Beitrag leisten, um derartige Angriffe frühzeitig zu erkennen und eine Zustellung an das Postfach des Benutzers zu unterbinden.
Bei Proofpoint haben wir es zu unserer Aufgabe gemacht, den Schutz unserer Kunden mit Hilfe von KI und Machine Learning erheblich zu verbessern, um die größtmögliche Sicherheit zu gewährleisten. Proofpoints Targeted Attack Protection (TAP) beispielsweise erkennt Bedrohungen, die auf Menschen und ihre Daten abzielen, und zwar in den Tools, die sie in ihrem Arbeitsalltag nutzen. Es verfügt über mehrere Machine-Learning-Engines zur Identifizierung von Bedrohungen bzw. zusammengesetzter mehrstufiger Bedrohungen, der Klassifizierung von Beziehungen im Rahmen der Kommunikation, der Klassifizierung von Mitarbeitern in Schlüsselpositionen sowie der Bewertung und Identifizierung von sich verändernden Webseiten bzw. Links. Dadurch werden nicht nur neue und noch unbekannte Bedrohungen erkannt, sondern diese Daten werden auch für die künftige Erkennung genutzt.

Welche Ratschläge geben Sie IT-Sec-Verantwortlichen mit auf den Weg für die kommenden Monate?
Ganz generell lässt sich festhalten, dass eine Kombination aus Technologie und auf den Menschen ausgerichteter Maßnahmen in Sachen Cybersicherheit den größtmöglichen Schutz bietet. Wir empfehlen Unternehmen, einen personenzentrierten, also am Menschen ausgerichteten Sicherheitsansatz zu verfolgen, der alle Beteiligten (Mitarbeiter, Kunden und Geschäftspartner) vor Cyberbedrohungen schützt. Zudem müssen die Security-Verantwortlichen technische Maßnahmen wie eine mehrschichtige Verteidigung am Netzwerk-Edge, am E-Mail-Gateway, in der Cloud und am Endpunkt ergreifen. Ferner ist es unerlässlich die eigenen Mitarbeiter regelmäßig für aktuelle Cyberbedrohungen in umfassenden Benutzerschulung zu sensibilisieren und ihnen dabei das nötige Rüstzeug mit auf den Weg zu geben, diesen Gefahren zu begegnen. Benutzer müssen verinnerlichen, dass alle E-Mails, die sie unaufgefordert erhalten, mit Vorsicht zu genießen sind, insbesondere solche, die eine Handlung vom Benutzer verlangen – beispielsweise in Form einer Aufforderung, einen Anhang herunterzuladen bzw. zu öffnen oder auf einen Link zu klicken bzw. Anmeldedaten oder sensible Informationen mitzuteilen.


Bildquelle / Lizenz Aufmacher:

Photo by sebastiaan stam on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Der Booster für die Entwicklung: Low-Code-Plattformen

Autor Kai Hinke, Leiter Consol CM Software bei Consol: Die Nutzung von Low-Code-Plattformen liegt voll im Trend. Er schreibt über Anwendungsfälle für beide Technologien.

„Low-Code-Plattformen sind eine Art Baukasten für die Software-Entwicklung“, so Kai Hinke.

Zentrale Treiber dieses Trends sind der Nachholbedarf in der Digitalisierung europäischer Unternehmen und der sich verstärkende Fachkräftemangel in der IT-Branche. Der zentrale Vorteil des Low-Code-Ansatzes ist die schnelle Entwicklung und Adaption von Applikationen.

Low-Code-Plattformen fungieren als eine Art Baukasten für die Software-Entwicklung. Sie unterstützen die einfache Modellierung der Businesslogik beziehungsweise der Prozesse, Datenmodelle und Benutzeroberfläche. Mit grafischen Benutzeroberflächen und Editiertools können Anwender Anpassungen an Applikationen einfach und schnell per „Drag and Drop“ durchführen.

Von Low-Code-Plattformen zu unterscheiden sind No-Code-Lösungen. Mit ihnen können Applikationen vollständig ohne Scripting- beziehungsweise Programmieraufwand über grafische Editoren adaptiert werden. Aufgrund des eingeschränkten Funktionsumfangs sind komplexere Anforderungen in der Regel nicht umsetzbar, etwa im Hinblick auf die Abbildung von vielschichtigen Prozessen oder Datenstrukturen. Auch den Datenaustausch mit Drittsystemen, insbesondere unter Einbindung der Businesslogik, unterstützen No-Code-Plattformen nur sehr eingeschränkt oder überhaupt nicht. Folglich eignet sich die No-Code-Nutzung nur für relativ einfache Anwendungsfälle.

Mit Low-Code-Tools hingegen können Nutzer nicht nur einfache, sondern auch komplexe technische und fachliche Aufgaben mit einem geringen Programmier- oder Scripting-Aufwand erledigen. Sie unterstützen auch die Umsetzung vielschichtiger organisatorischer und prozessualer Anforderungen oder die Interaktion und den Datenaustausch mit Drittsystemen im Unternehmen. Während mit No-Code bereits IT-affine Fachabteilungen Lösungen erstellen können, erfordern Low-Code-Ansätze die Einbindung von IT-Experten, wobei es allerdings nicht zwingend Programmierer sein müssen. Das heißt: Auch wenn das Konzept letztlich auf den Citizen Developer abzielt, also den Fachbereichsentwickler, sollte die Plattformeinführung nicht allein in die Hände von Fachabteilungen gegeben werden. Es handelt sich dabei immer noch um ein zentrales IT-Projekt. Die Fachabteilungen können zwar neue Lösungen auf Basis der Plattform autark und damit viel agiler erstellen und adaptieren, aber die IT bleibt für Wartung, Updates oder Support verantwortlich.

Wichtige Funktionen einer Low-Code-Plattform

Aufgrund des größeren Funktionsumfangs und der höheren Flexibilität werden vor allem Low-Code-Plattformen weiter an Attraktivität gewinnen. Es gibt dabei eine Vielzahl unterschiedlicher Lösungsansätze. Bei der Auswahl einer konkreten Variante sollte ein Unternehmen darauf achten, dass sie prinzipiell ohne Programmierung auskommt. Eine Programmierung kann zum Beispiel dann erforderlich sein, wenn gänzlich neue Funktionskomponenten entwickelt werden müssen, die das „Low-Code-Baukastensystem“ nicht mitbringt, oder um eine individuelle Kundenschnittstelle zu integrieren.

Eine leistungsstarke Low-Code-Plattform bietet in erster Linie funktional umfangreiche und leicht bedienbare Editoren für die flexible anforderungsspezifische Anpassung von Prozessen, Businesslogik und Datenmodellen. Für die Umsetzung komplexer Anforderungen ist eine Scripting-Engine erforderlich. Ebenso wichtig sind ausgereifte Deployment-Mechanismen für die einfache Übertragung von Systemanpassungen in die Produktivumgebung und Standard-Schnittstellen für den Datenaustausch mit Drittsystemen. Nicht zuletzt sollte die Plattform auch ein Cloud- und On-Premises-Nutzungskonzept unterstützen, um die verschiedenen infrastrukturellen Anforderungen der Anwender abzudecken.

Einfache Optimierung eines Reklamationsprozesses

Ein typischer Reklamationsprozess, wie er vor der Optimierung durch eine Low-Code-Plattform aussah. Quelle: Consol

Low-Code-Entwicklungsplattformen ermöglichen Nutzern, neue Prozesse selbst zu definieren beziehungsweise Änderungen und Optimierungen an bereits modellierten Prozessen eigenständig vorzunehmen. Dabei kann der Benutzer sich auf die zu implementierenden Funktionen fokussieren, ohne zu wissen, wie der Quellcode zu schreiben ist.

Ein Beispiel kann dies verdeutlichen: die einfache und schnelle Optimierung eines Reklamationsprozesses, der durch eine Digitalisierungs- und Low-Code-Plattform abgebildet wird. Muss in einem Unternehmen jede Gutschrift – auch bei kleinsten Beträgen – von einem Teamleiter genehmigt werden, führt dies zu erhöhten Aufwänden für die Vorgesetzten. Um die Teamleiter zu entlasten, können die Bearbeiter die Möglichkeit erhalten, Gutschriften beispielsweise bis zu 100 Euro eigenständig zu veranlassen. Diese Möglichkeit soll allerdings nur optional bestehen, sodass bei Unklarheiten weiterhin eine Genehmigung angefragt werden kann.

Für die Umsetzung eines solchen Szenarios sind in einer Low-Code-Plattform wie Consol CM lediglich zwei Anpassungen erforderlich: Erstens muss der Anwender ein neues Datenfeld „Genehmigung anfragen?“ mit den Optionen „Ja“ und „Nein“ anlegen. Zweitens muss er den Prozess dahingehend ändern, dass die Vorgänge bei „Nein“ den Genehmigungsprozess überspringen.

Das Anlegen des neuen Datenfeldes erfolgt bei Consol CM im Menü „Vorgänge, Untermenü „Vorgangsfelder“. Der Benutzer wählt die bereits existierende Feldgruppe „Reklamation“ aus und klickt auf den Button „Neues Feld“. Im geöffneten Fenster gibt er im Tab „Felddaten“ den Namen für das Feld ein und wählt als Feldtyp „Boolean“ aus: Danach filtert der Benutzer im Tab „Einstellungen“ nach „boolean“ und wählt unter „Boolean-Darstellung“ die Option „Radio-Buttons“. Dies führt dazu, dass das Feld als Radio-Buttons mit den Optionen „Ja“ und „Nein“ dargestellt wird. Zuletzt wird das Feld durch Klicken auf „Feld erstellen“ gespeichert. Die Prozessänderung erfolgt anschließend im Menü „Geschäftslogik“, Untermenü „Workflows“ ebenfalls in wenigen Schritten.

Der neue Workflow „Gutschrift vorbereiten“, „Gutschrift veranlassen“ und „An Genehmiger übergeben“ nach der Änderung des Reklamationsprozesses im Überblick. Quelle: Consol

Diese Änderung des Reklamationsprozesses kann der Anwender ohne spezifische Programmierkenntnisse mit intuitiv bedienbaren grafischen Modellierungswerkzeugen durchführen. Im Ergebnis kann der jeweilige Sachbearbeiter dann im Web-Client entscheiden, ob er eine Genehmigung anfragen will.

Insgesamt wird der Markt für Low-Code-Plattformen weiter dynamisch wachsen, wie führende Marktforschungsunternehmen prognostizieren. Immer mehr Unternehmen werden Anwendern aus den Fachabteilungen, die idealerweise eine gewisse IT-Affinität mitbringen und geschult wurden, die Verantwortung für ihre Prozesse und Applikationen übertragen. Schließlich wissen die Fachabteilungen durch die täglichen Abläufe selbst am besten, an welchen Stellen Optimierungspotenziale bestehen. Die abgeleiteten Maßnahmen können die Mitarbeiter in einer Low-Code-Entwicklungsumgebung dann ohne Kommunikationsbruchstellen zu IT-Experten direkt in der Software umsetzen.

* Kai Hinke ist Leiter Consol CM Software bei Consol

Abbildungen: