Prevention first: Die vier größten Cybersicherheitsgefahren für Unternehmen und die passende Abwehrstrategie

Nach wie vor ist Sicherheit und Datenschutz ein dominierendes Thema – und wiederkehrend zeigen Studien verlässlich die Schwachstellen auf. Hans-Peter Bauer, SVP EMEA bei BlackBerry zeigt wirkungsvolle Strategien, die schnell anwendbar sind.

Die Arbeitswelt verändert sich dynamisch: Homeoffice und Remote Work bewähren sich als begehrte Option für Arbeitnehmer, den Arbeitsplatz in die eigenen vier Wände zu verlegen. Allerdings führt das zu neuen Herausforderungen, denn laut dem aktuellen Threat Report 2022 von BlackBerry haben Cyberangriffe um 400 Prozent zugelegt – und daran hat die Arbeit im Homeoffice einen großen Anteil. Denn mehr Eintrittspunkte in Netzwerke durch Homeoffice bedeuten zugleich mehr Angriffsfläche beispielsweise für Ransomware. Einen wirksamen Lösungsansatz bieten moderne Sicherheitskonzepte auf Basis von künstlicher Intelligenz und unter dem Stichwort Prevention first.

Erpressung mithilfe von Ransomware gehört zu den besonders heimtückischen Angriffsmethoden und stellt für Unternehmen in vielfacher Hinsicht eine existenzielle Gefahr dar. Der BlackBerry Threat Report 2022 belegt, dass das Volumen um 935 Prozent zugelegt hat und Hacker gestohlene Daten von mehr als 2.300 Unternehmen auf eigens dafür eingerichteten Seiten platziert haben. Parallel dazu arbeiten Millionen von Arbeitnehmern an virtuellen Arbeitsplätzen, die alle von zu Hause aus eingerichtet werden. Viele Unternehmen versuchen immer noch, sich an diese neue Normalität des Homeoffice anzupassen und der Einsatz von Technologien wie Videokonferenzen und VPNs steigt sprunghaft an.

New Work und IT-Sicherheit in Einklang bringen

Die Zukunft der Arbeit wird schon seit fast einem Jahrzehnt als eine fast vollständig ferngesteuerte oder virtuelle Arbeit angepriesen. Aber erst jetzt ändert sich auch die Einstellung zur Telearbeit. Essenziell sind Ansätze, bei denen Technologie und Sicherheit mit dem Wandel Schritt halten können. Denn die aktuelle Generation von Arbeitnehmern erwarten von ihren Arbeitgebern, dass sie ein neues Arbeitsumfeld schaffen, das allen Arbeitsstilen und den individuellen Bedürfnissen jedes einzelnen Mitarbeiters gerecht wird. Dabei gilt es verlässlich sicherzustellen, dass die zusätzliche Komplexität nicht zu weitreichenden Sicherheitslücken führt.

Um zu beantworten, wie Hacker immer wieder einen Weg ins Innere von IT-Netzwerken finden und was Unternehmen tun können, um sich umfassend zu schützen, lohnt ein Blick auf die vier zurzeit größten Cyber-Bedrohungen für Unternehmen.

  1. Phishing
    Phishing ist zwar keineswegs neu, aber immer noch eine der größten Bedrohungen für Unternehmen. Die Angriffswellen können für Cyberkriminelle selbst dann von Vorteil sein, wenn nur ein winziger Prozentsatz der zahlreichen versendeten Nachrichten ihr Ziel erreicht. Besonders gefährlich ist Spear-Phishing, eine Methode, die zielgerichtet auf eine bestimmte Person, Gruppe oder Organisation zugeschnitten ist. Im Gegensatz dazu werden bei regulären Phishing-E-Mails Massen-E-Mails an eine große Anzahl ahnungsloser Kontakte verschickt.
    Für normale Benutzer wird es immer schwieriger, Phishing-Versuche zu erkennen. Daher erfordert die Phishing-Abwehr koordinierte Maßnahmen von Arbeitnehmern und Arbeitgebern. Mitarbeiter sollten unbedingt die Sicherheitsrichtlinien des Unternehmens befolgen und sicherstellen, dass alle ihre Geräte durch Sicherheitssoftware geschützt sind. Zudem sind automatische Aktualisierungen umgehend durchführen, damit Phishing-Angreifer keine bekannten, behebbaren Schwachstellen ausnutzen können. Arbeitgeber können das Bewusstsein für Phishing durch regelmäßige Mitarbeiterschulungen stärken. Empfohlen wird außerdem eine Kontrolle der Endpunktsicherheit für unternehmenseigene und mitarbeitereigene Geräte, die sowohl online als auch offline eingesetzt werden.
  2. Social Engineering
    Ähnlich wie beim Phishing werden die Opfer beim Social Engineering in eine Falle gelockt. Das geschieht etwa via E-Mail, Telefon, SMS oder über soziale Medien. Ein Angreifer könnte beispielsweise ein gefälschtes LinkedIn-Profil erstellen, das für die Mitarbeiter überzeugend genug aussieht, um ihre Freundschaftsanfrage zu akzeptieren. In den darauffolgenden Nachrichten werden oft winzige Informationen erfragt, um den Angreifern den Einstieg zu ermöglichen, nach dem sie gesucht haben.
    Das Aufkommen von Künstlicher Intelligenz (KI) als Werkzeug im Cyberspace bedeutet, dass Social Engineering-Kampagnen in großem Maßstab durchgeführt werden können. Auch hier ist das schwache Glied in der Sicherheitskette der Mensch. Sobald die Mitarbeiter die grundlegenden Sicherheitsprotokolle beherrschen, verstehen sie, wie viele Angriffe allein durch konsequentes Verhalten verhindert werden können.
  3. Schwachstellenmanagement
    Als wesentlicher Bestandteil der IT- und Netzwerksicherheit umfasst Schwachstellenmanagement die Identifizierung, Klassifizierung, Priorisierung, Behebung und Entschärfung von Softwareschwachstellen. Heutzutage warten Hacker nicht mehr darauf, dass ein Exploit veröffentlicht wird – sie installieren stattdessen Hintertüren, die so lange schlummern, bis sie ein geeignetes Exploit finden. Dennoch gehen einige Unternehmen immer noch davon aus, dass sie sicher sind, bis eine Sicherheitslücke veröffentlicht wurde. Leider bedeutet das, dass Unternehmen ihre Systeme oft zu langsam aktualisieren oder mit Patches versehen, und so den Angreifern hinterherhinken.
    Unternehmen sollten daher eher proaktiv als reaktiv vorgehen. Lösungen, die KI oder ML nutzen, ermöglichen eine noch schnellere Erkennung von Bedrohungen oder Schwachstellen. Falls das nicht möglich ist, kann die Aufgabe an externe Sicherheitspartner ausgelagert werden.
  4. Alarm-Müdigkeit
    Für Unternehmen, die mit internen Ressourcen arbeiten, ist die schiere Menge der Sicherheitswarnungen, die jeden Tag bearbeitet werden müssen, ein großes Problem. Nur ein Prozent der Sicherheitswarnungen erfordert eine Untersuchung und ein Zehntel davon verlangt Aufmerksamkeit. Bei der ständigen Flut von Warnmeldungen fällt es jedoch schwer, sich auf die wirklich wichtigen Dinge zu konzentrieren, und das kann dazu führen, dass echte positive Meldungen übersehen werden.
    Für Unternehmen kann es daher kostengünstiger sein, abonnementbasierte Managed Detection and Response (MDR)-Lösungen zu nutzen. Diese Dienste bieten eine kontinuierliche Bedrohungsverfolgung und -überwachung mithilfe von KI.
    Damit gelingt es, Daten zu filtern und echte Bedrohungen für das Unternehmen zu erkennen. Sobald eine Eskalation erforderlich ist, kann das interne Sicherheits-Team Prioritäten setzen und seine Bemühungen darauf konzentrieren.

Smarte Technologien für umfassende IT-Sicherheit

Die wichtigste Voraussetzung dafür, dass die genannten Schwachstellen nicht entstehen, ist die flächendeckende Einführung von intelligenten Sicherheits- und Datenschutzlösungen. Denn die Unternehmenssicherheit muss systematisch auf die Herausforderungen des New Work abgestimmt werden. Am besten wird dieser Schutz durch eine umfassende Sicherheitslösung gewährleistet, die maschinelles Lernen und prädiktive KI-Technologien nutzt, um Sicherheitsrichtlinien auf der Grundlage von Verhaltens- und Standortmustern, Netzwerkvertrauen und Gerätenutzung dynamisch anzupassen.

Im Wesentlichen handelt es sich dabei um eine Sicherheitslösung, die menschliche Schwächen ausgleicht, Telearbeit auf globaler Ebene erleichtert und ermöglicht, Netzwerke vor Ort schützt und die Unzulänglichkeiten von VPNs ausgleicht. Darüber hinaus schützt sie die Flut neuer Endgeräte, die aus einer boomenden BYOD-Umgebung resultiert, sowie die Privatsphäre von Arbeitnehmern, die in ihrer neuen Arbeitsumgebung viele verschiedene Technologien nutzen müssen.

New Work verpflichtet Unternehmen dazu, ihre Sicherheitsrichtlinien kontinuierlich anzupassen, um mit den neuen, sich schnell verändernden Risiken Schritt zu halten. Vor allem aber müssen sie vorausschauend und proaktiv handeln, um ein sicheres Arbeitsumfeld zu schaffen, in dem Mitarbeiter nicht belastet, sondern unterstützt werden.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Panel: Nachhaltigkeit und Rezession?

Ist Nachhaltigkeit nur ein „Schön-Wetter-Thema“, wenn es der Wirtschaft gut geht oder machen nachhaltige Geldanlagen und nachhaltiges Investieren auch dann Sinn, wenn – wie jetzt – sich die wirtschaftlichen Aussichten verdunkeln und Anzeichen einer Rezession erkennbar sind? Wir haben uns umgehört.


Guy Wilkinson ist ESG Analyst bei La Française AM.

Nachhaltigkeit gewinnt langfristig

Klimawandel und Nachhaltigkeit können den Aufschwung nach einer Rezession erschweren. Infolge der Pandemie, der Invasion in die Ukraine und der Energiekrise steht nun das Thema Nachhaltigkeit im Fokus – eine Baisse kann als Bewährungsprobe für nachhaltiges Investieren verstanden werden. Die EU versucht, sich vorsichtig von russischem Gas zu lösen, und fordert gleichzeitig durch den Green Deal mehr Investitionen in saubere Energie. Kurzfristig wird die potenzielle Abkühlung infolge des Inflationsdrucks bei den Unternehmen vermutlich zu sinkenden Gewinnmargen und Barmitteln führen, was ihre Kapitalaufwendungen und damit ihre Investitionen in saubere Energie und Energieeffizienz verringern wird. Langfristig werden jedoch der Regulierungsdruck zugunsten eines sauberen Energiesystems und der Verbraucherdruck zur Senkung der Energiekosten das Wachstum grüner Anlagen vorantreiben. Nachhaltige Portfolios haben sich bisher in Abschwungphasen als stabil erwiesen und bieten weniger Volatilität, was sich auch in der bevorstehenden Rezession nicht ändern dürfte.


Paul Schofield bekleidet bei NN Investment Partners die Position Head of Sustainable & Impact Equity.

Nachhaltigkeit liegt auf der Hand

Zwar gibt es Stimmen, die behaupten, dass „nachhaltige“ Geldanlagen ein neues Phänomen sind, aber viele verwalten ihr Geld schon seit Jahrzehnten so. Nachhaltiges Investieren ist daher auch unter Rezessionsbedingungen erprobt und hat sich in der Vergangenheit bewährt. Der Grund dafür liegt für mich auf der Hand: Ein Unternehmen, das seine wesentlichen Umwelt-, Sozial- oder Governance-Risiken gut im Griff hat, schneidet meist auch in schweren Börsenzeiten besser ab. Gute Unternehmensführung ist eindeutig ein Pluspunkt in schwierigen Zeiten. Ist der Arbeitsmarkt angespannt, wie derzeit, können Unternehmen mit einer vielfältigeren und integrativeren Belegschaft gewöhnlich leichter Talente gewinnen und binden und somit unsichere Zeiten besser überstehen.

Außerdem dürfte ein nachhaltiges Aktienportfolio dazu führen, dass man sich von zyklischeren Marktbereichen, wie Rohstoffen, ab- und den nicht-zyklischen Sektoren wie dem Gesundheitswesen zuwendet. Dies kann zu einer defensiveren Ausrichtung der Fonds führen, die auch für ein Rezessionsumfeld geeignet sein dürften.


Adrienn Sarandi ist Head of ESG Strategy & Development bei Janus Henderson Investors.

Drei Gründe für Nachhaltigkeit

Es gibt drei Gründe, warum ESG eine Rezession überdauern wird.
Erstens: ESG-Fonds zeigten sich bisher resistent gegen Marktrückgänge. Wissenschaftler der Harvard University haben herausgefunden, dass besonders nachhaltige Unternehmen zwischen 1993 und 2010 selbst in Abschwungphasen deutlich besser abschnitten als ihre weniger nachhaltigen Mitbewerber.
Zweitens: Die Gründe für eine Integration von ESG sind stärker denn je. Wir benötigen dringend Lösungen gegen den Klimawandel, den Biodiversitätsverlust und viele andere Nachhaltigkeitsfragen. Regierungen spielen eine wichtige Rolle, aber wir sind auch auf Innovationen angewiesen und auf langfristige Kapitalallokationen.
Drittens: ESG-Anleger verfolgen in der Regel eine langfristige Strategie über Marktzyklen hinaus. Wir glauben, dass die Entwicklung hin zu ESG-Investitionen anhält, denn Regularien werden verschärft und die Gesellschaft wird umweltbewusster und sozialer.

ESG ist keine Modeerscheinung oder ein Luxus, der in schwierigen Zeiten vernachlässigt werden kann. ESG ist ein entscheidender Faktor für langfristig stabile Renditen und eine nachhaltige Welt.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Graphtechnologie schafft Kontext für ethische Standards

Dirk Möller, Area Director of Sales CEMEA, Neo4j, beschreibt, wie KI für mehr Transparenz in der medizinischen Forschung sorgen kann.

Algorithmen, KI und smarte Technologien sind in aller Munde – doch neue Möglichkeiten bringen eine neue Verantwortung mit sich. Um ethischen Standards in der Medizintechnik und der medizinischen Forschung gerecht zu werden, braucht es eine Technologie, die umfassenden Kontext liefert.

Ob beim autonomen Fahren, bei Chatbots im Internet oder Empfehlungen von Streamingdiensten – KI und smarte Algorithmen sind längst Teil unseres Alltags geworden. Damit rückt die Frage nach ethischen Standards als Rahmen für deren Einsatz in den Fokus.

Die EU-Kommission gab in ihrem Vorschlag von April 2021 die Richtung vor. Der Entwurf für den Artificial Intelligence Act (kurz: AIA), soll einen einheitlichen Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz schaffen. Der AIA stellt hohe Anforderungen an Transparenz, Genauigkeit und Aufzeichnungspflicht. Es wäre die erste EU-Verordnung dieser Art zur Regulierung von Produkten basierend auf Künstlicher Intelligenz. Von ein paar Ausnahmen abgesehen, würde sie für die meisten KI-Systeme gelten, also auch im HealthCare und Life Science Bereich.

Um diese Standards zu erfüllen, sind Technologien notwendig. Insbesondere Machine Learning und Deep-Learning übernehmen hier eine wichtige Rolle. Sie ermöglichen es, hoch vernetzte Daten – wie sie in der Biowissenschaft sowie im Gesundheits- und Patientenwesen existieren – effektiv zu verarbeiten und zu analysieren.

Fehlender Kontext bedeutet Fehleinschätzungen

Damit künstliche Intelligenz gerade in einem so sensiblen Umfeld wie der Medizin menschenähnliche und situationsgerechte Entscheidungen treffen kann, muss sie den Kontext einbeziehen. Mit „Kontext“ sind alle verwandten und relevanten Informationen eines Entscheidungsprozesses gemeint – aus unterschiedlichen Quellen. Eine kontextgesteuerte KI trägt dazu bei, die Erklärbarkeit und Transparenz einer Entscheidung zu gewährleisten.

Dabei muss KI bestimmte Anforderungen erfüllen: Sie muss mit Ambiguität umgehen können. Sie braucht ein umfassendes Training, strenge und klar definierte Regeln und muss für spezifische Anwendungen konzipiert werden. Zudem sollten die Systeme auch auf neue Situationen angemessen und im Rahmen ihrer Konfigurationen reagieren können. Fehlt es an Kontext, so sind die Entscheidungen schlimmstenfalls sogar schädlich – zum Beispiel, wenn es zu voreingenommenen Empfehlungen oder schädlichen Interpretationen kommt.

Graphtechnologie für vernetzte Daten

Wie schafft man einen solchen Kontext? Hier kommt Graphtechnologie ins Spiel. Laut einer Prognose von Gartner werden bis 2025 bereits 80 Prozent aller Daten und Analysen darauf basieren. Graphdatenbanken räumen Beziehungen zwischen Daten denselben Stellenwert ein wie den Daten selbst. Daten und Beziehungen werden dabei realitätsnah abgebildet – in Knoten und Kanten. Im Graphen ist der Knoten „Patient“ zum Beispiel mit Ärzten, Medikamenten oder bestimmten Therapien verbunden. In der medizinischen Forschung werden Gene, Targets und Wirkstoffe als Knoten-Kanten-Konstrukt dargestellt. So lässt sich leicht erkennen, wie jede einzelne Entität mit anderen in Verbindung steht. Was hierbei entsteht, ist ein semantischer Kontext.

Graphmodell: Dreieck aus Patient, Symptomatik und Arzt

Fünf zentrale Faktoren für KI mit mehr Kontext

  • Vertrauenswürdigkeit dank Transparenz
    Weltweit sind 54% der Menschen bereit, sich im Rahmen der Gesundheitsversorgung auf KI und Robotik einzulassen. Das setzt jedoch umfassende Transparenz voraus. Von Assistenzsystemen berechnete Diagnosen und Therapievorschläge müssen möglichst leicht interpretierbar und nachvollziehbar sein. Andernfalls kommen schnell Zweifel auf. Hier gilt es auch, Ängste zu nehmen, Vorbehalte abzubauen und die Wissenskluft in der Gesellschaft zu schließen.

KI-Diagnosen umfassen Prozesse, die Krankheiten oder Symptome eines Patienten auf Grundlage von Daten erklären. Analysiert wird die Krankengeschichte des Patienten sowie Messwerte aus Tests und Untersuchungen (z. B. EEG, MRT). Während menschliche Diagnoseprozesse zeitaufwändig und anfällig für subjektive Interpretationen sind, bieten computergestützte Verfahren bei ausreichendem Kontext einen objektiven Blick auf die Daten. KI ersetzt damit keinesfalls die menschliche Erfahrung, Kompetenz und Empathie. Sie dient stattdessen als wichtige Ergänzung und steigert zudem den Automatisierungsgrad. Vor allem in überlasteten Gesundheitssystemen kann diese KI-Unterstützung Kosten einsparen und den Zugang zu Gesundheitsdiensten und Ärzten verbessern.

  • Data Lineage sorgt für hohe Verlässlichkeit
    Graphtechnologie eignet sich hervorragend für Data Lineage, also für Einblicke in die Herkunft bestimmter Daten. Im Graphen ist leicht erkennbar, wie Daten geändert wurden, wo sie Verwendung finden und wer auf sie zugreift. Insbesondere bei vertraulichen, hochsensiblen Daten über Patienten oder umfassenden Daten in der medizinischen Forschung garantiert dies eine hohe Datenintegrität. Das Verstehen und Überwachen der Datenherkunft schützt auch vor der Manipulation von Eingabedaten. Kontextbezogene Informationen helfen zudem, die eigentliche Ursache eines Problems zu erkennen, anstatt nur ein Symptom zu behandeln.

Anschaulich wird diese Eigenschaft von Graphen am Beispiel des Deutschen Zentrums für Diabetesforschung, kurz DZD. Dort wurde 2018 ein standortübergreifendes Knowledge Management auf Basis der Graphdatenbank Neo4j errichtet: DZD Connect. Wissenschaftler stellen Fragen in natürlicher Sprache und profitieren von Nachforschungen zu Metadaten: Wie viele Blutproben von männlichen Patienten unter 69 Jahren haben wir? Aus welchen Studien stammen die Proben? Wie alt sind die Studien? Die Mitarbeiter des DZDs nutzen Graphtechnologie in ihrer Forschungsarbeit für mehr Vergleichbarkeit, um den Weg der Daten nachvollziehen zu können und um Daten entsprechend ihren Forschungsfragen gewichten zu können.

Algorithmen für mehr Transparenz bei KI-Entscheidungen
  • Fairness: Data Bias & Diskriminierung
    Im Kontext vernetzter Daten aus unterschiedlichen Quellen wird schneller offenbar, ob sogenannter Data Bias innerhalb der vorhandenen Daten vorliegt. Die aus der intensiven Produktion und Verarbeitung von Daten entstandene Verzerrung kann erheblichen Schaden anrichten – vor allem, wenn entsprechende Systeme Entscheidungen über Menschen treffen. Falsche algorithmische Ergebnisse können so zu Diskriminierung führen und soziale Ungleichheiten verstärken. Dadurch wird auch die Art und Weise beeinflusst, wie neue Daten erhoben und KI-Modelle trainiert werden.

In der medizinischen Forschung stolpern Wissenschaftler zum Beispiel immer wieder über sogenannten Gender Bias in Datensätzen. Damit sind systematische Verzerrungseffekte gemeint, die durch geschlechterbezogene Stereotypisierungen und Vorurteile geprägt sind und sowohl Wahrnehmungen als auch Entscheidungen beeinflussen. Frauen sind besonders betroffen. Viele klinische Studien liefern nur Datensätze von streng limitierten Kohorten, die jedoch nicht immer repräsentativ für die gesamte Patientengruppe stehen. Graphdatenbanken sorgen hier für ein ganzheitliches Modell und können so präventiv dem Data Bias entgegenwirken.

  • Situationelle Flexibilität & Angemessenheit
    KI-gestützte Systeme müssen flexibel sein. Bei der Entwicklung von KI muss deshalb die Interaktion mit dem Benutzer für die Gestaltung und Umsetzung autonomer Entscheidungssysteme als essenziell wichtiger Aspekt angesehen werden. Das gilt sowohl für Ärzte, die mit KI-Assistenzsystem zusammenarbeiten, als auch für Personen, die sich über medizinische Portale im Internet (z. B. NetDoktor) informieren wollen.

Ein Chatbot beispielsweise agiert im Idealfall bei einer Interaktion mit einem 7-Jährigen anders als mit einem 30-Jährigen. Kontextbezogene Informationen helfen einer KI-Lösung, sich in neuen Situationen zurechtzufinden, für die sie nicht trainiert ist. Wie es nicht funktioniert, zeigte ein Chatbot, der auf die psychologische Beratung von Kindern spezialisiert war. In einem Fall konnte das KI-System eindeutige Hinweise auf sexuellen Missbrauch nicht erkennen.

  • Bessere Vorhersagen – Prädiktive Analytik
    Eine der größten Herausforderungen beim Training von KI-Modellen besteht darin, genügend relevante Daten zu sammeln. Graph-Algorithmen wurden speziell entwickelt, um die Topologie solcher stark vernetzten Daten abzufragen: Gemeinsamkeiten finden, einflussreiche Komponenten aufdecken und Muster und Strukturen ableiten. Prädikative Elemente lassen sich in Machine Learning-Verfahren überführen. Das erhöht die Modellgenauigkeit und Präzision von Analysen – und das auf Basis von bereits vorliegenden Daten.

Wie prädikative Analysen im Gesundheitssektor helfen, zeigt das Beispiel der Association for the Advancement of Artificial Intelligence in den USA. Dort erkannten Graph-Algorithmen Cluster in der Interaktion zwischen Patienten, Ärzten, Apotheken und Versicherungen und konnten verdächtige Aktivitäten bei verschreibungspflichtigen Opioid-Schmerzmitteln aufdecken. Die Analyse des Graphen ergab Anomalien – zum Beispiel Apotheken mit sehr hohen Betäubungsmitteleinnahmen bei gleichzeitig kleinem Kundenstamm.

Graphtechnologie schafft den Kontext, um Ethik-Leitlinien beim Einsatz von KI im HealthCare und Life Science Bereich zuverlässig nachzukommen. Je größer der Kontext, desto besser die Entscheidungen. Der Entscheidungsweg ist nachvollziehbar, transparent, flexibel anpassbar und fair. So lassen sich sowohl gesetzliche Rahmenbedingungen erfüllen als auch Vorbehalte im Umgang mit KI proaktiv in Angriff nehmen. 


Über den Autor:

Dirk Möller ist seit über 20 Jahren in der IT-Branche unterwegs. Dank leitender Positionen bei Unternehmen wie Symantec, MongoDB und Couchbase entwickelte er detailliertes Fachwissen im Bereich NoSQL und Graphdatenbanken. Als Area Director of Sales CEMEA bei Neo4j unterstützt Dirk Möller Kunden, bestehende Datenbank-Lösungen zu ersetzen bzw. zu erweitern, Kosten einzusparen und mit der Graphdatenbank Neo4j echten Mehrwert aus Daten zu gewinnen.

LinkedIn: https://www.linkedin.com/in/dirkmoeller/
Twitter: https://mobile.twitter.com/dirk_1564


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Rechenzentren: Paradebeispiel für Vereinbarkeit von Umweltschutz und Wirtschaftlichkeit

Rechenzentren gelten als Stromfesser. Dabei geht es auch anders. Eric Herzog, Chief Marketing Officer bei infinidat, zeigt auf, auf welche Weise Rechenzentren nicht nur Energiefresser sein können.

Wenn Daten das neue Öl sind, dann sind Rechenzentren die neuen Motoren unserer Wirtschaft. Wie andere Motoren auch verbrauchen sie eine Menge Energie und tragen stark zum weltweiten CO2-Ausstoß bei. Laut Untersuchungen wird die IT-Branche bis 2025 voraussichtlich 20 % des weltweiten Stroms verbrauchen, mehr als jede andere Branche. Ein großes Rechenzentrum kann in einem Jahr mehr als 30 GWh Strom verbrauchen, was seinen Betreiber allein für den Strom rund 3.500.000 Euro kostet. Neben den Kosten sorgt der wachsende öffentliche Druck dafür, dass Rechenzentrumsbetreiber nach Möglichkeiten suchen, ihren CO2-Fußabdruck zu verringern. Schon jetzt verursachen etwa acht Millionen Rechenzentren Kohlendioxidemissionen, welche die der globalen Luftfahrtindustrie in den Schatten stellen. Nicht zuletzt das veränderte Bewusstsein der Konsumenten führt dazu, dass eine schlechte Energiebilanz zu einem Image-Problem werden kann.

Vor allem zwei Faktoren sind für den Energieverbrauch von Rechenzentren verantwortlich. Zum einen benötigen die IT-Geräte im Rechenzentrum Strom zu ihrem Betrieb. Das gilt für Server und Netzwerkkomponenten ebenso wie für Speichersysteme. Weil diese Geräte einen guten Teil, der verbrauchten Energie in Hitze umsetzen, benötigen sie zum anderen zusätzliche Strom zur Kühlung, weil sie nur innerhalb eines begrenzten „Temperaturfensters“ funktionieren können.

Zombie-Server

Neben einem Umstieg auf erneuerbare Energien bietet sich eine Reihe technischer Maßnahmen an, um die Nachhaltigkeit von Rechenzentren zu verbessern. Noch immer finden sich in vielen Rechenzentren Server, die nur zu einem geringen Prozentsatz ausgelastet sind. Während die großen Hyperscaler schon lange beinahe ausschließlich mit virtualisierten Servern operieren, finden sich in vielen kleineren Rechenzentren noch immer Server, die ohne Virtualisierung arbeiten und lediglich einen Workload unterstützen. Schlimmer noch finden sich zuweilen Server, die gar keine sinnvolle Arbeit mehr leisten, sogenannte „Zombie-Server“. Allein durch die Abschaltung dieser Zombie-Server und eine rund 80%ige Auslastung der benötigten Server durch Virtualisierung der Workloads lässt sich eine Menge Energie einsparen. Die Organisation, die den „Energy Star“ für besonders energieeffiziente Geräte vergibt, geht von einem Einsparpotenzial zwischen 10 und 40 Prozent allein durch Virtualisierung aus.

Temperaturtoleranz

Wie beim Stromverbrauch zum Betrieb der Server lässt sich auch bei der Kühlung sparen. Abgesehen von der Installation einer modernen, energieeffizienten Klimaanlage kann man bei der Kühlung beispielsweise Energie sparen, indem man die Anordnung der Racks ändert, um die Vermischung der warmen Abluft mit der kühlen Luft der Klimaanlage zu vermindern. Ein verhältnismäßig einfacher Schritt besteht darin die Reihen von Serverschränken jeweils in Paaren Rücken an Rücken anzuordnen. Hierdurch lässt sich die Abwärme kontrolliert zwischen den Racks abführen, während die Kühlluft von vorne an die Racks geführt wird.

Ein Schritt, mit dem sich nahezu sofort Energie sparen lässt, und das auch noch kostenlos, ist die Anpassung des Klima-Managements. So hat die American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) bereits 2008 einen Temperaturbereich von 18 bis 26 Grad Celsius für den Betrieb von Servern empfohlen. Dessen ungeachtet streben viele Rechenzentrumsbetreiber eine Temperatur von unnötig niedrigen 13 Grad Celsius an. Mit der einfachen Maßnahme, die Klimakontrollen auf den oberen Rand des empfohlenen Temperaturbereichs einzustellen, lassen sich bis zu acht Prozent der Energiekosten pro Grad Celsius für die Kühlung einsparen.

Daten und Speicher nicht vergessen

Rechenzentrumsbetreiber, die ihren Energieverbrauch senken wollen, beschränken ihr Augenmerk häufig auf Server und deren Kühlung. Dabei lassen sich auch bei Datenmengen und deren Speicherung signifikante Einsparungen erzielen. Dass die Menge der erzeugten Daten beständig steigt, lässt sich nicht vermeiden, jedenfalls nicht durch Rechenzentrumsbetreiber. Durch geschicktes Datenmanagement können sie allerdings die Menge der gespeicherten Daten deutlich reduzieren und damit die Menge der benötigten Speichersysteme. Benutzer von Rechenzentren sollten sich überlegen, welche Daten sie für wie lange speichern sollten. Für viele Daten ist eine langfristige Speicherung weder wirtschaftlich sinnvoll, noch gesetzlich vorgeschrieben. Indem Unternehmen diese Daten nach einer jeweils angemessenen Frist löschen oder auf Systemen archivieren, die keine Energie verbrauchen (Bänder beispielsweise), können sie viel Speicherraum gewinnen und Energie sparen.

Zudem handelt es sich bei vielen gespeicherten Daten um Dubletten, Daten die mehrfach gespeichert sind. Um diesen Missbrauch von Speicherkapazität zu vermeiden, sollten Unternehmen Speicher- und Backup-Technologien mit Deduplizierung und Datenkomprimierung einsetzen. In manchen Fällen lässt sich so die gespeicherte Datenmenge um die Hälfte reduzieren.

Nicht zuletzt sollten Unternehmen ihre Storage-Systeme auf den neuesten Stand bringen und konsolidieren. Dank der Fortschritte in der Speichertechnologie für Unternehmen besteht kein Bedarf mehr an 25 oder 50 verschiedenen älteren Arrays, die jeweils eine Anwendung oder einen Workload unterstützen, wenn alle diese Anwendungen und Arbeitslasten auf nur einer oder zwei modernen Speicherplattformen für Unternehmen Platz finden können. Unternehmen können häufig 50 ältere durch zwei neue Arrays ersetzen und dennoch die erforderliche Kapazität, Leistung, Verfügbarkeit, Cyberresilienz und Zuverlässigkeit erhalten. Die Vereinfachung des Rechenzentrums durch die strategische Konsolidierung von Speichersystemen spart Ausgaben für Strom und Kühlung, minimiert den Personalbedarf für den Betrieb, verringert den Bedarf an Rack- und Bodenfläche und reduziert die Investitions- und Betriebskosten für die Speicherung im Rechenzentrum erheblich.

Schnell handeln

Einige der beschriebenen Maßnahmen lassen sich beinahe sofort umsetzen. Auch mit den etwas aufwändigeren Anpassungen sollten sich Rechenzentrumsbetreiber und -nutzer nicht allzu lange Zeit lassen. Denn für alle Maßnahmen gilt, dass sie den Rechenzentrumsbetrieb nicht nur umweltgerechter gestalten, sondern auch für erhebliche finanzielle Vorteile sorgen. Rechenzentren können letztendlich als Paradebeispiel für die Vereinbarkeit von Umweltschutz und Wirtschaftlichkeit dienen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

5 Wege zu einer nachhaltigeren Software-Architektur

Von Markus Eisele*

Markus Eisele beschreibt die Stellschrauben einer nachhaltigeren IT.

Wenn Unternehmen sich ernsthaft mit ökologischer Nachhaltigkeit beschäftigen, reicht es nicht aus, nur die Geschäftsreisen zu reduzieren oder im Büro entsprechende Maßnahmen umzusetzen. Auch die Software hat einen großen Einfluss darauf, wie viele CO₂-Emissionen anfallen. Kernstück einer nachhaltigen Architektur ist dabei immer die Verringerung des Ressourcenverbrauchs. In der IT geht es darum, den Energiebedarf – die größte Stellschraube in diesem Zusammenhang – deutlich zu reduzieren. Immerhin werden anstatt sauberer Stromquellen nach wie vor oft günstigere fossile Brennstoffe genutzt. Die Branche arbeitet bereits mit Hochdruck daran, die Umweltbilanz bei der Herstellung und dem Betrieb zu verbessern. Bei den Hyperscalern beispielsweise hat Azure 2020 seinen Leitfaden für nachhaltige Architektur veröffentlicht, Ende 2021 hat AWS den Punkt Sustainability zu den Säulen seines Well-Architected Framework hinzugefügt.

Natürlich sollten beziehungsweise müssen sich auch die Kunden Gedanken darüber machen, welche Auswirkungen ihre IT-Infrastruktur – allen voran die Software-Architektur – auf die globale Erwärmung und den Klimawandel hat und mit welchen Maßnahmen sie die CO₂-Bilanz verbessern können. Dafür gibt es fünf Bereiche:

  1. Datendesign, -nutzung und -speicherung
    Zunächst einmal sollten Unternehmen die Datenspeicherung und -nutzung auf ein absolutes Minimum reduzieren. Erreichen lässt sich dieses Ziel, indem Richtlinien für die Datenklassifizierung eingeführt werden. Dabei wird festgelegt, welche Daten wie lange und wofür gespeichert werden. Zudem sollten Unternehmen Zugriffsklassen und Speichertypen nach „schnell“ oder „langsam“ definieren. Wichtig ist, zu verstehen, welche Auswirkungen ein Zuviel an Daten auf den Ressourcenverbrauch hat. Unnötige Daten sollten immer unter Einhaltung der Bestimmungen gelöscht werden. Unternehmen sollten zudem eine Überprovisionierung an Speicherplatz vermeiden und Datenbewegungen über Netzwerkgrenzen hinweg so weit wie möglich einschränken. Sinnvoll sind Technologien für den Zugriff, die einen standortbezogenen Datenabruf und unterschiedliche Speichermuster unterstützen.
  1. Anwendungsdesign
    Im zweiten Schritt sollten Unternehmen Richtlinien für die Verwendung von Komponenten definieren. Ein „Always on“-Ansatz verbraucht unnötig Energie. Zudem sollten sie darauf achten, dass eine parallele und asynchrone Verarbeitung der Ressourcen möglich ist. Aufgaben, die nicht zeitkritisch sind, lassen sich aufteilen und dann asynchron abarbeiten. Dann können Workloads zum Beispiel zu einem Zeitpunkt, an dem genügend sauberer und günstiger Strom zur Verfügung steht, ausgeführt werden. Darüber hinaus helfen Komponenten zum Application-Monitoring, Runtime und Auswirkungen auf die Nachhaltigkeit zu verfolgen. Wo möglich, ist es außerdem sinnvoll, die Verantwortung an besser geeignete, weil nachhaltig betriebene, Managed Services auszulagern.
  1. Plattformbereitstellung, -nutzung und -skalierung
    Das Thema Deployment, Nutzung und Skalierung ist kompliziert, da es einige dedizierte Entscheidungen bezüglich der Architektur voraussetzt. Technologien, die auf Auslastung und Skalierung abzielen, wie Knative und Serverless, kommen einem dabei in den Sinn. Eine gängige Kubernetes-Umgebung arbeitet häufig nach dem Prinzip „ein Cluster pro App“, manchmal auch „mehrere Cluster (Staging/Prod/Dev) pro App“. Die Auslastung in diesen Clustern ist allerdings gering. Das heißt, selbst wenn ein Pod auf Null skaliert, haben Unternehmen immer noch einen Overhead an Kubernetes, inklusive CO2-Fußabdruck der kompletten Hardware. Zwar ist der Stromverbrauch des Workloads geringer, die Verbesserung der Klimabilanz ist jedoch marginal. Unternehmen müssen deshalb unbedingt ihre Gesamtkonfiguration genau unter die Lupe nehmen, bevor sie zusätzliche Technologien für eine Anwendung anschaffen. Idealerweise kommt für die Entwicklung und den Test eine Minimalumgebung mit repräsentativen Applikationen zum Einsatz. Zusätzlich ist es sinnvoll, das Design mit Automatisierungsansätzen zu optimieren und damit die Nutzung zu maximieren.
    Technologien mit Burst-Möglichkeiten bieten einen weiteren großen Vorteil. Ein Beispiel ist ein Standard-Jenkins mit definierten Worker- und Management-Knoten im Vergleich zu einer skalierbaren Tekton-Build-Pipeline. Außerdem sollten Unternehmen die Verwendung spezieller Hardware für ihre Workloads in Betracht ziehen. Dieser Ansatz ist auf Fließkommaeinheiten und Grafikverarbeitung (FPU/GPU) sowie Compute-intensive Berechnungen ausgelegt, kann aber schnell auf Instanzen erweitert werden, die für bestimmte Arbeitslasten geeignet sind.
  1. Code-Effizienz
    Die Green Software Foundation bringt es treffend auf den Punkt: „Der effizienteste Code ist gar kein Code. Und der beste Zeitpunkt, um unnötige Workloads zu erkennen, ist so früh wie möglich im Designprozess.“ Unternehmen, die Ziele und Anforderungen entspannt definieren, erreichen viel. Das betrifft beispielsweise eine Änderung der Aufbewahrungszeit von Protokolldateien oder die Anpassung der Service Level Agreements (SLAs) an den tatsächlichen Bedarf. Selbst wenn regulatorische Vorgaben verschärfte Anforderungen bedeuten, sollten Unternehmen die Maßnahmen hinterfragen und notwendige Schritte identifizieren. Die Vorstellung, dass eine bestimmte Programmiersprache Vorteile in puncto Nachhaltigkeit verschafft, ist jedoch mehr oder weniger falsch. Das zeigt eine Studie aus 2017, die im letzten Jahr aktualisiert wurde.
  1. Operations
    Die hohe Rechendichte von verwalteten Cloud-Diensten ist ein grundlegender Vorteil. Solche Services teilen sich die Ressourcen mit Tausenden oder sogar Millionen von Nutzern, wodurch eine extrem hohe Auslastung erreicht wird und der Aufwand für SRE (Site Reliability Engineering)-Teams, die sich um den Betrieb von Infrastruktur und Anwendungen kümmern, verringert wird.

Darüber hinaus gibt es eine wachsende Zahl von Open-Source-Projekten, die Unternehmen helfen, ihre Nachhaltigkeitsziele zu erreichen:

  • Kube-green ist ein Kubernetes-Add-on, das Ressourcen automatisch herunterfährt, wenn sie nicht benötigt
  • Cloud Carbon Footprint ist ein Tool zur Schätzung des Energieverbrauchs und der CO2-Emissionen bei der Nutzung einer Public Cloud.
  • Scaphandre ist ein Metering-Agent, um den Stromverbrauch jedes Prozesses zu berechnen.
    Kube-downscaler fährt Kubernetes-Workloads während der arbeitsfreien Zeit herunter oder „pausiert“ sie komplett.
  • Kepler (Kubernetes Efficient Power Level Exporter) verwendet eBPF, um energiebezogene Systemstatistiken zu ermitteln und als Prometheus-Metriken zu exportieren.

Es gibt zwei große Stellschrauben für eine energieeffizientere und damit nachhaltigere IT: Infrastruktur und Anwendungen. (Quelle: Markus Eisele/Red Hat, angelehnt an AWS Well-Architected Framework)

Jede Einsparung zählt

Viele der Empfehlungen lassen sich in erster Linie in bestimmten Umgebungen anwenden, einschließlich ereignisgesteuerter oder Microservices-Architekturen. Aber auch traditionelle Three-tier-Modelle profitieren von kleinen Änderungen. Darüber hinaus ist jede Maßnahme nur dann wirkungsvoll, wenn man vorab die Ziele definiert und die Wirkung mit sinnvollen Messmetriken überprüft. Unternehmen können beispielsweise als langfristiges Nachhaltigkeitsziel für jeden Cloud-Workload eine Reduzierung der erforderlichen Rechen- und Speicherressourcen festlegen. Grundsätzlich gilt: Jede Einsparung bei den Ressourcen und damit dem Stromverbrauch verbessert die CO2-Bilanz.

* Markus Eisele (@myfear) ist Developer Strategist bei Red Hat

Hyperautomation: vom Buzzword zum effizienten Automatisierungs-Netzwerk

Hyperautomation ist eines der großen Digitalisierungs-Schlagworte, das nicht zuletzt durch die Positionierung von Gartner als einer der Top-Tech-Trends 2022 in den Fokus gerückt ist. Doch was genau meint Hyperautomation? Und wie können Unternehmen diese „Hyper-Automatisierung“ erfolgreich umsetzen? TREND REPORT hat mit Heinz Wietfeld, Director bei Hyland, gesprochen

Hyperautomation – was genau kann man sich unter diesem Buzzword vorstellen?
Gartner definiert Hyperautomation als „orchestrierte Nutzung mehrerer Technologien, Tools oder Plattformen“, um so viele Geschäfts- und IT-Prozesse wie möglich zu automatisieren und durchgängige End-to-End-Workflows zu schaffen. Damit holen die Analysten viele Unternehmen an ihrem aktuellen Status Quo ab.
Denn mit den Möglichkeiten der Automatisierung haben sich viele Unternehmen und Organisationen mittlerweile „Inseln der Effizienz“ geschaffen. Einzelne Geschäftsabläufe und Prozesse laufen automatisiert und ohne menschliches Zutun. Die Grenzen dieses Setups liegen jedoch häufig bei der Interaktion unterschiedlicher Systeme und Anwendungen – eine wichtige Voraussetzung für eine durchgängige End-to-End-Digitalisierung. Bei Hyperautomation geht es nun also darum, Brücken zwischen diesen Insellösungen zu bauen und so Effizienzpotenziale zu heben.

Ein Buzzword wir Hyperautomation kann einschüchternd wirken. Wo sollten Entscheider und Unternehmen ansetzen?
In einem ersten Schritt braucht es eine Bestandaufnahme. Dies erfordert ein detailliertes Mapping bzw. eine Analyse der Organisation und der Backoffice-Prozesse, um die derzeitigen Arbeitsabläufe vollständig zu verstehen und festzustellen, wo Lücken, Latenzen und Bottlenecks bestehen. Auf dieser Grundlage kann dann eine Strategie entwickelt werden, um Brücken zwischen den Lösungen zu schlagen und Effizienzlücken zu schließen.


„Spielen“ Unternehmen ihre unterschiedlichen Automatisierungstechnologien und -Tools so geschickt, wie Orchester ihre Musik durch einen fähigen Dirigenten, entsteht ein Mehrwert für Organisationen jeder Branche und deren Belegschaften, Partner und Kunden.


Was genau ist das Problem an den angesprochenen Insellösungen?
Insellösungen führen zu Datensilos – der Endgegner jeder umfassenden Automatisierung. Klassische ECM-Lösungen haben alle Daten auf eine Plattform übertragen. In Zeiten von Cloud-Boom und Best-of-Breed-Ansätzen ist das nicht mehr zeitgemäß. Entsprechend bieten Content-Services-Plattformen wie OnBase oder die Open-Source-Plattform Alfresco von Hyland vorgefertigte und leicht zu konfigurierende Schnittstellen zu einer Vielzahl unterschiedlicher Business- und Abteilungsanwendungen. So bilden sie einen zentralen Knotenpunkt für alle im Unternehmen vorhanden Daten und Inhalte sowie die Grundlage für eine reibungslose Automatisierung.

Auf welche Automatisierungstools sollten Unternehmen setzen bzw. gibt es die eine Hyperautomation-Technologie?
Die Auswahl an unterschiedlichen Automation-Lösungen ist umfangreich, und angesichts der Komplexität vieler Geschäftsprozesse, braucht es häufig eine wohlorchestrierte Kombination unterschiedlicher Technologien. Diese reichen von Künstlicher Intelligenz und Machine Learning über Workflow-Tools, Business Process Management (BPM) und Robotic Process Automation (RPA) bis hin zu Low- und No-Code-Tools. Die Technologien eignen sich dabei für unterschiedliche Anwendungsszenarien und Problemstellungen. So ermöglicht beispielsweise RPA, das auf der Ebene des User-Interface operiert, auch die Integration von Legacy-Lösungen, für die es keine modernen Schnittstellen mehr gibt, in umfassendere Workflows.
Eine Verkettung unterschiedlicher Technologien ermöglicht die Abbildung komplexer, abteilungs- und funktionsübergreifender Workflows. Diese könnte wie folgt aussehen: Process-Mining-Tools zum besseren Verständnis der Unternehmensabläufe kombiniert mit einem Prozessmodell zur Visualisierung von Arbeitsabläufen, einer Komponente für maschinelles Lernen zur Überprüfung der Einhaltung der Compliance und einer Decision-Software zur Automatisierung von Kontrollen, die zuvor von Sachbearbeitenden durchgeführt wurden.

Wenn feststeht, welcher Technologie-Mix sich am besten eignet, geht es an die Auswahl eines passenden Anbieters. Auf was sollten Entscheider hier besonderes Augenmerk legen?
So vielfältig wie die Technologien sind auch die Anbieter unterschiedlicher Lösungen. Wichtig bei der Auswahl der Technologien ist, dass die Lösungen leicht zu integrieren und für den individuellen Use-Case konfigurierbar sind. Hier können insbesondere Cloud-Plattformen große Flexibilität bieten.
Die Zahl der Anwendungen im Unternehmen steigt, und statt alle Lösungen von einem einzigen Anbieter zu beziehen, setzen Entscheider immer häufiger auf Best-of-Breed, also die jeweils beste Lösung für einen jeweiligen Anwendungsfall. Damit dieser Ansatz wirklich zu besseren Ergebnissen führt, ist die Integration entscheidend. Vorgefertigte oder flexibel konfigurierbare Schnittstellen erleichtern den Prozess. Alternativ kann auch ein Anbieter gewählt werden, der bereits abgestimmte Lösungen für konkrete Anwendungsfälle wie Accounts Payable bietet.
Jedes Unternehmen ist anders, und es gibt keine One-Size-Fits-All-Geschäftsabläufe. Damit Prozesse individuell abgebildet werden können, braucht es vielfältige Möglichkeiten zum Customizing. Einige Lösungen bieten dazu Low- und No-Code-Optionen und andere Open-Source-Varianten, flexible Möglichkeiten zum maßgeschneiderten Coding. Welche Option die bessere Wahl für das Unternehmen ist, kann durch eine Bestandsaufnahme der eigenen personellen und zeitlichen Ressourcen ermittelt werden.

Automatisierung ist naturgemäß eine sehr technische Angelegenheit. Sie passiert jedoch nicht im luftleeren Raum und hat unmittelbaren Einfluss auf den Arbeitsalltag der Mitarbeitenden. Was gilt es zu beachten, damit eine Automatisierungsinitiative auch bei den Teams auf Akzeptanz stößt?
Bei dem Wort Automatisierung schrillen nicht selten die Alarmglocken der Belegschaft. Umso wichtiger ist es, dass Unternehmen ihre Automatisierungsinitiative von Anfang an transparent kommunizieren und Mitarbeitende im Prozess der Planung und Implementierung beteiligen. Diese sollten wissen, wie Hyperautomation ihren Arbeitsalltag beeinflussen wird, dass ihnen redundante und ungeliebte Aufgaben abgenommen werden und sie sich auf spannendere Aufgaben konzentrieren können, durch die sie mit ihren Fähigkeiten einen echten Unterschied machen können. Automatisierung bietet die Möglichkeit zu beruflichem Wachstum und kann zum Katalysator für leistungsstarke und effiziente Teams werden.
„Spielen“ Unternehmen ihre unterschiedlichen Automatisierungstechnologien und -Tools so geschickt, wie Orchester ihre Musik durch einen fähigen Dirigenten, entsteht ein Mehrwert für Organisationen jeder Branche und deren Belegschaften, Partner und Kunden. Es lassen sich schnellere ROIs und nachhaltige Wettbewerbsvorteile realisieren.

Über den Interviewpartner

Heinz Wietfeld ist seit 2015 bei Hyland Software beschäftigt und verantwortet als Director die Geschäftsaktivitäten in DACH, Benelux sowie Mittel- und Osteuropa. Er verfügt über mehr als 20 Jahre Erfahrung in der Enterprise-Content-Management (ECM)- und Content-Services-Branche und hatte verschiedene Sales- und Sales-Management-Funktionen bei internationalen ECM-Anbietern inne.


Bildquelle / Lizenz Aufmacher:

Photo by Danil Shostak on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Der Business Case für mehr Transparenz in der Arbeitswelt

Wie Unternehmen durch offene Kommunikation Vertrauen aufbauen und Top-Talente an sich binden können, erläutert Eliza Sarahson, Senior Group Manager Content and Editorial, Future Forum.

Der traditionelle Top-Down-Führungsstil, der auf Befehl und Kontrolle beruht, verliert seit Jahren an Bedeutung. Die Pandemie hat diesen Wandel noch einmal beschleunigt. Damit ist auch die Erwartung – und Forderung – der Mitarbeiter:innen nach mehr Transparenz gestiegen. Viele Unternehmen meiden es jedoch nach wie vor, mit ihren Mitarbeiter:innen einen offenen Dialog über wichtige Themen wie etwa Flexibilität am Arbeitsplatz zu führen. Dabei finden Mitarbeiter:innen mittels moderner Kommunikationstechnologien Wege, diese Gespräche zu führen – unabhängig davon, ob Führungskräfte und Unternehmen darüber informiert sind und sich einschalten oder nicht. Es gibt also einen wirklich überzeugenden Business Case für eine ehrliche, transparente Kommunikation – schließlich ist sie für den Aufbau von Vertrauen, die Bindung von Talenten und den nachhaltigen Erfolg eines Unternehmens unerlässlich geworden.

Laut der Ergebnisse des Future Forum Pulse Survey sind zwar die meisten Führungskräfte (81%) der Meinung, dass die Unternehmensführung transparent kommuniziert, aber nur 58 Prozent der Mitarbeiter:innen stimmen dem zu. Diese Diskrepanz hat schwerwiegende Folgen: Mitarbeiter:innen, die der Meinung sind, dass ihre Führung nicht transparent ist, sind mit mehr als dreimal so hoher Wahrscheinlichkeit bereit, sich einen neuen Arbeitsplatz zu suchen. Umgekehrt sind Befragte, die der Meinung sind, dass ihre Führungskräfte sie transparent in relevante Entwicklungen einbeziehen, weitaus zufriedener mit ihrer Arbeit als diejenigen, bei denen dies nicht der Fall ist.

Was bedeutet es, mit Transparenz zu führen?

Einfach ausgedrückt bedeutet transparente Führung, dass Entscheider:innen auf allen Ebenen ihres Unternehmens relevante Informationen weitergeben – und zwar nicht nur das „Was“, sondern auch das „Wie“ und das „Warum“ – und zwar in Form von kontinuierlichen Gesprächen mit ihren Mitarbeiter:innen. Transparente, beidseitige Kommunikation bedeutet dabei nicht, dass die Führungskräfte die Belegschaft in jede Entscheidung der Unternehmensführung einbeziehen sollten oder dass jedes Gespräch unternehmensweit stattfinden muss. Vielmehr geht es darum, eine Infrastruktur zu schaffen, die Mitarbeiter:innen dazu ermutigt, sich mit ihrer Perspektive einzubringen. Zudem sollte es das Ziel sein, neue Richtlinien so einzuführen, dass Führungsebenen die Möglichkeit haben, die Änderungen zu verinnerlichen, Feedback zu geben und daraus zu lernen. Natürlich kann nicht jedes Thema offen diskutiert werden – wie etwa Fusionen oder Übernahmen. Aber andere Themen, wie etwa die Festlegung von Richtlinien für die Rückkehr ins Büro und die Zukunft der Arbeit, erfordern einen offenen Dialog mit der Belegschaft.

Eliza Sarahson beschreibt, wie eine transparente Kommunikation die Resilienz nach und nach steigern kann.

Der Hamburger Mobilitätsanbieter Free Now definiert Transparenz als einen seiner zentralen Unternehmenswerte und nutzt Slack als digitale Firmenzentrale, um in einem dedizierten Announcements-Channel brandaktuelle Neuigkeiten und Updates zu teilen. Zudem ermutigt das Unternehmen alle Mitarbeiter:innen dazu, sich an der Unterhaltung zu beteiligen. Auch das Führungsteam ist über Slack leicht erreichbar und für Vorschläge offen, was Innovationen fördert und dazu führt, dass die Mitarbeiter:innen von Free Now zufriedener und motivierter sind.

Was transparente Unternehmen ausmacht:

  • Sie stellen sicher, dass die Mitarbeiter:innen das Geschäft verstehen und die Möglichkeit haben, dazu beizutragen, indem sie regelmäßig über aktuelle Ergebnisse und Zahlen informiert werden
  • Sie beziehen die Mitarbeiter:innen als Stakeholder in die Planung größerer politischer Veränderungen ein
  • Sie informieren die Belegschaft zuerst über wichtige Neuigkeiten – oder innerhalb weniger Minuten nach einer öffentlichen Ankündigung
  • Sie klären die Mitarbeiter:innen darüber auf, über was sie (nicht) öffentlich sprechen können
  • Sie sprechen potenziell kontroverse Themen proaktiv an, indem sie Raum und Leitplanken für schwierige Gespräche bieten und potenziell hitzige Debatten proaktiv moderieren und steuern
  • Sie geben klare Antworten – auch wenn diese Antworten die Belegschaft potentiell verärgern könnten

Wie kann eine transparente Führung funktionieren?

Transparente Kommunikation ist keine Einbahnstraße – und Führungskräfte müssen die Infrastruktur dafür schaffen. Unter dem alten Führungsstil, der auf Befehl und Kontrolle beruhte, war die Kommunikation der Führungskräfte einseitig – von oben nach unten – und bot Mitarbeiter:innen kaum Gelegenheit zur Mitsprache. Aber diese veraltete Mentalität trägt zu einer hohen Fluktuation bei und treibt Mitarbeiter:innen immer öfter vor die Tür. Ergebnisse des Future Forum zeigen, dass ganze 66 Prozent der Führungskräfte angeben, dass sie die Personalpolitik ihres Unternehmens mit wenig oder gar keinem direkten Input der Belegschaft gestalten. Dabei sollten Führungskräfte dringend die Perspektiven ihrer Mitarbeiter:innen berücksichtigen und darauf achten, dass sie nicht ihre persönlichen Präferenzen auf die gesamte Belegschaft projizieren.

Um eine konstruktive Kommunikation zu fördern, sollten Führungskräfte auf den Verhaltenskodex und die Werte Ihres Unternehmens zurückgreifen und gegenseitigen Respekt und Vertrauen aktiv vorleben. Gerade heikle Gespräche sollten nicht unterdrückt werden. Stattdessen bedarf es eines neuen Prozesses, um diese Gespräche zu sortieren und zu einer Lösung zu führen. Führungskräfte von heute müssen bereit sein, sich mit aktuellen Ereignissen vertraut zu machen und respektvolle und ehrliche Gespräche in ihren Teams zu führen. Dabei gilt: Kommunikation in beide Richtungen ist eine Reise, kein Ziel. Nur wer Experimente macht, kann kontinuierlich Verbesserung bewirken. Nur so werden auch Mitarbeiter:innen dazu ermutigt, neue Dinge auszuprobieren, kreativ und innovativ zu sein.

Mit Transparenz das gesamte Unternehmen stärken

Das alte Top-Down-Kommunikationsmodell mag für Führungskräfte einfacher gewesen sein. Doch auch wenn es schwierig ist, Transparenz richtig vorzuleben, ist es unbestritten, dass sie zu besseren Ergebnissen führt – von der Bindung von Spitzenkräften bis hin zur Steigerung der Mitarbeiterzufriedenheit und -motivation. Wer sich bemüht, verschiedene Perspektiven einzubeziehen und wichtige Entscheidungen klar zu kommunizieren, wird nicht nur eine bessere Kommunikation gestalten, sondern auch im Gesamten ein stärkeres Unternehmen aufbauen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Mehr Resilienz durch die digitale Transformation?

Können Unternehmen mehr Resilienz im Wettbewerb erreichen, in dem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Diese werden wir nachfolgend immer wieder in Form von kurzen Panels darstellen. Hier neue Einblicke:


CRM-Systeme reagieren blitzschnell auf Veränderungen

Suvish Viswanathan ist Head of Marketing bei Zoho Europe

Turbulente wirtschaftliche Bedingungen und neue Arbeitsmodelle machen eine langfristige Strategie nötig, damit die Customer Experience nicht leidet. Das gelingt mit CRM-Systemen, die die Kundenbindung stärken und neue Geschäfte vorantreiben. Mit CRM-Tools können Unternehmen die Erfahrung von Mitarbeitern und Kunden deutlich verbessern und so gleichzeitig nicht nur Krisen überleben, sondern widerstandsfähiger werden und sogar wachsen.

Ein CRM-Tool passt zum Unternehmen, wenn es einen vollständigen Überblick über den gesamten Lebenszyklus des Kunden bietet, einschließlich Marketing, Vertrieb und Support. Gleichzeitig sollte es alle Berührungspunkte zwischen Kunde und Firma miteinander verbinden und eine nahtlose Nachverfolgung auf jedem Gerät und von jedem Standort aus ermöglichen.

Die End-to-End-Transparenz, die CRM-Systeme im Kundengeschäft bieten, kann die Reaktionsfähigkeit des Unternehmens im Umgang mit dynamischen Marktbedingungen verbessern und damit die Widerstandsfähigkeit erhöhen.


Bernhard Kretschmer ist Vice President Service und Cybersecurity bei NTT Ltd

Cyber-Resilienz – das neue Paradigma in der IT-Sicherheit  

Die Corona-Pandemie hat einmal mehr die Frage aufgeworfen, wie Gesellschaft, Politik und Wirtschaft besser auf Krisen reagieren können. Als Schlüsselfaktor wird hier immer wieder „Resilienz“ genannt, die Europäische Union bezeichnet sie sogar als Kompass ihrer zukünftigen Politik. Grundsätzlich versteht man darunter die Fähigkeit von Systemen, auf ganz unterschiedliche, gerade auch unerwartete Faktoren und Krisen dynamisch zu reagieren, sie abzufedern, sich davon zu erholen und daraus zu lernen. In der IT bedeutet das, zentrale Prozesse und Infrastrukturen selbst unter außergewöhnlichen Umständen, etwa nach einem Hackerangriff, aufrechtzuerhalten. Die Kommission will nun mit der NIS-2-Richtlinie EU-weite Standards für Cybersecurity definieren, die auch die Industrie verpflichtend umsetzen muss. Dadurch soll die gesamte Infrastruktur resilienter werden. So werden Unternehmen nicht mehr vor die Wahl gestellt – nein, sie müssen einen Mindeststandard an Sicherheit erfüllen. Und das ist dringend notwendig angesichts der zunehmenden Abhängigkeit von funktionierenden IT-Umgebungen und der Tatsache, dass die Kriminellen immer raffinierter vorgehen. Ohne digitale Widerstandsfähigkeit werden sich Unternehmen künftig schwertun.  


Holger Dyroff ist Co-Founder und COO von ownCloud

Digitale Resilienz gibt es nur gemeinsam mit digitaler Souveränität

Die Coronakrise hat einen wahren Digitalisierungsschub ausgelöst und gleichzeitig den Begriff der digitalen Resilienz stärker ins Rampenlicht gerückt. Ganz allgemein geht es um die Fähigkeit von Unternehmen und Ökosystemen, Krisen beziehungsweise unvorhergesehene Ereignisse jeder Art zu meistern und gestärkt aus ihnen hervorzugehen. So haben digitale Vertriebs-, Verkaufs- und Kommunikationskanäle in der Pandemie weltweit an Bedeutung gewonnen. Indem sie mehr Bereiche und Anwendungen ins Internet verlagert haben, konnten die Firmen ihre Widerstandsfähigkeit erhöhen und gleichzeitig neue digitale Geschäftsmodelle erschließen. Diese digitale Resilienz wurde und wird allerdings oftmals zu einem hohen Preis erworben: Nämlich dann, wenn sich Unternehmen von großen, international agierenden Technologiekonzernen und deren Plattformen abhängig machen. Durch die Nutzung der großen Hyperscaler etwa bleiben Datensouveränität und Individualisierbarkeit auf der Strecke. Vielmehr wird das alte proprietäre Spiel von Intransparenz und Vendor-Lock-in weitergeführt, mit allen damit verbundenen Gefahren wie Problemen bei der Datenmigration oder mangelnder Investitionssicherheit. Eine echte digitale Resilienz gibt es nur mit digitaler Souveränität, das sollten Unternehmen nicht vergessen.


Mehr zum Thema

State of KI: Was noch getan werden muss, bis die Technologie zum neuen Normal wird

Jennifer Belissent arbeitet bei Snowflake als Principal Data Strategist. Sie plädiert für einen pragmatischen Umgang mit den neuen Technologien rund um künstliche Intelligenz.

Von der automatischen Korrektur unserer WhatsApp-Nachrichten bis hin zur Krebsfrüherkennung: Die Möglichkeiten, die Künstliche Intelligenz bietet, sind nahezu grenzenlos. Deshalb ist es nicht verwunderlich, dass die Technologie schon bald Teil des Geschäftsalltags sein wird. Davon sind laut einer PwC-Umfrage 86 Prozent der Unternehmen überzeugt. Tatsächlich steckt Künstliche Intelligenz aber noch immer in den Kinderschuhen – und das hat viele Gründe. Einerseits gibt es noch immer keine rechtliche Grundlage, die die Nutzung einheitlich regelt. Andererseits ist der Großteil der Unternehmen weit davon entfernt, ihre Daten so nutzen zu können, dass KI-Modelle mit ihrer Hilfe tatsächlich zu validen Ergebnissen kommen können. 

Trotz des Nutzens sind die Vorbehalte groß

Die Bereiche, in denen KI-Modelle einen echten Mehrwert für die Geschäftswelt erbringen können, sind vielfältig: Sie sind in der Lage, Streaming-Nutzer:innen basierend auf ihren Interessen die nächste Serie zu empfehlen oder Kund:innen das passende Shirt zu einer Jeans vorzuschlagen, die es bereits in den Warenkorb geschafft hat. Doch das, was Künstliche Intelligenz leisten kann, geht weit über solche einfachen Empfehlungen hinaus. Sie kann ebenso dabei helfen, Entscheidungen zu treffen oder Prognosen zu erstellen – zum Beispiel darüber, wie hoch die Wahrscheinlichkeit ist, dass es sich bei einer Online-Bestellung um einen Betrugsversuch handelt. 

Doch obwohl KI-Modelle für jede erdenkliche Branche unzählige Anwendungsmöglichkeiten bieten, gehören sie noch lange nicht zum Standardrepertoire eines jeden Unternehmens – und das hat gute Gründe. Tatsächlich ist das Misstrauen unter den Deutschen nämlich noch immer groß, wenn es darum geht, die Künstliche Intelligenz Entscheidungen treffen zu lassen, die über die Autokorrektur ihrer Nachrichten oder der Empfehlung einer Serie hinausgehen. So befürchten einer Bitkom-Umfrage zufolge knapp zwei Drittel der Menschen, dass durch die neue Technologie Arbeitsplätze verloren gehen könnten. Fast die Hälfte der Befragten glaubt außerdem, dass Bewerber:innen im Einstellungsprozess grundlos abgelehnt werden könnten – zum Beispiel weil die KI Bewerbungen bestimmter Geschlechter oder Bevölkerungsgruppen ungerecht behandelt.

Neue Gesetzgebung könnte für mehr Klarheit sorgen

Diese Vorbehalte sind nicht unbegründet. Das liegt auch daran, dass es noch immer kein einheitliches Regelwerk gibt, wie KI-Modelle korrekt einzusetzen sind. Viele Ethik-Expert:innen äußern lautstark ihre Besorgnis über die Auswirkungen, die der flächendeckende Einsatz von Künstlicher Intelligenz nach sich ziehen könnte. Und genauso vielfältig wie die Meinungen gestalten sich auch die potenziellen Lösungsansätze. Laut Algorithm Watch gibt es derzeit 167 verschiedene Richtlinien und Regelwerke, die aufgestellt wurden, um Unternehmen einen Rahmen für die ethische Nutzung von KI-Modellen zu bieten. Doch die EU will genau das jetzt ändern und endlich für mehr Einheitlichkeit sorgen.

2021 schlug die EU eine Gesetzgebung vor, die den Einsatz Künstlicher Intelligenz potenziell auf globaler Ebene regeln könnte – ähnlich wie die DSGVO, die ebenfalls Auswirkungen über die europäischen Grenzen hinaus hat. Ziel der neuen gesetzlichen Regelung wäre es, verschiedene Risikokategorien einzuführen, welche die verschiedenen KI-Einsatzgebiete bewerten würden. So könnte zum Beispiel das Aussortieren unpassender Lebensläufe als hochriskant eingestuft werden und verhindern, dass es zur Diskriminierung bestimmter Bevölkerungsgruppen auf dem Arbeitsmarkt kommt. Dadurch ließen sich die bisherigen Ethikrichtlinien für den vertrauenswürdigen Einsatz Künstlicher Intelligenz erweitern, die unter anderem dafür sorgen sollen, dass Menschen unterschwellig manipuliert werden und dadurch Schaden nehmen. Unternehmen, die sich nicht an die neue Gesetzgebung halten, könnten dann mit hohen Geldstrafen belangt werden. Was frühere Verordnungen betrifft, beispielsweise zur „fairen Vergabe“ von Krediten oder Wohnungen, belaufen sich die Summen auf bis zu sechs Prozent des weltweiten Umsatzes beziehungsweise maximal 36 Millionen US-Dollar. Für Unternehmen könnte eine neue und vor allem einheitliche EU-Gesetzgebung also einen echten Anreiz darstellen, um die verwendeten KI-Modelle hinsichtlich ihrer ethischen Vertretbarkeit zu prüfen.

Datenvielfalt als zentraler Baustein für ethische KI-Modelle

Um gewährleisten zu können, dass KI-Modelle Ergebnisse liefern, durch die keine bestimmten Bevölkerungsgruppen benachteiligt werden, braucht es extrem große Datenmengen. Doch noch viel wichtiger als die schiere Masse ist ihre Vielfalt. Die chinesische Ant Group, die zu Alibaba gehört, verwendet beispielsweise über 3.000 Variablen, um zu bewerten, an welche kleinen Unternehmen Kredite vergeben werden. Die Ausfallquote des Modells, mit dem bereits 16 Millionen Unternehmen finanziert wurden, beläuft sich bisher auf nur etwa ein Prozent. Die hohe Anzahl der Variablen, mit denen es trainiert wurde, stellt sicher, dass eine riesige Bandbreite abgedeckt und kein:e Geschäftsführer:in aufgrund von Faktoren wie des Geschlechts oder der Herkunft ungleich behandelt wird. 

Doch nicht alle Unternehmen verfügen über derart große Menge an Datenpunkten, wie Alibaba es tut. Wie sich dennoch eine vielfältige Bandbreite erzielen lässt, verdeutlicht das Beispiel des amerikanischen Center for Disease Control, das im Frühjahr 2020 ein KI-Modell einsetzte, um das Covid-Risiko zu prognostizieren. Zunächst wurde es mit Medicaid-Daten trainiert, die eine überwiegend ältere Bevölkerung repräsentierten. Daraufhin trainierten verschiedene Anbieter das Modell erneut – diesmal mit Daten, die von einkommensschwachen Patient:innen aller Altersgruppen stammten. Nachdem das Modell freigegeben wurde, halfen sechs weitere Anbieter dabei, es mit zusätzlichen Datensets zu trainieren, wobei neue Risikogruppen wie beispielsweise Menschen, die an Asthma leiden, identifiziert werden konnten.

Data Economy Leader sind noch immer rar gesät

Um über möglichst große Datenmengen zu verfügen, die ein breites Bild der Gesellschaft abzeichnen, müssen Unternehmen alle bestehenden Datenquellen anzapfen – dafür ist eine Datenplattform unerlässlich, um so sämtliche Daten in einer Single Source of Truth, also an einem einzigen Ort zu speichern. Falls nötig, können die Datenquellen durch extern generierte Informationen erweitert werden. Doch das entwickelt sich schnell zu einer Mammutaufgabe für Unternehmen, wie auch eine 2021 durchgeführte Umfrage zeigt: 78 Prozent der Unternehmen gaben an, ihre Budgets für die externe Datenerfassung erhöhen zu wollen. Dass Wunsch und Wirklichkeit an dieser Stelle noch immer weit auseinanderklaffen, wird allerdings durch eine repräsentative Studie von Snowflake belegt: Sie ergab, dass gerade einmal sechs Prozent der Unternehmen als tatsächlich führend bezeichnet werden können, da sie bereits dazu in der Lage sind, Daten aus den unterschiedlichsten Quellen zu integrieren, diese sowohl intern als auch extern zu teilen und alle oder zumindest die meisten Entscheidungen datenbasiert zu treffen.

Damit KI-Modelle in naher Zukunft zum Standard des Geschäftsalltags gehören, muss die Anzahl der Unternehmen, die als Data Economy Leader bezeichnet werden können, drastisch ansteigen. Die Bemühungen der EU, allgemeingültige Gesetze für die ethische Nutzung von KI-Modellen zu beschließen, sollte daher für viele als Warnschuss gelten. Sobald neue Verordnungen in Kraft treten, die den Einsatz aller Modelle hinsichtlich ihres Risikos bewerten, könnte es nach aktuellem Stand nämlich für den Großteil der Unternehmen eng werden. In welchem Chaos das enden kann, hat der holprige Start der DSGVO eindrucksvoll bewiesen. Unternehmen, die das – ebenso wie hohe finanzielle Strafen – vermeiden wollen, sollten also genau jetzt im Kontext ihrer Datennutzung mit der Implementierung ethisch vertretbarer Prozesse beginnen.

Über die Autorin

Jennifer Belissent ist Principal Data Strategist bei Snowflake, wo sie Kunden bei der Entwicklung von Data Cloud-Strategien unterstützt, um so den Zugang zu Daten zu erleichtern und einen Mehrwert für den Geschäftserfolg zu schaffen. Zuvor war sie zwölf Jahre bei Forrester Research als international anerkannte Expertin für die Themen Datenmanagement und -kompetenz, Data Sharing und Data Economy sowie Data-for-Good tätig.


Bildquelle / Lizenz Aufmacher: Foto von Kampus Production von Pexels


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Ransomware-as-a-Service: Die Unterwelt ist organisierter als gedacht

Dr. Sebastian Schmerl ist Director Security Services EMEA bei Arctic Wolf. Er zeigt, wie umfassende Security Operations Schutz vor der steigenden Anzahl gut geplanter und koordinierter Ransomware-Angriffe bieten können.

Wie eine gut organisierte Parallelgesellschaft, aufgebaut auf Kriminalität, funktioniert, kann in dem Keanu Reeves-Film „John Wick“ in seiner ganzen Eindringlichkeit beobachtet werden: Kriminelle und Hitmen erhalten Aufträge, Unterstützung, Unterschlupf und generell Führung von einer im Verborgenen agierenden Institution mit eingemeißelten Regeln und festgelegten Prozessen. Sehr zum Leidwesen der potenziellen und tatsächlichen „Opfer“ dieser Ausprägung der Unterwelt, die so kaum eine Chance haben, den kriminellen oder todbringenden Anschlägen zu entgehen. Um Leben und Tod geht es wohl bei Ransomware – zumindest in den allermeisten Fällen – nicht, aber doch um horrende Summen (in Form von Kryptowährung oder „normalen“ Zahlungsmitteln), die entrichtet werden sollen, und auch um die Reputation und den Fortbestand von betroffenen Unternehmen.

Dass Unternehmen von Ransomware-Angriffen betroffen sind, ist keine Seltenheit. Eine Studie des Digitalverbands Bitkom e.V. belegt: „Neun von zehn Unternehmen (88 Prozent) waren 2020/2021 von Angriffen betroffen.“ Tendenz steigend! Vor diesem Hintergrund stellt sich die Frage: Wie kann es sein, dass die meisten Attacken auf Unternehmenssysteme mit Ransomware so gut koordiniert und daher erfolgreich sind? Die Antwort lautet: Ransomware-as-a-Service (RaaS).

Ein Herz für Cyberkriminelle – oder: Gib Ransomware eine Chance

Laut Schätzungen sind im Jahr 2020 bei 64 Prozent aller Ransomware-Attacken RaaS-Methoden zum Einsatz gekommen. Aber um was handelt es sich bei RaaS genau? Dieser Ansatz stellt einen Service dar, bei dem eine Ransomware-Bande entsprechende Tools oder -Plattformen zur Verfügung stellt und zusätzlich Anleitung zur Durchführung, Best Practices sowie einen IT-Helpdesk etc. bietet. Diese Dienstleistung ist meist über das Deep oder Dark Web erhältlich. Bedrohungsakteure haben dabei die Wahl, ob sie die bereitgestellte Ransomware lieber einmalig erwerben oder im Abo beziehen möchten, um Ransomware-Angriffe zu starten. Auch in puncto Preisstrategie hält der Anbieter verschiedene Strategien (Einmalzahlung beim Verkauf, Leasing, Anteil am Lösegeld etc.) bereit. Also ganz wie beim Erwerb legaler hochprofessioneller Services. Daher ist es nicht verwunderlich, dass der RaaS-Ansatz unter Cyberkriminellen äußerst beliebt ist und immer mehr an Einfluss gewinnt. Zudem ist Ransomware eine der gängigsten Schadprogramme, die bereits seit Jahrzenten genutzt wird.

Wie Bedrohungsakteure mit RaaS erfolgreich sind

RaaS ist erfolgreich, da die Verschlüsselung der IT und die damit verknüpfte Drohung der Datenveröffentlichung für Unternehmen eine Katastrophe bedeutet und Ransomware so ein ungemein mächtiges Druckmittel in den Händen von kriminellen Elementen darstellt. Unternehmen stehen einem erfolgreich durchgeführten Ransomware-Angriff oftmals hilf- und ratlos gegenüber und halten sich nicht an die Empfehlung von LKA, BKA und BSI, möglichst keine Lösegeldzahlung zu leisten. Die entsprechende Zahlung des Lösegelds wird zumeist in Kryprowährungen gefordert. Denn diese sind schwer zurückzuverfolgen und einfach in sauberes Geld umzuwandeln, weswegen sich Bitcoin, Monero und Co. besonders für die Begleichung von RaaS-Forderungen eignen.

Da RaaS-Services leicht zugänglich sowie anpassungsfähig sind, entscheiden sich Cyberkriminelle oftmals für eine solche Dienstleistung. Zudem können Bedrohungsakteure hier eine Ransomware-Plattform nutzen, um die Zielunternehmen und die Angriffsdaten zu managen. Des Weiteren können sie mittels solcher Plattformen einzelne Angriffsmodule weiterentwickeln. So ist es für die IT-Teams der „Opfer“-Organisationen äußerst schwierig, mit den aktuellen Ransomware-Entwicklungen Schritt zu halten. Um den Schutz der Infrastruktur und Unternehmenssysteme sicherzustellen, wird daher eine umfassende Cybersicherheits-Strategie benötigt.

Eine ausgefeilte Sicherheitsstrategie ist die beste Verteidigung

Eine erfolgreiche Strategie für Cybersecurity umfasst u.a. die Kenntnis der IT-Systeme, das Wissen um die auf dem Markt verbreiteten Schadsoftware-Lösungen, Managed-Detection-and-Response- sowie Managed-Risk-Maßnahmen wie Security-Monitorings und umfangreiche Analysen. Zudem müssen innerhalb des Unternehmens Security-Awareness- und Cyberhygiene-Initiativen durchgeführt werden, um die Mitarbeitenden für die Themen Cybersicherheit und Sicherheitsrisiken zu sensibilisieren. Zudem muss die Sicherheit als kontinuierlicher Prozess, nicht als Beibehaltung des Status quo, verstanden werden. Das heißt: Die Verteidigungsaktivitäten müssen sich der sich ständig ändernden Bedrohungslage anpassen. Das beinhaltet kontinuierliche Patches von Schwachstellen und Updates der Systeme.

Was muss passieren, wenn’s passiert ist?

Sicherheitsstrategien und entsprechende -maßnahmen reduzieren die Gefahr eines erfolgreichen Cyberangriffs zwar erheblich, jedoch bieten auch diese keinen 100-prozentigen Schutz. Deswegen ist es für Unternehmen unerlässlich, Pläne für eine angemessene und besonnene Reaktion im Ernstfall zu entwickeln. Ein solcher Notfallplan sollte dann auch minutiös befolgt werden. So werden panische und überstürzte Aktionen verhindert, die sich negativ auf die Verhandlungen sowie deren Ausgang auswirken könnten. Zusätzlich bieten Cyber Defense Hotlines von Security-Partnern, spezialisierte Berater und die entsprechenden offiziellen Stellen im Falle eines erfolgreichen Cyberangriffes Unterstützung und wertvollen Expertenrat.

Zu den zu unternehmenden Gegenmaßnahmen zählen Incident Response Management, um die Ausbreitung der Schadsoftware zu verhindern sowie Recovery-Maßnahmen, die die Beurteilung des Schadensausmaßes sowie die Evaluation aller Wiederherstellungsoptionen beinhalten. Zudem müssen die verfügbaren Daten zu Angreifern, Malware und Vorfällen zusammengetragen und die Entscheidung darüber getroffen werden, ob das geforderte Lösegeld gezahlt werden soll. Jedoch sollte dabei berücksichtigt werden, dass es sich bei den Verhandlungspartnern um Kriminelle handelt und diesen daher nicht vollumfänglich vertraut werden sollte. Dennoch sollte bei den Verhandlungen Sachlich- und Höflichkeit vorherrschen, um die Cyberkriminellen nicht zu provozieren.

Ist das Schlimmste überstanden, müssen noch abschließende Maßnahmen ergriffen werden. Dies umfasst das Scannen und „Reinigen“ aller Systeme sowie das Zurücksetzen der Login-Daten, da in vielen Fällen derselbe Angreifer sein Glück schon wenige Monate später erneut versucht. Zusätzlich muss eine intensive Recherche durchgeführt werden, um zu überprüfen, dass tatsächlich keine der eigenen Daten im Public, Dark oder Deep Web veröffentlicht wurden.

RaaS versus SOC bzw. SOCaaS

Der Entwurf der Sicherheitsstrategie sowie die Ausführung entsprechender Maßnahmen von Unternehmen findet üblicherweise im Security Operations Center (SOC) statt. Die hier arbeitenden Sicherheitsexperten befassen sich mit der Bestandsaufnahme der IT-Infrastruktur und -Systeme sowie der IT-gestützten Betriebsprozesse, dem fortwährenden Monitoring sowie der Aktualisierung der Systeme durch Updates und Patches. Unternehmen, die selbst nicht die benötigen Ressourcen aufbringen können, können die Partnerschaft mit hochqualifizierten SOC-as-a-Service (SOCaaS)-Anbietern – wie Arctic Wolf – eingehen, um die Abwehr von Ransomware- und weiteren Schadsoftware-Angriffen zu ermöglichen. Der Sicherheitspartner führt dafür das benötigte Monitoring sowie Detection-and-Response-Maßnahmen kontinuierlich durch und etabliert so einen proaktiven Schutz der Unternehmenssysteme.

Fazit: RaaS – die Risiken kennen und allzeit bereit sein

Digitalisierung, Homeoffice-Tätigkeiten, Remote Work und ähnliche aktuelle Trends vergrößern die Angriffsfläche für Cyberkriminelle, die die Möglichkeiten, die sich ihnen bieten, gerne und ausgiebig nutzen. Mit RaaS steht ihnen zusätzlich ein leicht zugängliches Angriffswerkzeug zur Verfügung. So ist „die steigende Anzahl an Cyber-Angriffen“ kaum verwunderlich. Daher müssen Unternehmen mehr denn je penibel darauf achten, ihre Systeme umfassend zu schützen. Sicherheitslücken müssen geschlossen, Angriffsversuche ausgiebig analysiert werden. Die Verantwortlichen der Unternehmen sollten sich über die Bedrohungslage und die nötigen Gegenmaßnahmen bewusst und dazu bereit sein, die entsprechenden Ressourcen zu investieren. Denn: Sind Organisationen auf Cyberangriffe durch eine proaktive Sicherheitsstrategie gut vorbereitet, ist der umfassende Schutz der Unternehmenssysteme, der Mitarbeitenden, der Geräte und Daten gegeben und die Chance, dass Attacken erfolgreich verlaufen, unwahrscheinlich.

Computacenter Consultant Portrait Sebastian Schmerl in Frankfurt am Main, Hessen, Deutschland, 1.6.2016

Über den Autor

Dr. Sebastian Schmerl ist Director Security Services EMEA bei Arctic Wolf. Er bringt mehr als 15 Jahre Erfahrung im Bereich Cybersecurity mit sowie in der Bereitstellung von Cyber Defense Services und dem Aufbau von Enterprise Security Operations Center (SOC) für Unternehmen wie Daimler, Volkswagen, Bosch, Datev und Bayer. Sebastian Schmerl ist ständiges Mitglied in der „EU/ENISA – Working Group on Security Operation Centres“ zur Angleichung der Cyber-Protection für die EU-Region sowie stellvertretender Vorstandssprecher der Fachgruppe SIDAR der Deutschen Gesellschaft für Informatik.


Bildquelle / Lizenz Aufmacher: Foto von Soumil Kumar von Pexels


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Mehr Resilienz durch die digitale Transformation?

Können Unternehmen mehr Resilienz im Wettbewerb erreichen, in dem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Diese werden wir nachfolgend immer wieder in Form von kurzen Panels darstellen. Hier neue Einblicke:


Midhula Mahendran ist Channel Marketing Specialist (DACH) bei PFU (EMEA) Limited

Resilienz durch Flexibilität

Resilienz ist eng mit Flexibilität verknüpft. Flexible Unternehmen können auf neue oder unerwartete Situationen anpassungsfähiger und leistungsorientierter reagieren. Eine Schlüsselrolle nehmen dabei – wie so oft in der modernen Arbeitswelt – die Mitarbeitenden ein. Gelingt es einem Unternehmen beispielsweise, die Belegschaft dauerhaft durch die Automatisierung von sich wiederholenden Aufgaben zu entlasten, steigt nicht nur die Produktivität signifikant, sondern auch die Wahrscheinlichkeit, in Krisensituationen den Betrieb erfolgreich aufrecht zu erhalten. In diesem Zusammenhang ist die Möglichkeit, ortsunabhängig und in Echtzeit auf Informationen, Daten und Dokumente zugreifen zu können, unabdingbar. Der erste Schritt, um dies zu gewährleisten, ist die Digitalisierung von vorhanden und neuen Dokumenten sowie die Automatisierung darauf aufbauender Prozesse. Eine leistungsstarke und anwenderfreundliche Scanlösung, wie unsere ScanSnap-Familie, ist dabei oftmals unabdingbar


Markus Fleischer ist Head of Strategy & New Markets bei A1 Digital

Cloud Computing als Erfolgsfaktor für den Mittelstand

Zahlreiche Faktoren im Bereich Cloud Computing tragen zur Resilienz von KMUs bei. Wichtige Aspekte sind die dynamische Skalierung, laufend aktualisierte Entwicklungsumgebungen und der Einsatz zentraler Datenplattformen. Diese zentrale Dateninfrastruktur ermöglicht die Monetarisierung der Datenschätze bzw. bereichsübergreifende Innovation durch daten-getriebene Produkte und Service Entwicklung.

Stärkere Resilienz entsteht zudem durch Standort-unabhängige Unternehmensprozesse und das Auslagern klassischer IT-Infrastruktur an die Cloud-Anbieter, z.B. um den IT-Fachkräftemangel zu entschärfen.

Die verbesserte Widerstandsfähigkeit auf technischer Seite ergibt sich beispielsweise aus der Expertise der Anbieter in Sachen digitaler Sicherheit und laufender Aktualisierung der Systeme. So werden die Anforderungen von KMUs an die Cloud zu einem wesentlichen Faktor ihrer kontinuierlichen Verbesserung, während sie sich selbst nicht mit dem Backend auseinandersetzen müssen. Mit europäischen Cloud Service Providern wie Exoscale sind KMUs zudem mit Blick auf absolute Kostentransparenz und DSGVO-Konformität auf der sicheren Seite.


Martin Mohr ist VP Business Development and Alliances EMEA von Icertis

Vertragsmanagement stärkt Resilienz

Ob Störungen in den Lieferketten oder die ausufernde Inflation – die Liste von Risiken, die Unternehmen in ihrem Wachstum und ihrer Wettbewerbsfähigkeit beeinträchtigen können, ist lang. Fast alle Unternehmen, die davon betroffen sind, versuchen auf die eine oder andere Weise gegenzusteuern. Oft wird jedoch einer der wichtigsten Aspekte im Zusammenhang mit Risiken vernachlässigt: das Vertragsmanagement.

Alle Beziehungen, die ein Unternehmen unterhält, sei es zu Partnern, Zulieferern oder Kunden, werden durch Verträge definiert. Die erwähnten Risiken schlummern ebenso in den Verträgen der Organisation. Daher ist es in Reaktion auf sich abzeichnende Risiken nötig, schnell die entsprechenden Klauseln in allen Verträgen zu identifizieren, um über Anpassungen der Verträge die Risiken in den Griff zu bekommen. Händisch ist dies aussichtslos. Abhilfe bietet hier nur ein modernes Contract Lifecycle Management (CLM), das Unternehmen in die Lage versetzt, Verträge auf Klauselebene herunterzubrechen und mit Hilfe von KI wichtige Erkenntnisse für strategische Entscheidungen, insbesondere das Risiko Management, zu gewinnen.


Weitere Beiträge zum Thema


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Erfolgreiche Unternehmen nur mit einer resilienten Belegschaft

Mit Veränderungen und Krisen umgehen: genau wie im Kleinen, der einzelnen Person, ist das auch für die Gesamtheit der Belegschaft eine Herausforderung. Das Unternehmen als ganzes kann daraus nur dann gestärkt hervorgehen, wenn es die Mitarbeiter gezielt unterstützt. Ein von BearingPoint entwickeltes Resilienz-Benchmarking-Tool zeigt, dass 60 Prozent der 150 untersuchten führenden Unternehmen mit diesem Tool bereits die Widerstandsfähigkeit der eigenen Belegschaft erhöhen konnte. Tobias Liebscher, Partner bei BearingPoint, beschreibt nachfolgend, wie wichtig das Verständnis für diese Zusammenhänge ist.

Tobias Liebscher erläutert, warum die Mitarbeitenden der entscheidende Faktor für mehr Resilienz in den Unternehmen sind.

„Powered by the people“ ist die zweite von fünf Begleitstudien zur Studie „Wie leistungsfähig sind Sie unter Druck?“. In letzterer analysierten wir über 5.000 Projekte, in deren Rahmen BearingPoint 150 Unternehmen identifizierte, die sich am stärksten durch ihre ausgeprägte Widerstandsfähigkeit auszeichnen. Wir haben außerdem ein Benchmarking-Tool entwickelt, mit dem jede Organisation ihre verhältnismäßige Stärke innerhalb der fünf grundlegenden Säulen der Resilienz bewerten kann.

Die meisten Unternehmen wissen, dass ihr Erfolg auf der Fähigkeit der Mitarbeiterinnen und Mitarbeiter beruht, Veränderungen zu bewältigen. Doch nur 60 Prozent der Unternehmen halten ihre Mitarbeitenden für resilient. Gleichzeitig resümiert die Studie, dass auch diese Organisationen nicht beim bisher Erreichten stehen bleiben können.

Personalstrategie entscheidet über Gesamterfolg

Die Studie zeigt, dass die Personalstrategie eines Unternehmens für den Gesamterfolg entscheidend ist. Viele Unternehmen erkennen, dass sie mehr zu einem Umfeld beisteuern müssen, in dem ihre Mitarbeitenden erfolgreich sein können. So gibt es beispielsweise einen eindeutigen Zusammenhang zwischen der Selbstständigkeit und Eigenverantwortung der Führungskräfte und dem Erfolg von Transformationsprojekten. Dennoch ist die Autonomie der sogenannten Frontline Manager immer noch gering (22 Prozent in Frankreich, 19 Prozent in Deutschland und 30 Prozent im Vereinigten Königreich). Während 55 Prozent sich mehr Informationen während eines Projekts wünschen, möchten 45 Prozent klarere Leitlinien und eine engere Zusammenarbeit sowie 39 Prozent Zugang zu spezifischem Fachwissen bei der Durchführung von Veränderungsprojekten. Die Studie verdeutlicht, dass die Mitarbeitenden Best Practice-Verfahren mit einem klaren, sinnhaften Ziel und einer eindeutigen Vision verbinden. Beispielhafte Unternehmen bieten zudem agile Arbeitsmodelle mit der Möglichkeit, flexibel zu reagieren, sowie strukturierte und multidisziplinäre Teams, die befugt sind, Entscheidungen zu treffen.

Die Analyse von BearingPoint zeigt, dass die Personalstrategie von erfolgreichen Unternehmen auf den fünf Dimensionen einer widerstandsfähigen Organisation basiert:

  1. Befähigung der Mitarbeitenden für den Wandel: Widerstandsfähige Unternehmen unterstützen ihre Mitarbeitenden dabei, sich schnell an Veränderungen und Unsicherheiten anzupassen. Eine positive Unternehmenskultur, in der sich die Mitarbeitenden unterstützt und wertgeschätzt fühlen, ist letztlich ausschlaggebend für den erfolgreichen Umgang mit Veränderungen.
  1. Verständnis des Ökosystems des Kunden: Widerstandsfähige Unternehmen helfen ihren Mitarbeitenden dabei, ihre Kunden und Lieferketten zu verstehen. Darüber hinaus sorgen sie dafür, dass ihre Mitarbeitenden positiv mit Kunden, Lieferanten und anderen Interessengruppen interagieren. Ein holistisches Verständnis der Customer Journey über alle Kanäle sowie eine enge Zusammenarbeit mit allen beteiligten Partnern sind entscheidend für eine effiziente Aufrechterhaltung der Lieferketten.
  1. Ausrichtung der Datenstrategie an der Geschäftsstrategie: Mitarbeitende sollten in die Datensammlung einbezogen werden und ein Verständnis zur Datennutzung entwickeln. Nur so kann eine spezifische Datenstrategie Geschäftsentscheidungen erfolgreich unterstützen, denn die Implementierung einer erfolgreichen Datenstrategie basiert im Endeffekt auf den Menschen hinter den Daten und wie sie mit diesen umgehen.
  1. Einsatz von Technologie zur Verbesserung der Agilität: Widerstandsfähige Unternehmen nutzen neue Technologien, um die Produktivität und das Engagement der Mitarbeitenden zu steigern. Dafür müssen Unternehmen Technologien bereitstellen, die flexibles und agiles Arbeiten erleichtern.
  1. Aufbau einer effektiven Governance für intelligente Entscheidungen: Widerstandsfähige Unternehmen ermöglichen mithilfe einer durchdachten Governance eine bessere Entscheidungsfindung durch geeignete Strukturen, klare Entscheidungsprozesse und effektive Maßnahmen. Notwendig dafür sind: Investitionen in die Kapazitätsplanung für agile und flexible Arbeitsmodelle, eine Unternehmensstruktur aus Teams mit umfangreichen Kenntnissen, die in der Lage sind, eigenständig Entscheidungen zu treffen, sowie die Möglichkeit für Manager, multidisziplinäre und hochleistungsfähige Teams zu bilden.

Regierungsorganisationen mit niedrigen Resilienz-Werten der Mitarbeitenden

Führungsstrukturen werden zunehmend verschlankt. In der Folge kommt der Befähigung der direkten Vorgesetzten, Mitarbeitende zu entwickeln und zu führen, eine besondere Bedeutung zu. Wir beobachten, dass resiliente Unternehmen gezielt beispielsweise die Team- oder Gruppenleitung im Verständnis der fünf Säulen der Resilienz schult.

Die von BearingPoint untersuchten Kategorien der Unternehmen zeigten, dass eine gute Vorbereitung der Mitarbeiterinnen und Mitarbeiter auf Veränderungen ein Kernpunkt ihrer Strategie ist. Allerdings werden Kundenstrategien meist gegenüber Personalstrategien priorisiert. Darüber hinaus wurden Unterschiede zwischen den Branchen deutlich, so wiesen Regierungsorganisationen niedrigere Werte für die Widerstandsfähigkeit der Mitarbeitenden auf als andere Branchen. Der Studie zufolge haben führende Unternehmen des privaten Sektors auf wiederkehrende Krisen reagiert, indem sie mehr in ihre Mitarbeitenden investierten und so von einer erhöhten Widerstandsfähigkeit des Unternehmens profitierten.

Die Personalstrategie darf aus unserer Sicht keine abstrakte Vision der HR-Abteilung sein, sondern muss insbesondere von den Führungskräften der Fach- und Funktionsbereiche getragen und vermittelt werden. Resiliente Organisationen haben eine kaskadierende Kommunikationsstruktur und stellen so die Umsetzung der Anforderungen an alle Mitarbeitenden sicher.


Über die Studie

BearingPoint analysierte mehr als 5.000 Kundenprojekte und entwickelte ein Modell, um zu bewerten, wie Unternehmen erfolgreiche langfristige Transformationen schaffen. Darauf aufbauend kalibrierte BearingPoint Resilienzprofile.


Über den Autor:

Nach dem Berufsstart als Logistikplaner in der PKW-Reifen Division der Hauptverwaltung der Continental AG, ist Tobias Liebscher 1995 in die Unternehmensberatung gewechselt. Für Prof. Dr. Horst Wildemann, KPMG Consulting und Roland Berger hat er eine Vielzahl von Projekten geleitet. Nach dem Wiedereintritt bei BearingPoint 2003 wurde er 2006 zum Partner ernannt und verantwortet heute die Service Line People & Strategy für die DACH-Region.

Digitalisierung könn(t)e Inklusion befördern

Reflexionen über die Chancen und Risiken der Digitalisierung aus der Perspektive der reflexiven Diversitätsforschung

von Andrea D. Bührmann

Schon seit Mitte der 1970er Jahre werden fundamentale gesellschaftliche Veränderungsprozesse im sogenannten Globalen Norden [1] beobachtet: neben einer fortschreitenden Globalisierung der Wirtschaftsströme, zunehmenden Individualisierungsprozessen wie auch einer Transnationalisierung der individualisierten Lebenswelten ist vor allem die Rede von einer fortschreitenden Digitalisierung der Informationstechnologien und der damit verbundenen Effekte in Wirtschaft und Gesellschaft.

Zum Inhalt
Digitalisierungsprozesse in Wirtschaft und Gesellschaft
Prozessdigitalisierungen und Digitalisierungsprozesse
Risiken und Chancen der Digitalisierung am Beispiel veränderter Lehr-Lernformate an Hochschulen
Fazit

Digitalisierungsprozesse in Wirtschaft und Gesellschaft

Digitalisierung bezeichnet in diesem Kontext in der Regel Prozesse, bei denen es um die Transformierung analoger in digitale Werte bzw. Formate geht. Diese Digitalisierungsprozesse werden in vielen gesellschaftlichen Bereichen immer wichtiger und verändern Wirtschaft und Gesellschaft aktuell grundlegend. Im Folgenden benenne ich zur Illustration einige ausgewählte Beispiele:

  • Im unternehmerischen Kontext versteht man unter Digitalisierungsprozessen zumeist das Abbilden von bis dahin analogen Geschäftsprozessen mit Hilfe digitaler Lösungen. Zugleich werden neue digitale Produkte bzw. Geschäftsmodelle entwickelt und vermarktet. Zu nennen sind nicht nur die entsprechenden Produkte für die Digitalisierung von Prozessen, wie also Hardware wie Computer, Handys, Drucker usw., sondern auch die entsprechende Software, wie die Programme aber auch das Entwickeln und Vorhalten von passenden Plattformen. Die angesprochene Plattformwirtschaft umfasst sowohl Unternehmen wie ‚Uber‘, ‚Zalando‘ oder ‚Ebay‘ als auch diejenigen AkteurInnen, die über diese Plattformen ihre Dienste anbieten.
  • In Politik und Verwaltung werden vermehrt Services für BürgerInnen, wie etwa An- und Ummeldungen, Zulassungen von Kfz, Steuererklärungen oder auch – ganz aktuell – Impftermine digital angeboten. An dieser Stelle werden indes auch immer wieder die Teilhabemöglichkeiten von Menschen ohne Internetzugang diskutiert. Denn auch Verwaltungen, besonders aber PolitikerInnen kommunizieren zunehmend nicht mehr nur über audiovisuelle oder Printmedien, sondern über die sogenannten Neuen Sozialen Medien. Zu nennen sind hier insbesondere die Messengerdienste wie ‚Twitter‘ oder ‚Telegram‘.
  • Und auch im Bereich von Forschung und Bildung können zunehmend Digitalisierungsprozesse beobachtet werden. In der Forschung geht es zum einen darum, neue Möglichkeiten der Datenverarbeitung und damit Digitalisierung zu entwickeln; zum anderen werden aber auch zunehmend außerhalb der Informatik insbesondere in den Natur- und Lebenswissenschaften aber eben auch in den Geistes- und Sozialwissenschaften die Möglichkeiten der Analyse großer Datenmengen – so genannter big data – genutzt. Dabei versucht man zum Beispiel, große Datenmengen zu modellieren, um mögliche Verlaufskurven der Covid-19 Pandemie zu prognostizieren. Man erforscht aber auch die journalistischen Berichterstattungen in Print- und Online-Medien über die Pandemie mit Hilfe quantitativer Diskursanalysen. Und auch in Schulen und Hochschulen spielen Digitalisierungsprozesse eine zunehmend wichtige Rolle. Lerneinheiten werden digitalisiert und Prüfungen werden von analogen auf digitale Formate umgestellt. [2]

Über die Autorin

Prof. Dr. Andrea D. Bührmann
ist Direktorin des Instituts für Diversitätsforschung in der Sozialwissenschaftlichen Fakultät an der Universität Göttingen.
Web: https://www.uni-goettingen.de/de/446519.html




Prozessdigitalisierungen und Digitalisierungsprozesse

Die aktuelle COVID 19-Pandemie macht deutlich, dass zumindest in Deutschland noch wesentliche Schritte zu digitalen, vernetzten und kommunikativen Prozessen zu gehen sind. Dabei ist es wichtig zwischen Digitalisierungsprozessen und Prozessdigitalisierungen zu unterscheiden. Sie bilden zwei Seiten ein und derselben Medaille, die aufeinander verweisen. Indes reicht es gerade nicht, bereits existierende analoge Prozesse zu digitalisieren. Vielmehr erzwingen die vernetzten Möglichkeiten innovative Prozesse. Prozessdigitalisierungen können sich also – wenn man so will – von analogen Prozessen emanzipieren, sich also selbständig und unabhängig entwickeln. Ein ganz aktuelles Beispiel aus der Hochschuldidaktik ist zum Beispiel, dass Seminareinheiten aufgezeichnet und untertitelt werden können, so dass Studierende mit besonderen Lernherausforderungen noch besser befähigt werden.

Dabei werden Digitalisierungsprozesse wie Prozessdigitalisierungen sowohl aus einer technologischen als auch aus einer gesellschaftlichen Perspektive kontrovers diskutiert: In technologischer Perspektive werden die primären Chancen in Bezug auf die Entwicklung innovativer Produkte, die Effizienzsteigerung globaler Lieferketten aber auch die Steigerung von Kommunikationsmöglichkeiten erörtert. Digitalisierungsprozesse und mehr noch Prozessdigitalisierungen werden in der Regel positiv bewertet. In gesellschaftstheoretischer Perspektive herrschen dagegen ambivalente Bewertungen vor. Einerseits wird eine Entfremdung von der analogen Welt beklagt; andererseits werden aber auch die möglichen Chancen betont.

Diese Ambivalenzen werde ich im Folgenden am Beispiel der so genannten Digitalsemester – wie sie seit März 2020 in Deutschland stattgefunden haben – erläutern. Dabei bildet die reflexive Diversitätsforschung meinen theoretischen Ausgangspunkt.

Die reflexive Diversitätsforschung [3] zeichnet sich dadurch aus, dass sie sich für die Formierung wie Transformierung von Prozessen und Praktiken des Organisierens interessiert und zugleich fragt, auf welche gesellschaftlichen Herausforderungen diese Formierungen bzw. Transformierungen antworten und welche intendierten oder nicht-intendierten Effekte diese implizieren. Der Fokus liegt dabei auf der expliziten wie impliziten Behandlung und Bearbeitung von Diversität. Diversität selbst wird dabei nicht – wie in sogenannten positivistisch-funktionalistisch orientierten Studien – als gegeben oder – wie in vielen sogenannten kritisch-emanzipativ orientierten Studien – als ‚bloß‘ konstruiert betrachtet. Vielmehr wird Diversität als Effekt unterschiedlicher Praktiken verstanden, die gleichwohl wirklich, da wirksam sein können aber nicht müssen. D.h. bestimmte Differenzierungspraktiken müssen nicht notwendig zu Diversität führen, sie können dies aber.


„Die weitgehende Umstellung der hochschulischen Lehr-Lernformate in der Pandemie stellt nach Meinung einiger genau diesen Bildungsauftrag grundsätzlich in Frage; andere wiederum sehen große Chancen in dem aktuellen Digitalisierungsschub.“


Risiken und Chancen der Digitalisierung am Beispiel veränderter Lehr-Lernformate an Hochschulen

Hochschulen gelten – jedenfalls vor An- bzw. Ausbruch der Covid-19-Pandemie – in der Regel als Orte der Begegnung und der Versammlung von Menschen, die in vielen unterschiedlichen Fächern und Disziplinen studieren, lehren und forschen. Ein Blick auf die Selbstdarstellungen von Hochschulen, mit denen – jedenfalls bislang – um Studierende geworben wird, macht deutlich, dass der Campus als Lebensraum mit physischer Präsenz begriffen wird: So tauchen Bilder und Videos von Studierenden, Lehrenden und Forschenden in Hörsälen, Seminarräumen und Laboratorien auf.

Zugleich wirbt so manche Hochschule mit Arbeitsplätzen in Bibliotheken und Instituten, aber auch mit Abbildungen mehr oder minder einladenden Cafeterien und Mensen. Es wird aber auch bisweilen mit Sportstätten und Theaterworkshops geworben. Diese Orte dienen als Treffpunkte, an denen sich Menschen begegnen und miteinander ins Gespräch kommen können/sollen.

Dabei verfolgen Hochschulen mit Blick auf die Studierenden durchaus hehre Ansprüche. Denn es geht ihnen gerade nicht nur um die bloße Vermittlung von Wissen. Vielmehr geht es auch um die Ausbildung kritischer Persönlichkeiten, die sich (selbst-)kritisch mit den Inhalten ihres Studiums auseinandersetzen und diese in einer Gemeinschaft der Lehrenden und Lernenden aus unterschiedlichen Perspektiven hinterfragen. Dies kann auch in den entsprechenden Lehrleitbildern einzelner Hochschulen nachgelesen werden.[4]

Die weitgehende Umstellung der hochschulischen Lehr-Lernformate in der Pandemie stellt nach Meinung einiger genau diesen Bildungsauftrag grundsätzlich in Frage; andere wiederum sehen große Chancen in dem aktuellen Digitalisierungsschub:


„Die KritikerInnen des aktuellen Digitalisierungsschubes betonen insbesondere die Nachteile mangelnder Präsenz und befürchten eine Reduzierung des Studiums auf eine reine Wissensvermittlung.“


Die KritikerInnen des aktuellen Digitalisierungsschubes betonen insbesondere die Nachteile mangelnder Präsenz und befürchten eine Reduzierung des Studiums auf eine reine Wissensvermittlung. Ihnen geht es nicht darum, ob digitale Lehre womöglich weniger effektiv oder sogar noch effektiver ist als Präsenz-Lehre, es geht ihnen vielmehr um den möglichen Verlust der gemeinsamen Begegnungsräume. Denn wie optimal auch immer Lehre digitalisiert werden möge, so drohten doch insbesondere der gegenseitige Austausch von Argumenten mit den damit verbundenen Perspektivwechseln zu entfallen.

In diesem Sinne argumentiert etwa Stefan Kühl (2021, N S. 4): „Der Wechsel zwischen Gesprächspartnern fällt bei körperlicher Anwesenheit leichter, weil eine Gesprächsbereitschaft durch paraverbale Zeichen wie räuspern oder lautes Einatmen angezeigt wird“. So falle das Sprechen leichter, da ein breiteres Spektrum nonverbaler Zeichen zur Verfügung stehe, um z. B. Zustimmung oder auch Ablehnung zu signalisieren. Paraverbale wie nonverbale Zeichen könnten nämlich erheblich zu einer Verminderung von Unisicherheiten beitragen.

Digitale Veranstaltungen erschwerten so intensive Diskussionen und ein aktives Zuhören. Besonders die Geistes– und Sozialwissenschaften basierten indes auf solchen diskursiven Formaten in Präsenz. Johannes F. Lehmann betont den Aspekt der „selbständigen Vergemeinschaftung der Studierenden, in den Sozialformen der gemeinsamen Aneignung und der selbst organisierten, kritischen Verarbeitung von Wissen – und eben deshalb ist von entscheidender Bedeutung, dass die Lehre am gemeinsam geteilten Ort, an der Universität, erbracht wird“ (Lehmann 2021). [5] Und Lehmann fährt fort: „Dieser geteilte Raum ist seit nunmehr drei Semestern geschlossen, mit zum Teil verheerenden Folgen für die voneinander isoliert zoomenden Studierenden, denen tagtäglich Entwicklungs-, Entfaltungs- und Kontaktmöglichkeiten genommen werden“ (ebd.).

Dagegen begrüßen andere den aktuellen Digitalisierungsschub. Sie fragen offensiv – wie etwa das Hochschulforum Digitalisierung (HFD) (2021) – „Wie lassen sich die positiven Errungenschaften und neuen Erfahrungen für die Weiterentwicklung von Hochschulstrategien nutzen?“ Dabei stehen nicht nur technologische Weiter- und Neuentwicklungen und deren optimaler Einsatz im Fokus. D. h. etwa die zahlreichen Möglichkeiten digitaler Tools [6], die Interaktionen und Diskussionen zwischen Lehrenden und Studierenden in Online-Veranstaltungen ermöglichen.


„Dagegen begrüßen andere den aktuellen Digitalisierungsschub. Sie fragen offensiv – wie etwa das Hochschulforum Digitalisierung (HFD) (2021) – „Wie lassen sich die positiven Errungenschaften und neuen Erfahrungen für die Weiterentwicklung von Hochschulstrategien nutzen?“


Vielmehr sollen die Möglichkeiten der Lehr-Lern-Prozesse so verändert werden, dass ein Mehr an Inklusion [7] – zunächst im digitalen, aber sicherlich in der Folge auch im analogen Raum – entstehen könnte. Dafür gibt es aus meiner Perspektive insbesondere die folgenden Ansatzpunkte:

  • Erstens könnte durch die Digitalisierung der Lehr-Lernformate ein Mehr an Barriere- armut bzw. -freiheit erreicht werden, insofern z. B. mobilitätseingeschränkte Personen und Menschen mit Sehbehinderungen mit der entsprechenden Software an digitalisierten Lehrveranstaltungen teilnehmen könnten. Von dieser Digitalisierung können letztlich alle Studierenden und Lehrenden profitieren, insofern sie an vielen bislang kaum ‚erreichbaren‘ Veranstaltungen teilnehmen und die Reisekosten einsparen können.
  • Studierende können zweitens ihr Studium und Lehrende ihre Lehre internationalisieren. Viele Hochschulen sprechen hier von der ,Internationalisierung der Curricula‘. Durch entsprechende Programme können nämliche Ausschnitte aus Interviews bzw. Vorlesungen von führenden Expert*innen aus aller Welt, aber zum Beispiel auch Digitale, die sich nicht am Studienort befinden, in die eigene Lehre inkludiert und zusammen analysiert werden. Hier spielt sicherlich auch die Nutzung von Virtual Reality-Tools eine wichtige Rolle.
  • Studierende können sich drittens nun in asynchronen Formaten Ihre Lernzeiten selbst aussuchen. Und auch Lehrende müssen nicht mehr zu bestimmten Zeiten an bestimmten Orten Ihre Lehre absolvieren. Zudem können Studierende die Veranstaltungen selbst immer wieder in ihrem eigenen Tempo bearbeiten. Dies kommt den unterschiedlichen Lerntypen der Studierenden entgegen.
  • Schließlich sind viele Klausuren von reinen Wissensabfragen zu sogenannten Kompetenzprüfungen weiterentwickelt worden. So wird weniger das Auswendiglernen von Wissen und deren Reproduktion benotet, sondern vielmehr die Kompetenzen mit erworbenem Wissen kompetent umzugehen. Hier erfreuen sich mittlerweile die sogenannten Open Book-Klausuren, bei denen alle Hilfsmittel genutzt werden können/ sollen, großer Beliebtheit.

Fazit

Digitalisierung könnte also in der Tat Inklusion befördern. Indes wäre es dazu wichtig, zwischen Prozessdigitalisierungen und Digitalisierungsprozessen zu unterscheiden. Am Beispiel der Debatten um das Pro und Contra der Digitalisierung wird nämlich deutlich, dass die Kritiker*innen im Grunde Digitalisierungsprozesse beklagen. Die Gegner*innen argumentieren insofern retrospektiv, d. h. rückwärtsgewandt, und befürchten, dass gerade die einfache Digitalisierung von Lern-Lehrprozessen aus der analogen Welt wenig sinnvoll erscheint. Demgegenüber argumentieren die Befürworter*innen prospektiv und entwerfen neue Möglichkeiten der Prozessdigitalisierung, die über die bisherigen analogen Prozesse hinausgehen.

Literatur

Bührmann, Andrea D. (2020): Reflexive Diversitätsforschung. Eine Einführung anhand eines Fallbeispiels. Opladen/Toronto: utb.

Friedrich, Julius-David/Neubert, Philipp/Sames, Josephine (2021): 9 Mythen des digitalen Wandels in der Hochschulbildung, Diskussionspapier Nr. 13/Juli 2021. https://hochschulforumdigitalisierung.de/sites/default/files/dateien/HFD_DP_13_Mythen_Digitaler_Wandel_Hochschulbildung.pdf [Zugriff: 2.8.2021].

Hochschulforum Digitalisierung (HFD) (2021): Strategien zur Digitalisierung: Hochschulforum Digitalisierung berät vier Hochschulen und einen Verbund.  https://www.stifterverband.org/pressemitteilungen/2021_07_20_peer-to-peer-strategieberatung [Zugriff: 25.7.2021).

Kühl, Stefan (2021): Der Zauber des Zufälligen, In: FAZ, 21.7.2021, N 4.

Lehmann, Johannes F. (2021). Anspruch auf Bildung, In: FAZ, 19.7.2021.

Anmerkungen

[1] Der Begriff Globaler Norden umfasst die reichen Industrieländer, während der Globale Süden die sogenannten Entwicklungs- und Schwellenländer bezeichnet. Mit dem Wechsel der Terminologie soll auch ein Perspektivwechsel erreicht werden, denn die Länder des Globalen Südens erscheinen doch nur aus der Perspektive sogenannter entwickelter Länder als Entwicklungs- und Schwellenländer.

[2] Auf diese Aspekte gehe ich später noch näher ein.

[3] Vgl. dazu ausführlicher Bührmann 2020.

[4] Vgl. etwa das Lehrleitbild der Universität Göttingen: https://www.uni-goettingen.de/de/leitbild+f%C3%BCr+das+lehren+und+lernen/594258.html

[5] Kühl betont hier auch noch den Aspekt der Hochschule als Kontaktbörse und Heiratsmarkt.

[6] Hier wird zwischen Mehrbenutzer-Anwendungssystemen, also z. B. TitanPad, Google Docs, Miro-Boards, und Kommunikationstools, wie Videokonferenzdiensten mit der Möglichkeit von Break-Out-Sessions, soziale Medien, Chats, Diskussionsforen oder E-Mails etc. unterschieden. (vgl. etwa Friedrich/Neubert/Sames 2021)

[7] Inklusion meint hier nicht die Inklusion von Menschen mit Behinderungen in bestehende Organisationsprozesse und -strukturen. Vielmehr verweist der Begriff darauf, dass vormals bestehende Organisationsprozesse und -strukturen auf beispielsweise Menschen mit Behinderungen, aber auch andere bisher diskriminierte Gruppen ‚eingestellt‘ und entsprechend ‚umgestellt‘ werden. In der Literatur wird hier auch von inklusiven Organisationen gesprochen.

Dieser Beitrag stammt aus dem Kompendium Digitale Transformation
Kompendium Digitale Transformation von Andrea D. Bührmann wird unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedinungen 4.0 International lizenziert, sofern nichts anderes angegeben ist.

Metaverse: Phygital, Interoperable, Immersive: Visions for the Metaverse

In der dritten Woche unserer Web3 Learning Journey gab es gleich zwei unterschiedliche Sessions zum Metaverse von Mark Rolston und Ida Kymmer.

Metaverse und Augmented Reality

Zunächst teilte Mark Rolston, Gründer und Chief Creative der Designagentur argodesign, seine Vision mit uns. Für Mark ist das Metaverse nicht unbedingt gleichzusetzen mit einer Reise in eine 3D-Welt. Es stellt vielmehr unsere Welt und die Möglichkeiten, sie mithilfe von KI und Computern neu zu erleben, in den Mittelpunkt. Das Metaverse fungiert dabei als eine Art Overlay sämtlicher Dinge, Menschen und Orte, mit denen wir in der realen Welt interagieren. „In Zukunft geht es weniger darum, neue virtuelle Welten zu bauen, sondern den Computer in die reale Welt zu übertragen“, sagt er.

‚Spatial Computing‘ – das „räumliche Rechnen“ – nimmt dabei eine wichtige Rolle ein. Es erlaubt uns, Informationen aktiv und passiv über Augmented Reality (AR) zu konsumieren.

Das Konzept der ‚Placefullness‘ ist für diese Vision ebenso entscheidend. Dabei handelt es sich um die Idee, dass sich durch das Nutzen eines AR-Geräts eine neue Welt öffnet, da neue Informationen in unserer Realität integriert und sichtbar gemacht werden. Dies umfasst die unterschiedlichsten Orte, wie „unser Zuhause, unsere Arbeitsplätze und jene Orte, an denen wir füreinander sorgen, Orte, an denen Menschlichkeit am intensivsten ausgeübt wird.“ So nutzt das Metaverse all das Wissen, das jemals verarbeitet wurde, und spannt es als eine Art digitales Overlay über alles, mit dem wir in der realen Welt interagieren.


„Mittlerweile bewegen sich Diskussionen über KI, Mixed Reality und den globalen Zugriff auf Rechenleistung auf einem sehr erwachsenen Niveau.“

– Mark Rolston

Tour durch das Metaverse

Donnerstags hatten wir die Chance, in die zweite Metaverse-Vision buchstäblich hineinzuspringen, denn Journee – The Metaverse Company hat uns auf eine Tour durch eines seiner Metaversen mitgenommen. In diesem Metaverse, das das Unternehmen für Brands wie BMW und Adidas entwickelt hat, bewegt man sich durch eine vollwertige 3D-Welt, in der Natur, Architektur und andere Objekte auf überraschende Art und Weise nebeneinander existieren.

Dabei handelt es sich aber nur um eine Version des Metaverse. Daher liegt die Frage nahe: Werden die unterschiedlichen Visionen im Web3 parallel bestehen? Journee‘s Strategic Business Development Manager Ida Kymmer, die uns durch das Metaverse geführt hat, meint: Kein Problem, beides wird abhängig von den Anforderungen des Kunden existieren.


„Mitzumachen gibt mir das Gefühl, nützlich für den Planeten zu sein.“

– Ida Kymmer

Diskussionen im #houseverse

Diese Visionen haben in der Online-Community, dem #houseverse, eine rege Diskussion entfacht.

Folgende Fragen kamen dabei bei den Teilnehmenden auf:

  • Wird sich das Metaverse zu einem Ort entwickeln, zu dem wir flüchten, um der Realität zu entkommen?
  • Oder wird es sich mit unserer Realität vermischen und sie womöglich sogar verbessern?
  • „Menschen sind mittlerweile überwältigt und permanent abgelenkt von den zahlreichen Benachrichtigungen und To-dos, die auf ihren Bildschirmen aufpoppen. Wird uns diese Vision, in der wir auf AR zurückgreifen, helfen, dieses Problem zu lösen?
  • Oder wird es sich als eine zusätzliche virtuelle Ebene herausstellen, die uns nur noch mehr stresst?“

Die Antworten darauf werden wir wohl erst in der Zukunft wissen – es bleibt spannend!

Mehr Informationen zur asynchronen Konferenz zum Thema Web3 und Metaverse gibt es unter dem folgenden Link. Den ganzen Vortrag von Mark Rolston gibt es außerdem hier zum Anschauen! Den Vortrag von Ida Kymmer liegt unter folgendem Link zum Anschauen bereit.


Lesen Sie dazu auch:


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Mehr Resilienz durch die digitale Transformation?

Können Unternehmen mehr Resilienz im Wettbewerb erreichen, in dem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Diese werden wir nachfolgend immer wieder in Form von kurzen Panels darstellen. Hier neue Einblicke:


Resilienz ist eine Frage der Aufstellung

Prof. Dr. Volker Gruhn, Aufsichtsratsvorsitzender bei adesso

Wie gut ein Unternehmen mit Veränderungen und Widrigkeiten umgehen kann, entscheidet sich in der Organisation der IT-Abteilung – denn hier laufen alle wichtigen Fäden zusammen. Hier sorgen die Verantwortlichen dafür, dass der Laden heute funktioniert. Und dass das Unternehmen morgen auf die richtigen Themen setzt.

Um beides leisten zu können, favorisieren wir in unserem Konzept der New School of IT die Idee der Ambidextrie (Beidhändigkeit). Sie liefert eine überzeugende Blaupause für eine stabile IT-Aufstellung. Einige Teams treiben robuste und kosteneffiziente Anwendungen voran (Exploit). Andere setzen kreative Lösungen auf und um (Explore). Aber – und das ist ein großes Aber – im Gegensatz zu Ansätzen wie der „IT der zwei Geschwindigkeiten“ sind diese Einheiten nicht voneinander getrennt. Unternehmen definieren gemeinsame Strukturen, Verantwortlichkeiten, Kennzahlen und Berichtswege. Dies sorgt dafür, dass beide Bereiche zusammenarbeiten, um die Ziele zu erreichen. So stammen die Daten, die das Explore-Team für eine Lösung benötigt, direkt aus den Anwendungen der Exploit-Kollegen. Andersherum verankern sie neue, datengetriebene Geschäftsprozesse gemeinsam in der bestehenden IT-Landschaft. Dieses Zusammendenken der unterschiedlichen Anforderungen zeichnet eine ambidextrische IT-Organisation aus.

Ambidextrie betont also das Gemeinsame der IT und nicht das Trennende. Darin liegt die Stärke dieser Idee. Ambidextrie sorgt für eine robuste, innovative – und damit resiliente – IT. Und dies ist die Voraussetzung für ein resilientes Unternehmen.


Digitalisierung als Grundlage für maximale Business-Resilienz

Der immer schnellere und kaum noch vorhersehbare Wandel der ökonomischen sowie politischen Rahmenbedingungen verlangt von Unternehmen heute mehr denn je, tragfähige Pläne zur Bewältigung von Krisen zu entwickeln – zusammengefasst spricht man von Business-Resilienz.

Tim van Wasen, Geschäftsführer Dell Technologies Deutschland

Dabei spielen drei miteinander verbundene Aspekte eine zentrale Rolle: digitale Widerstandsfähigkeit, Cyber-Resilienz und resiliente Mitarbeiter.

Digitale Resilienz beschreibt die Fähigkeit von Unternehmen, den Betrieb im Falle unvorhergesehener Ereignisse oder Störungen von außen mithilfe ausgereifter digitaler Technologien zu beherrschen, um so den Geschäftsbetrieb aufrechtzuerhalten und überlebens- und wettbewerbsfähig zu bleiben.

Cyber-Resilienz wiederum bezeichnet konkret die Fähigkeit eines Unternehmens, unmittelbar und wirksam auf einen Cyber-Angriff zu reagieren. Dazu gehört, den unterbrochenen Betrieb schnellstmöglich wieder herzustellen und damit mögliche negative Folgen abzufedern – sei es nun der Imageverlust, das beschädigte Vertrauen seitens der Kunden oder finanzielle Schäden.

Das dritte Standbein wiederum ist die Resilienz der eigenen Mitarbeiterinnen und Mitarbeiter, um für unvorhergesehene Ereignisse und sich verändernde Rahmenbedingungen gewappnet zu sein. So ist beispielsweise – um beim Thema IT-Sicherheit zu bleiben – nur gut geschultes Personal in der Lage, angemessen auf Hacker-Angriffe zu reagieren, die darauf abzielen, das Unternehmen zu infiltrieren.

Die Geschwindigkeit des technologischen Wandels übt auf Unternehmen einen enormen Anpassungs- und Veränderungsdruck aus. Darum sollten sie die eigene Business-Resilienz immer wieder kritisch auf den Prüfstand stellen und laufend optimieren. Zentrale Voraussetzung ist eine konsequente Digitalisierung, um auch unter schwierigen Bedingungen mithilfe von Technologie stets agil und handlungsfähig zu bleiben.


Ralph Völter, Manager District Sales EMEA bei Instaclustr

Managed Platforms entlasten interne IT-Abteilungen

Es ist harte Arbeit, eine Dateninfrastruktur selbst zu verwalten. Jederzeit können Fehler auftreten und das System lahmlegen. Selbst mit modernsten Tools belasten die zahlreichen Aufgaben die IT-Abteilung – oft müssen die Mitarbeiter sogar Nachtschichten einlegen. Die Verwaltung der Dateninfrastruktur ist in der Regel aber nur ein Teil ihrer täglichen Arbeit. Durch den dadurch entstehenden hohen Aufwand werden Ressourcen so gebunden, dass ein effizienter Betrieb nicht mehr gewährleistet werden kann. Managed Platforms entlasten interne IT-Abteilungen und erhöhen auf diese Weise die Resilienz von Unternehmen: Die automatisierten SaaS-Lösungen übernehmen Verwaltung, Monitoring und die Instandhaltung der Dateninfrastruktur sowie das Alerting bei Fehlern. Sollte tatsächlich ein Problem in der Dateninfrastruktur auftreten, löst die Plattform es eigenständig oder meldet es dem Anbieter. Diese Vorgehensweise schafft bei der unternehmensinternen IT-Abteilung freie Kapazitäten für wichtigere Aufgaben als die Administration der Infrastruktur.


Dr. Dorothea Gowin, Head of Human Resources bei Materna Virtual Solution

Wie Arbeitgeber interne Kommunikation und ultramobiles Arbeiten verbinden

In Zeiten von hybriden und ultramobilen Arbeitsmodellen stehen Unternehmen vor der Herausforderung, neue agile Teamstrukturen zu etablieren und eine kontinuierliche Kommunikation zwischen den Mitarbeitenden zu gewährleisten – egal, von wo sie arbeiten. Bei der Frage nach der richtigen technologischen Ausstattung haben sich besonders zwei Konzepte bewährt: Während BYOD (Bring Your Own Device) den Ansatz verfolgt, private Geräte für dienstliche Zwecke einzusetzen, stellt das Unternehmen bei COPE (Corporate-Owned, Personally Enabled) ein Mobile Device zur Verfügung, das auch privat nutzbar ist. Für eine abgesicherte Kommunikation sorgen dabei Container-Lösungen, die einen geschützten Bereich auf dem Endgerät schaffen, in dem Geschäftsdaten vor äußeren Einflüssen geschützt und separat durch Authentifizierungsschritte abgesichert sind. Dank Ende-zu-Ende-Verschlüsselung können Mitarbeiter von überall aus auch an vertraulichen Video-Calls teilnehmen oder sensible Daten versenden.



Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Vom Schmerz deutscher Schuldner

Sebastian Ludwig, Geschäftsführer coeo Inkasso GmbH (Deutschland) und CEO D-A-CH der coeo Group GmbH hat sich gemeinsam mit dem Unternehmen Fabit in einer Studie um die Schuldner in Deutschland Gedanken gemacht.

Geld ist und bleibt ein sensibles Thema. Es gibt wenig Daten, wenn es um die Frage geht, wie sehr Schulden den Alltag und die Gesundheit Betroffener belasten, denn Schuldner bleiben weitgehend mit ihren Problemen allein. Eine neue Untersuchung nahm nun Lebensumstände und Schuldensituation genauer unter die Lupe und bringt ans Licht, wo und bei wem der Schuh drückt.

Eines gleich vorweg: Den EINEN Schuldner gibt es nicht. In Deutschland gelten zwar bei Weitem mehr Männer als überschuldet und beantragen auch öfter eine Privatinsolvenz, allerdings scheinen Schulden an sich mehrheitlich ein weibliches Phänomen zu sein: Knapp sechs von zehn befragten Personen sind Frauen. Auch beim Alter überraschen die Ergebnisse: Mehr als ein Drittel der Befragten ist jünger als 29 Jahre und macht damit die größte Gruppe der Schuldner aus.
Der Hauptüberschuldungsgrund bei jungen Menschen ist zumeist die unwirtschaftliche Haushaltsführung[1], also der wiederholt übermäßige und überflüssige Konsum, der über die eigenen wirtschaftlichen Verhältnisse hinausgeht. Aber auch mangelndes Finanzwissen trägt seinen Teil dazu bei.[2] Dazu zählt zum Beispiel, dass viele junge Menschen nicht wissen, wie sie mit Ratenkäufen und -krediten umzugehen haben oder welche Versicherungen tatsächlich notwendig sind. Fast die Hälfte der befragten Schuldner geht einem geregelten Job nach. Junge Menschen in finanzieller Schieflage stehen noch am Anfang ihrer Karriere, was wiederum ein niedriges Einkommen erklären könnte. Allerdings sagt das Netto-Einkommen nichts darüber aus, wie wahrscheinlich es ist, dass jemand Schuldner wird. Die Daten zeigen vielmehr, dass die Schuldenhöhe mit steigendem Einkommen eher zunimmt.

Trauriger Fakt: Geldsorgen führen in die Isolation und machen krank

Sebastian Ludwig erhofft sich von der Studie neue Sichtweisen auf das Thema „Schulden haben“.

Finanzieller Stress, Geldsorgen und Schulden belasten Betroffene und wirken sich auf alle Bereiche des Lebens aus. Der Stress hat einen zerstörerischen Einfluss auf die Beziehungen zu Freunden, Kollegen und innerhalb der Familie. Wenn am Ende des Monats kein Geld mehr übrig ist und auch noch Finanzprobleme die Situation belasten, überkommt viele Betroffene ein Gefühl der Ohnmacht. Fast drei Viertel der Schuldner gibt an, sich allein beim Gedanken an die Finanzen wie gelähmt zu fühlen, empfinden ihren Alltag als massiv eingeschränkt und verzichten auf Anschaffungen und Aktivitäten. Dazu kommt die Sorge, sich lebensnotwendige Ausgaben wie Lebensmittel nicht mehr leisten zu können. Die anhaltenden Preissteigerungen der letzten Monate bei Lebensmitteln und Energie dürften dazu geführt haben, dass mittlerweile noch mehr Menschen diese Ängste teilen. Schulden und Geldprobleme belasten die Betroffenen dabei nicht nur in ihrem sozialen Alltag. Scham, Angst und Wut sind nur einige Gefühle, die Schuldner dabei empfinden, wenn sie über ihre finanzielle Situation nachdenken. Aber auch Trägheit, Traurigkeit und das Nichtvorhandensein von Zuversicht führen unweigerlich zu einem psychischen und emotionalen Erschöpfungszustand. Immerhin geben sechs von zehn der befragten Betroffenen an, auch psychisch unter ihrer Situation zu leiden. Depressionen, Angstzustände und Burn-out sind keine Seltenheit. Viele berichten zudem von körperlichen Problemen wie Appetitlosigkeit, Schmerzen und Schlafproblemen. Erkrankungen, Sucht und Unfälle zählen zu den Hauptauslösern von Schulden und Überschuldung. Dass aber auch Schulden krank machen können, ist vielen nicht klar.[3] Umso wichtiger ist es, den Menschen dabei zu helfen, aus ihrem finanziellen Dilemma herauszukommen.

Schulden beeinflussen auch die persönliche Einstellung zu Geld und Finanzthemen. Bei Schuldnern überwiegen negative Assoziationen zu diesen Themen stark. Das Finanzverhalten wird in erster Linie im Elternhaus erlernt. Beobachten Kinder dieses in der Familie, ist die Wahrscheinlichkeit, es später zu übernehmen, groß.


Quellen:

[1] Statistik zur Überschuldung privater Personen 2020, DESTATIS Statistisches Bundesamt, Statistik zur Überschuldung privater Personen – Fachserie 15 Reihe 5 – 2020 (destatis.de)

[2] Statistik zur Überschuldung privater Personen 2020, DESTATIS Statistisches Bundesamt, Statistik zur Überschuldung privater Personen – Fachserie 15 Reihe 5 – 2020 (destatis.de)

[3] Statistik zur Überschuldung privater Personen 2020, DESTATIS Statistisches Bundesamt, Statistik zur Überschuldung privater Personen – Fachserie 15 Reihe 5 – 2020 (destatis.de)


Zur Studie

Die verwendeten Daten beruhen auf einer Online-Umfrage des Berliner Instituts für Innovationsforschung GmbH (BIFI) im gemeinsamen Auftrag der Fabit GmbH und der coeo Group, an der 364 SchuldnerInnen zwischen dem 07.02.2022 bis 22.02.2022 teilnahmen. Zugelassen zur Studie wurden nur solche Personen, die im Erhebungszeitraum Schulden hatten und in den letzten sechs Monaten Mahnungen, Inkassoschreiben, Zahlungsaufforderungen und/oder Zwangsvollstreckungen erhalten haben.


Über den Autor

Sebastian Ludwig startete seinen beruflichen Werdegang im Forderungsmanagement im Jahr 2000 bei der Deutschen Telekom. Elf Jahre später wechselte er als Head of Sales zur Tesch Unternehmensgruppe (Lowell Group), wo er erst zum Chief Sales Officer aufstieg und später zum Geschäftsführer ernannt wurde. 2018 startete er bei der coeo Inkasso GmbH als Management Director, um das Unternehmen bei seinem Wachstum auf dem deutschen und internationalen Markt zu unterstützen und übernahm 2020 die Leitung als CEO DACH der international agierenden coeo Group.


Bildquelle / Lizenz Aufmacher:

Photo by Towfiqu barbhuiya on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Web3: A New Promised Land?

Greg Sherwin, Alexia Maddox und Will Fan über Dezentralisierung, die Einführung des Web3 und die Bedingungen, die dort vorherrschen müssen

In der zweiten Woche bereicherten gleich drei Gäste unsere Reise durch das Web3: Greg Sherwin, Experte für menschenzentrierte Technologien, Alexia Maddox, Sozialwissenschaftlerin und Forscherin am RMIT Blockchain Innovation Hub, sowie Will Fan, Mitbegründer und CEO von NewCampus. Die drei Expert:innen tauschten sich über ihre Standpunkte zu verschiedenen Web3-Themen aus:

  1. Den Einfluss des Web3
  2. Den Herausforderungen des Web3
  3. Und den Strategien im Rahmen der Einführung des Web3 sowie den Lernmöglichkeiten

Der Einfluss des Web2 aufs Web3

Wirtschaftliche und finanzielle Schwächen – das sind nur einige der Probleme, die dem Web2, der aktuellen Form des Internets, innewohnen. Mit dem Übergang ins Web3 besteht das Risiko, sämtliche Herausforderungen des Web2 mitzunehmen. Denn das Web3 sorgt aufgrund der fehlenden Regulierung nicht automatisch für eine inklusivere Umgebung oder Interaktionen– oftmals ist sogar das Gegenteil der Fall.

Hinzu kommt, dass immer noch unklar ist, , ob wir wirklich bereit für den Schritt in Richtung Dezentralisierung sind – und ob wir es schaffen, die Machtverhältnisse neu zu verteilen.

Mit diesen Punkten aus der Geschichte des Internets gab uns Greg Sherwin Stoff zum Nachdenken: Von frühen Netzwerken, die ursprünglich für die Dezentralisierung gemacht waren, über die Geburt der sozialen Medien im Web2 bis hin zum Web3 und „Make Decentralization Great Again“: Greg stellte grundlegende Fragen, die mit der Evolution des Internets einhergehen.

„Steht das Web3 im Dienste der Menschen oder lassen wir es zu, dass der Kapitalismus dies umkehrt?“ Das ist die zentrale Frage, die Greg aufwirft und führt weiter aus: „Es scheint, als würden diese Faktoren parallel bestehen – vor allem wenn es darum geht, zu hinterfragen, wie Menschen im Web3 bewertet und belohnt werden und wie sich Macht und Einfluss verteilen. Beinahe so, wie in uns bereits bekannten historischen Strukturen beispielsweise in einer Oligarchie.“

Vitalik Buterin, Mitgründer und konzeptioneller Erfinder der Kryptowährung Ether sowie des Blockchain-Netzwerks Etherum, bezeichnet letzteres als Plutokratie. Also als eine Herrschaftsform, in der Vermögen die entscheidende Voraussetzung für die Teilhabe an der Herrschaft ist (Herrschaft des Geldes).

Wer wird im Web3 also als Gewinner:in, und wer als Verlierer:in hervorgehen?


Die Einführung des Web3

Wohin führen Verhaltensentwicklungsmodelle im Web3 wirklich? Was bewirken zum Beispiel Beteiligungs- oder Finanzanreize?

Alexia Maddox stellte uns zum einen die Hürden vor, denen man im Web3 und während seiner Einführung begegnet. Zum anderen beleuchtete sie die Formen des Social Engineerings des menschlichen Verhaltens im Web3.

Auch sie warf jede Menge Fragen auf: Führen Beteiligungs- und Finanzanreize zu einem positiven Entscheidungsfindungsprozess? Oder zu einer kollektiven Beteiligung? Werden wir in der Lage sein, Werte wie geplant in die Projekte zu überführen, die über diese Plattformen umgesetzt werden? Ist es möglich, diese Modelle zu hacken und können wir sie davor beschützen?

Das Lernen im Web3

Inwiefern ist das Web3 für Führungskräfte relevant? Und wie finden sie in diese Thematik hinein? Mit diesen Fragen beschäftigt sich Will Fan.

Da es vor allem die jüngere Generation ist, die die Federführung im Web3 und besonders im Bereich der NFTs übernimmt, mangelt es seiner Meinung nach oftmals an Business-relevanten Kompetenzen und Erfahrungen, um angemessen auf die wachsenden Herausforderungen zu reagieren. Der Web3-Talentpool ist zwar groß, doch die Frage ist: Wie gliedert man diese Talente am besten ein?

In einem gemeinsamen Abschlussgespräch am Donnerstag diskutierten Greg, Alexia und Will den Bedarf eines Wissensnetzwerks, das Menschen helfen soll, sämtliche Aspekte des Web3 schnell und einfach kennenzulernen und zu verinnerlichen. „Die Blockchain ist ein Gemeingut“, kommentierte Alexia. Es bräuchte einen „Archivar“, der historische Aufzeichnungen des Ökosystems zusammenträgt und der Community zugänglich macht. Greg betonte, dass es wichtig sei, „weise Ältere“ als Antwort auf die junge Führungsgeneration im Web3 einzuberufen.

Mehr Informationen zur asynchronen Konferenz zum Thema Web3 und Metaverse gibt es unter dem folgenden Link. Die vollständigen Vorträge gibt es außerdem hier zum Nachhören:


Lesen Sie dazu auch:


Bildquelle / Lizenz Aufmacher:

Photo by JJ Ying on Unsplash

Revolution unseres Finanzsystems oder Wildwuchs? Die Zahlungsmittel im Metaverse

Adrian Fritz ist Research Associate bei 21Shares, ein in der Schweiz ansässiger Emittent für Krypto-ETPs. Im nachfolgenden Gastbeitrag zeigt er Perspektiven auf für auf Kryptowährungen basierenden Zahlungsmitteln bzw. dem Zahlungsverkehr im Metaverse.

Große Marken streben in das Metaverse, die neuen virtuellen Marktplätze des aufstrebenden dezentral aufgebauten Internets. Mithilfe der Blockchain entstehen dort zahlreiche Anwendungen rund um den E-Commerce, Spiele, Medien, Musik, Mode oder Kunst. Genauso vielfältig wie die Anwendungen sind allerdings auch die dort im Umlauf befindlichen Währungen. Könnten sie unser gewohntes, zentrales Währungssystem revolutionieren?

Metaverse – für dieses Wort gibt es keine festgelegte Definition. Dennoch weckt es sofort Assoziationen von virtuellen, videospielähnlichen Welten, in denen sich Nutzer treffen, austauschen, miteinander handeln und sogar gemeinsam arbeiten. Große Unternehmen wie Meta (vormals Facebook) versuchen, diese Idee mit ihren eigenen Projekten für sich zu vereinnahmen, und doch ist die Dezentralität für viele eine der wichtigsten Bestandteile der Metaverse-Vision: Schließlich sind es Anwendungen auf Basis dezentraler Blockchain-Technologie wie Decentraland und Sandbox, die den Aufbau und die Innovationsdynamik vieler verschiedener Metaverse-Projekte oder „Metaverses“ wesentlich prägen – und eben diese Technologie ist auch der Grundpfeiler für die dort stattfindenden Zahlungen für eine Vielzahl von Produkten und Dienstleistungen – zum Beispiel virtuelle Grundstücke, Kunstwerke oder Musikstücke, oftmals in Form von Non-Fungible Token (NFTs).

Kurz gesagt: Es geht um die Monetarisierung von digitalen Inhalten. Zugleich bieten Metaverse-Projekte auch ein vielversprechendes Werbepotenzial, von dem etablierte und aufstrebende Unternehmen profitieren können: Durch eine Metaverse-Präsenz erhalten sie die Möglichkeit, Kunden ihre Produkte und Dienstleistungen auf immersive und interaktive Weise zu präsentieren – so wie die Sportartikelhersteller Adidas und Nike, die 2021 ihre ersten virtuellen Sneaker im Metaverse verkauften.

Adrian Fritz von 21Shares beurteilt im Artikel die Vor- und Nachteile von Kryptowährungen als Bezahlverfahren.

Bis zu 800 Milliarden Dollar könnte die Wirtschaft des Metaverse Schätzungen zufolge 2024 wert sein. Neben den großen Namen wie Axie Infinity, Decentraland oder NFT Worlds gibt es hunderte weitere Unternehmen, die an eigenen Metaverse-Projekten arbeiten. Die Transaktionen, die dort stattfinden, werden in vielen Fällen mit den „hauseigenen“ Währungen durchgeführt: In dem im Februar 2020 eröffneten Decentraland wird mit MANA bezahlt, einem auf der Ethereum-Blockchain* basierenden Krypto-Token. Die virtuelle Blockchain-Plattform The Sandbox – 2021 vom Unternehmen Animoca Brands ins Leben gerufen – setzt auf SAND, das ebenfalls auf Ethereum aufbaut. Als auf Ethereum basierende Token unterstützen sie den sogenannten ERC20-Standard und sind damit „interoperabel“ – sie können also mit allen anderen ERC20-Token getauscht und auf allen Plattformen gehandelt werden, die denselben Standard unterstützen. Von den rund 20.000 Kryptowährungsprojekten, die weltweit existieren, sind das rund 950. Neben Kryptowährungen können auch NFTs selbst ein Zahlungsmittel darstellen, in dem sie mit anderen getauscht werden.

Peer-to-Peer-Natur reduziert Transaktionskosten

Zahlungen in Form dieser Assets mögen gegenüber konventionellen Transaktionen mit einigen Hürden aufwarten – so muss erst über eine Kryptobörse von Fiatwährung in Krypto umgetauscht werden, bevor eine Zahlung getätigt werden kann. Die Kryptoassets selbst unterliegen oft größeren Kursschwankungen, was dazu veranlassen kann, beim Umtausch auf einen „günstigen Moment“ zu warten. Zugleich bieten sie jedoch Vorteile: Zum einen sind Krypto-Zahlungen global und über Ländergrenzen hinweg in Echtzeit durchführbar und aufgrund der Peer-to-Peer-Natur der Blockchain werden keine Transaktionsgebühren von Banken erhoben, wenngleich Gebühren in Form der sogenannten „gas fees“ anfallen. Darüber hinaus zeichnen sie sich durch ihre hohe Sicherheit und Anonymität aus, die durch die hohe kryptografische Absicherung, dezentrale Struktur und der Verifizierbarkeit auf der öffentlich einsehbaren Blockchain, die Transaktionen aber keine zugehörigen Namen speichert, zustande kommt.

Mit seinen virtuellen, oft spielerisch anmutenden Welten mag das Metaverse-Konzept in der öffentlichen Wahrnehmung unterschiedlich aufgenommen werden. Die in den verschiedenen Metaverse-Projekten stattfindenden Transaktionen für virtuelle Grundstücke, Tickets für virtuelle Events oder virtuelle Kunst sind Grundpfeiler einer im Entstehen befindlichen Wirtschaft, in der profitorientierte Händler und technikbegeisterte „Early Adopter“ erste Schritte hin zu einer auf Teilnahme und Mitgestaltung basierenden Wirtschaft mit dezentraler Transaktionsstruktur wagen. Hierbei entstehen hunderte Metaverse-Projekte mit tausenden von Kryptowährungen, von denen sich nicht alle etablieren werden. Klar ist jedoch eines: Die technologische Infrastruktur und Innovationen, die rund um das Konzept entstehen, könnten Vorbote für die Anwendung von sicheren, transparenten und dezentralen Transaktionslösungen im „realen“ Leben darstellen.

* Ethereum selbst stellt das weltweit zweitgrößte Kryptoasset dar.


Bildquelle / Lizenz Aufmacher:

Photo by Pierre Châtel-Innocenti on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Cloud-Sicherheit 2022

Wie Seth Youssef, Security Field CTO bei Snowflake beschreibt, ist die Zeit von On-premise-Lösungen auch aus dem Gesichtspunkt der Datensicherheit vorbei. Hier sind Cloud-Lösungen eindeutig im Vorteil.

On-Premise-Technologien bildeten traditionell die Grundlage für die Sicherheit aller Unternehmensdaten. Doch die Geschäftswelt hat sich innerhalb der letzten Jahre in einem Tempo weiterentwickelt, das ohne die Pandemie kaum vorstellbar gewesen wäre. Plötzlich haben deutsche Unternehmen einen Punkt erreicht, an dem sie im Normalfall wahrscheinlich erst in zehn oder sogar fünfzehn Jahren angekommen wären. Vor allem die Tatsache, dass immer mehr Mitarbeiter:innen dauerhaft außerhalb des Büros tätig sind, hat die Anforderungen an die Datensicherheit gewandelt und gleichzeitig enorm erhöht. Technologien, die bisher zum Einsatz kamen, können dem nicht gerecht werden. Sie halten Daten nach wie vor in Silos gefangen und auch die Transparenz der IT-Ressourcen ist nicht ausreichend.

Aus der neuen Normalität sind Cloud-Technologien deshalb nicht mehr wegzudenken. Sie sind der zentrale Baustein, der eine sichere Erschließung von Unternehmensdaten ermöglicht und sich deshalb auch immer weiter durchsetzt. Expert:innen gehen davon aus, dass die weltweiten Ausgaben für Cloud-Dienste bereits in diesem Jahr, also 2022, auf mehr als 482 Milliarden US-Dollar ansteigen werden. Im ersten Corona-Jahr 2020 lagen die Investitionen noch bei 313 Milliarden US-Dollar – ein Plus von fast 54 Prozent.

Die Datensicherheit muss sich den neuen Anforderungen anpassen

Der Erfolg neuer Cloud-Technologien geht auch mit dem enormen Anstieg des generierten Datenvolumens einher. Schon heute erzeugt jeder Mensch im Durchschnitt ein Gigabyte pro Tag. Davon ausgehend, dass diese Menge sich alle zwei bis drei Jahre verdoppelt, ist leicht abzusehen, dass die Speicher der Unternehmen innerhalb kürzester Zeit aus allen Nähten platzen könnten. Den nie abreißenden Datenstrom zu verwalten und für alle Mitarbeiter:innen auf sichere Weise zugänglich zu machen, ist eine große Herausforderung. Genauso wie Unternehmen ihre alten Technologien ausmustern, die den Anforderungen der neuen Normalität einfach nicht gewachsen sind, ist es deshalb für sie an der Zeit, auch ihr Sicherheitskonzept zu überdenken.

Wichtig ist, zu verstehen, dass es nicht die eine Lösung gibt, die alle bestehenden Probleme wie auf magische Weise in Luft auflösen wird. Unternehmen, die einen realistischen und nachhaltigen Weg suchen, um sich an die aktuellen Entwicklungen anzupassen, sollten einen „Defense-in-Depth„-Ansatz für ihre Sicherheit verfolgen. In dessen Mittelpunkt steht bestenfalls eine effektive Data-Cloud-Plattform, auf der sie ihre Sicherheitsprodukte unmittelbar aufbauen können. Doch Achtung: Wenn ein Unternehmen in die Cloud migriert, muss es unbedingt darauf achten, die alten Silos nicht mitzunehmen. Sollte dies der Fall sein, bleiben die alten Probleme bestehen – nur eben in der Cloud. Aber nur dann, wenn sie ihre alten Strukturen bis aufs Mark aufbrechen, verschaffen sie sich tatsächlich den Vorteil unbegrenzter Skalierbarkeit und Rechenleistung für die Datenanalyse und -verarbeitung. Das Ergebnis ist mehr Sicherheit und Transparenz – zwei Grundpfeiler, auf die es bei einer modernen IT-Infrastruktur ankommt.


Im Sicherheitskonzept aller Unternehmen, die sich neu aufstellen wollen, um den geänderten Bedingungen selbstbewusst zu begegnen, sollte dem oder der CSO eine Schlüsselposition zukommen.

– Seth Youssef

Wer die Kontrolle über seine Daten verliert, bleibt auf der Strecke

Der Sicherheitsbereich der Unternehmen hat sich nicht nur über ihre Bürowände auf die Wohnungen der Mitarbeiter:innen ausgeweitet, ganz zu schweigen von der Einführung der Cloud, die von überall aus zugänglich ist. Doch wie lässt sich sicherstellen, dass die hierdurch einfließenden Daten auf sichere und kontrollierte Weise verarbeitet werden? Bei der Sicherheit von Daten geht es vor allem um deren Sichtbarkeit – denn was man nicht sieht, kann man auch nicht schützen. Die Sichtbarkeit und damit auch die Sicherheit aller Unternehmensdaten ständig aufrechtzuerhalten und die potenziellen Bedrohungen manuell zu überprüfen ist allerdings sehr aufwändig – zum einen hinsichtlich der Skalierbarkeit der aktuellen SIEM-Technologien und zum anderen mit Blick auf den Mangel an Personal mit dem nötigen Fachwissen.

Das ist aus zwei Hauptgründen ein Problem: Einerseits klafft auf dem Arbeitsmarkt ein großes Loch zwischen Angebot und Nachfrage. Laut Cybersecurity Ventures sind im Security-Sektor derzeit rund 3,5 Millionen Stellen ausgeschrieben. Expert:innen mit den passenden Fähigkeiten zu finden und zu halten, ist für Unternehmen ein enorm teures Unterfangen. Andererseits ist die derzeitige SIEM-Branche nicht in der Lage, die große Menge an Sicherheitsereignissen zu bewältigen, die durch die steigende Anzahl von Endgeräten und Cloud-Adaptionsprotokollen erzeugt werden.

Die Automatisierung und Orchestrierung von Sicherheitsprozessen kann eine Lösung für die bestehenden Diskrepanzen darstellen. Machine Learning und Künstliche Intelligenz unterstützen die Teams bei ihrer Arbeit, denn sie sind in der Lage, potenzielle Bedrohungen zu erkennen und vollautomatisch Alarm zu geben. Dadurch lassen sich menschliche Fehler minimieren, die bei einer manuellen Prüfung nie auszuschließen sind. Anstatt sich auf das Grundrauschen eingehender Bedrohungen zu konzentrieren, haben Unternehmen dadurch nicht nur die Chance, die Arbeit ihrer Sicherheitsteams zu skalieren, weil diesen mehr Zeit bleibt, sich auf konkrete Warnungen und deren Behebungen zu konzentrieren, bevor sich diese tatsächlich als geschäftskritisch herausstellen. Sie haben außerdem mehr Zeit, um ihre Techniken stetig weiterzuentwickeln, um so mit den Maschen der Betrüger:innen immer einen Schritt voraus zu sein.

Die Rolle des CSO: Langsamer Aufstieg unverzichtbarer Expert:innen

Im Sicherheitskonzept aller Unternehmen, die sich neu aufstellen wollen, um den geänderten Bedingungen selbstbewusst zu begegnen, sollte dem oder der CSO eine Schlüsselposition zukommen. Bisher war die Besetzung dieser Rolle oft ein reiner Kostenfaktor. Im Unternehmen waren die CSOs vor allem damit beschäftigt, eine moderne Ordnung in alte Strukturen zu bringen – ohne dass ihre Arbeit sich in einem bemerkbaren Geschäftserfolg widerspiegelte. Doch das wird sich bereits in naher Zukunft ändern. Nachdem die Grundsteine für eine moderne Datensicherheit gelegt sind, trägt der oder die CSO dazu bei, die Sicherheitsverletzungen stets auf einem geringen Niveau zu halten. Das stärkt einerseits den Ruf eines Unternehmens und dadurch auch das Vertrauen auf Seite der Kund:innen und Investor:innen, was sich deutlich in Umsatz und Wachstum abzeichnen wird.


Über den Autor

Seth Youssef lebt in Paris und hat über 20 Jahre Erfahrung im Bereich IT-Sicherheit. Er ist Security Field CTO für EMEA, wo er sich auf die Sicherheit, den Security Data Lake und die Data Governance-Funktionen der Snowflake Data Cloud konzentriert. Zuvor war er als Cybersecurity- und Netzwerkexperte bei Cisco, Fortinet und Cyberprood tätig, wo er sowohl den öffentlichen Sektor als auch große Kunden abdeckte und Security Operation Center in ganz EMEA aufbaute.


Bildquelle / Lizenz Aufmacher:

Photo by Sigmund on Unsplash

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

New Web, Same Humans?!

David Mattin über Status, Werte und Kollaboration als Grundbedürfnisse im Web3


„If we want to understand the impact of Web3 on our collective and individual lives, we must see emerging technologies through the lens of fundamental human needs“

David Mattin, Autor des Newsletters “New World Same Humans”

Wer den Einfluss des Web3 auf unser Leben verstehen möchte, der muss neue Technologien aus Sicht der menschlichen Grundbedürfnisse betrachten – mit dieser These startete David Mattin in die erste Session der asynchronen Konferenz „Beautiful Business in Web3.

Damit hatte der Gründer und Autor des bekannten Newsletters New World, Same Humans direkt die Aufmerksamkeit aller Teilnehmenden gewonnen. Denn was hat die Maslowsche Bedürfnispyramide mit dem Metaverse zu tun?

Auch wenn es auf den ersten Blick nicht offensichtlich ist: Das Web3 macht sich die Wahrheiten über die menschliche Natur zunutze und eröffnet neue Wege, um unsere grundlegenden Bedürfnisse wie Kollaboration, Werte und Status zu stillen. Auf diese Weise entstehen neue Trends und Verhaltensweisen.

Kollaborationen: Menschliche Grundbedürfnisse im Web3

Als Menschen besitzen wir eine einzigartige Fähigkeit, wie David Mattin erläutert. Wir arbeiten gerne in Gruppen, und wir sind in der Lage, unsere Strategien und Verhaltensweisen entsprechend anzupassen. In der Vergangenheit hat dies zu stark hierarchisch geprägten Strukturen geführt. Traditionelle Unternehmen funktionieren deshalb beispielsweise stark zentralisiert. Der Deal war hier bislang: Wir opfern einen Teil unserer persönlichen Autonomie und erhalten im Gegenzug mehr Sicherheit, Komfort und Wohlstand.

Das Web3 hebelt diese bestehenden Strukturen mit seinem Motto „Power to the People“ auf. Das Ziel: den Einfluss mit Hilfe der Blockhain radikal zu dezentralisieren und dadurch das Internet, die Gesellschaft und den Demokratiegedanken zu transformieren.

Demokratische Führung durch dezentrale Organisationen

Einige Unternehmen machen dies in der realen Welt bereits vor. Sogenannte DAOs (dezentrale, autonome Organisationen) setzen auf die Weisheit eines Kollektivs. Damit sind sie aktuell noch sehr experimentell unterwegs.

Doch lässt sich Führung durch DAOs wirklich demokratisieren? Sind sie wirklich in der Lage, die Art und Weise zu revolutionieren, wie Unternehmen Führung definieren und leben?

Werte: Bitcoin anstatt Euro, Dollar und Franken

Werte, beziehungsweise Wertemittel tauschen wir seit Anbeginn des menschlichen Daseins aus. Heutzutage ist Geld als Zahlungsmittel der prominenteste Vertreter. Im Web3 besteht mit Bitcoin – obwohl die bekannteste Innovation des Web3 – aktuell lediglich ein digitales Äquivalent zum Geld, keine wirkliche Innovation.

Kann Blockchain neue Wege schaffen, wie wir Werte kreieren, aufbewahren und austauschen? Und welche Dinge lassen sich noch mithilfe der Blockchain bauen?

Status: NFTs statt physischer Statussymbole

Statussymbole sind ein weiteres, menschliches Grundbedürfnis, stehen sie doch für ein hohes Ansehen innerhalb der Gesellschaft. Im Web3 werden klassische Statussymbole wie schnelle Autos, edle Kleidung oder teurer Schmuck durch virtuelle Pendants ersetzt. Allen voran aktuell NFTs.

Welche virtuellen Statussymbole werden im Web3, im Metaverse noch geschaffen werden?


Was ist, wenn sich das Versprechen des Web3 – „Power to the People“ – zur dunklen Seite hinwendet und in einer noch stärker geteilten, noch ungerechteren Welt resultiert?

David Mattin

Die schwierige Frage nach Macht und Einfluss im Web3

Wie können wir sicherstellen, dass das Web3 und die damit verbundenen Technologien zum Nutzen aller und nicht zu deren Schaden eingesetzt werden? Diese wichtige Frage stellt David in seinem Talk und verweist auf die die Handvoll Konzerne, die aktuell das Web3 und das Metaverse vorantreiben. Allein die jüngste Kryptokrise hat gezeigt, wie instabil und unbeständig diese Welt noch ist.

Wie aber können wir potenzielle Machtkonflikte zwischen den verschiedenen Parteien vermeiden? Also jenen Menschen, die eine dezentralisierte Zukunft anstreben, und der veränderungsscheuen Menge, die glücklich mit dem aktuellen Status quo ist?

Und was wäre, wenn das Web3 eine neue kulturelle und finanzielle Oberschicht hervorbringt, anstatt uns von diesen Machtstrukturen zu befreien? Und die im Grunde aus der alten besteht?

Zu guter Letzt: Was ist, wenn sich das Versprechen des Web3 – „Power to the People“ – zur dunklen Seite hinwendet und in einer noch stärker geteilten, noch ungerechteren Welt resultiert?

Auch die ersten Internet-Pioniere haben von der Dezentralisierung geträumt. Wie können wir sicherstellen, dass sich die Geschichte des Web 1., des Web 2.0 nicht auch im Web 3.0 wiederholt?

Die Zukunft sind wir

Wir stehen beim Thema Web3 noch ganz am Anfang. Viele Fragen sind offen, vieles muss diskutiert werden. Das macht David in seinem Vortrag klar.

Doch er verdeutlicht auch, was der Schlüssel zum Erfolg ist: Wir müssen Technologien durch die Augen unseres menschlichen Wesens betrachten. Wir müssen Menschen und ihre Lebensumstände einbeziehen. Schließlich liegt es an uns: Wir sind für die Zukunft verantwortlich, in der wir leben wollen. Dazu gehört auch das Gleichgewicht zwischen Regulierung, Kontrolle, Innovation und demokratisierter Technologie.

Wir sind dafür verantwortlich, jene Zukunft zu gestalten, in der wir leben wollen – einschließlich des Gleichgewichts zwischen Regulierung, Kontrolle, Innovation und demokratisierter Technologie.

Mehr Informationen zur asynchronen Konferenz zum Thema Web3 und Metaverse gibt es unter dem folgenden Link. Alle Vorträge von David Mattin gibt es außerdem zum Nachhören:


Lesen Sie dazu auch: