Der Begriff der Freiheit im Kontext der Digitalisierung

Theoretische Überlegungen und praktische Hinweise

von Thomas Beschorner und Roberta Fischli

Die dystopische Episode „Nosedive“ der Fernsehserie „Black Mirror“ zeichnet ein Bild der Zukunft der Gesellschaft, die vollständig metrisiert ist: Menschen bewerten ihr Verhalten gegenseitig nach einem Punktesystem. ‚Gutes‘ Verhalten bedeutet Pluspunkte, ‚schlechtes‘ Verhalten wird mit Minuspunkten bestraft. Flankiert wird diese gegenseitige Kontrolle über allerlei staatliche Überwachungssysteme. Über Gesichtserkennungstechnologien beispielsweise wird jeder Schritt der Menschen verfolgt.

Von Panoptikum zum Synoptikum

Die Episode war schon bei ihrer Erstausstrahlung im Jahr 2016 eine Anspielung auf und Kritik an dem sich anzeichnenden Social Credit System in China. Aber so weit müssen wir gar nicht schauen – auch in der westlichen Welt kennen wir bereits heute ähnliche Entwicklungen.

‚Lacie Pound‘, die Hauptprotagonistin der Folge, stürzt in dieser Punktegesellschaft ab. Ihr Verhalten führt zu einem sinkenden ‚Score‘, sie gerät in eine Abwärtsspirale. Am Ende landet sie im Gefängnis. Es ist der einzige Ort, an dem man in dieser Gesellschaft frei sein kann.

Die Metapher des Gefängnisses ist in der Diskussion zur Digitalisierung wichtig und dient nicht selten als Sinnbild für den neuen Überwachungskapitalismus, der uns Freiheit nimmt, uns auf eigentümlich Art und Weise einsperrt. In Jeremy Benthams Skizze eines Gefängnisses als ‚Panoptikum‘ beobachten wenige (Wärter) viele (Gefangene). In Zeiten der Digitalisierung hat sich dies verlagert, so der norwegische Kriminologe Thomas Mathiesen (1997). Er spricht von einem ‚Synoptikum‘, in dem jeder und jede jeden beobachtet und damit sozial kontrolliert. Ob diese Beobachtung tatsächlich stattfindet oder nicht, ist für die Wirkung irrelevant. Wie Verhaltensökonomen gezeigt haben, dürfte bereits das Wissen möglicher sozialer ‚Maßregelungen‘ (welch ein schönes deutsches Wort) eine ‚abschreckende Wirkung‘ auf das Handeln haben.

So wichtig die wissenschaftlichen Arbeiten und politischen Diskussionen zu Fragen der Überwachungsgesellschaft sind – es gibt noch andere, ebenso wichtige Fragen, die wir uns dringend stellen sollten.

Zum Inhalt
Von Panoptikum zum Synoptikum
Freiheit als Abwesenheit von Zwang
Freiheit als soziales Prinzip und Problemfelder im Kontext der Digitalisierung
Algorithmische Verzerrung
Diskriminierung durch Algorithmen
Notwendigkeit von Digitalkompetenz
Gesellschaftspolitische Optionen für eine positive Freiheit
Selbstbindung
Politische Regulierung
Zivilgesellschaftliche Aktivitäten

Freiheit als Abwesenheit von Zwang

Kontrolle und Überwachung sind Begriffe, die mit einem spezifischen Freiheitsverständnis verbunden sind: der Freiheit ‚von etwas‘ – von Kontrolle, Sanktionen, Zwängen. Der Philosoph Isaiah Berlin (1969) nennt dies ‚negative‘ Freiheit. Dieses Freiheitsverständnis ist eng mit den liberalen Werten unserer westlichen Gesellschaften verbunden. Diese Idee einer Befreiung von Zwängen schwingt auch mit, wenn wir die Möglichkeiten und Gefahren der Digitalisierung diskutieren. Entsprechend sind die wichtigsten Parameter für Freiheit oft jene, die dem liberalen – und negativen – Freiheitsverständnis entsprechen: Autonomie, Unabhängigkeit, Wahlmöglichkeiten. Doch obwohl dieser Fokus uns wertvolle Einsichten beschert hat – die Gefahr der zunehmenden Überwachung für die Meinungsfreiheit und die Demokratie, beispielsweise –, riskieren wir dadurch auch, andere, ebenso wichtige Erkenntnisse zu verpassen.

Wie jeder andere „im Wesentlichen umstrittene Begriff“ (Gallie1956) wurde auch „Freiheit“ aus verschiedenen Perspektiven betrachtet, definiert und interpretiert. Zwei davon sind erwähnenswert: ‚positive‘ und ‚soziale‘ Ansätze zur Freiheit. Der erste Ansatz befasst sich mit der gesellschaftlichen Teilhabe und dem Streben nach der eigenen Version des ‚Guten‘.

Im Kontext der Digitalisierung werden wir eingeladen, über die Werte und Ziele nachzudenken, die wir durch die Digitalisierung verkörpert, gefördert, und vielleicht sogar verwirklicht sehen möchten. Die Fragen, die wir uns stellen sollen, lauten also nicht nur: Wie können wir eine Überwachungsgesellschaft verhindern? Sondern auch: Was möchten wir an ihrer Stelle sehen? Welche gesellschaftlichen und politischen Ideale soll sie fördern – und wer darf das bestimmen?


„Im Kontext der Digitalisierung werden wir eingeladen, über die Werte und Ziele nachzudenken, die wir durch die Digitalisierung verkörpert, gefördert, und vielleicht sogar verwirklicht sehen möchten.“


Freiheit als soziales Prinzip und Problemfelder im Kontext der Digitalisierung

Auch das zweite Verständnis von Freiheit, das vom Frankfurter Sozialphilosophen Axel Honneth (2011) in die Diskussion gebracht wurde, ist relevant im digitalen Kontext: soziale Freiheit. Honneth argumentiert, dass wir nicht als asoziales ‚Ich‘ (‚I‘) in ‚Einzelhaft‘ leben, sondern als soziales ‚me‘ permanent mit anderen Menschen interagieren – in der Familie, in der Arbeitswelt, als Konsumenten, als Bürgerinnen. Die anderen Menschen, das Soziale machen uns aus. Unsere Mitmenschen konstituieren, wer wir als Person sind. Hegel (1821) nennt dies: ‘Bei-sich-selbst-Sein im Anderen’. Freiheit realisiert sich nicht nur durch sie, sondern in ihnen, wie umgedreht unser Handeln andere bestimmt. Es gibt ein „Wir im Ich“ und ein „Ich im Wir“ (Honneth 2010).

Die angedeutete Trias negativer, positiver und sozialer Freiheit sollte uns zu einem Gefängnisausbruch auffordern, ein Ausbruch aus einem allzu verengten Denken von Freiheit als die Abwesenheit von Zwang. Für die Diskussion im Kontext der Digitalisierung erscheinen uns dafür drei Problemfelder wesentlich:

Algorithmische Verzerrung

Erstens, die einschlägige Forschung zeigt deutlich, dass Software-Entwicklungen weiterhin überwiegend von einer spezifischen gesellschaftlichen Gruppe realisiert werden: weiße, gut ausgebildete Männer. Dies führt (gewollt oder ungewollt) dazu, dass algorithmische Systeme „Biases“ aufweisen, die eben genau jenes gesellschaftliche Milieu favorisieren und andere „bestrafen“. In der Codierung, dem Schreiben und Programmieren von Software, wird das „Wir“ definiert und werden „relevante“ Merkmale festgelegt.

Umgekehrt ist die starke Homogenität in den Entwicklungsabteilungen von Software-Unternehmen eine Quelle für systematische – und nicht nur zufällige – Benachteiligungen oder gar Unterdrückung anderer gesellschaftlicher Gruppen, die mitunter schlicht nicht gesehen werden.

Diskriminierung durch Algorithmen

Dies spiegelt sich, zweitens, in Diskriminierungen durch Algorithmen wider. Es war das Versprechen des Internets, Räume zu öffnen, ja eine räumliche Distanz ein Stück weit in den Hintergrund treten zu lassen. Und in der Tat können wir uns heute ja mit Menschen in virtuellen Räumen verbinden, Geschäfts- oder freundschaftliche Beziehungen pflegen, die vor 30 Jahren noch undenkbar waren. Dadurch haben sich die Möglichkeiten eines ‚Wir‘ erweitert.

Zugleich deuten die Entwicklungen der vergangenen Jahre auf etwas hin, das einem ‚Wir‘ eher abträglich denn zuträglich ist. Wir bewegen uns in sozialen Medien in ‚Bubbles‘ und Echokammern mit unseres Gleichen, konstituieren in diesen neuen Territorien nicht selten ein ‚Wir‘ versus ‚Ihr‘ – oder gar ein noch stärkeres Gegenüber als ‚Sie‘. Diskursfronten verhärten sich. Diese Entwicklungen nehmen uns vor dem Hintergrund von Honneths Parametern unsere soziale Freiheit, die uns als Person ausmacht – oder ausmachen sollte.

Notwendigkeit von Digitalkompetenz

Ebenso wenig wie eine Demokratie ohne aufgeklärte Bürgerinnen und Bürger funktioniert, wird, drittens, eine digitale Zukunft nicht ohne Digitalkompetenz und Medienverantwortung des oder der Einzelnen gelingen können. Digitalkompetenz meint dabei nicht notwendigerweise eine Kenntnis von Programmiersprachen, sondern wesentlicher: ein Wissen um das eigene Handeln (und dessen Auswirkungen) auf digitalen Territorien. Damit geht unter anderem auch eine Verantwortung der User einher, sich nicht hinter ‚Unklar-Namen‘ zu verstecken oder Medien-Beiträge nur auf der Grundlage einer Überschrift zu kommentieren, um nur zwei Beispiele zu nennen, sondern sich eine substanzielle, aufgeklärte Meinung zu bilden. Das wäre ein wichtiger Schritt zur positiven Freiheit der und des Einzelnen in einer liberalen Gesellschaft.


Die Autoren

Roberta Fischli
ist Lehr- und Forschungsassistentin an der School of Economics and Political Science (SEPS) der Universität St. Gallen. Zurzeit forscht sie als visiting researcher an der Georgetown University und der University of California Berkeley.
E-Mail: roberta.fischli@unisg.ch
Web: www.globalnorms.unisg.ch

Prof. Dr. Thomas Beschorner
ist Professor für Wirtschaftsethik und Direktor des Instituts für Wirtschaftsethik der Universität St. Gallen.
E-Mail: thomas.beschorner@unisg.ch
Web: www.iwe.unisg.ch


Gesellschaftspolitische Optionen für eine positive Freiheit

Wenn wir fragen, wie wir in diesen drei Aspekten gesellschaftspolitisch weiterkommen können, so dürften die folgenden Optionen handlungsleitend sein: Selbst-Bindungen durch Unternehmen, ‚harte‘ Regulierungen durch politische Institutionen, Stärkungen der Zivilgesellschaft.

Selbstbindung

Hinsichtlich der ersten Option, einer Selbstbindung von Unternehmen, darf man zunehmend skeptisch sein. Seit der Anhörung des Facebook-Gründers Mark Zuckerberg vor dem US-amerikanischen Kongress anlässlich des Verdachts einer politischen Einflussnahme der Präsidentschaftswahlen 2016 schießen zwar ethische Selbstverpflichtungserklärungen in der Branche wie Pilze aus den Böden, ob dies jedoch mehr als ‚Talk‘ ist, kann durchaus gefragt werden. Seele und Schulz gehen eher von einem „Machinewashing“ aus. Zwei Beispiele: Google entließ Ende 2020 die prominente Forscherin Timnit Gebru aus der eigenen Abteilung zur künstlichen Intelligenz und Ethik, die sich anschicke einen kritischen Forschungsartikel zu publizieren. Facebook schränkte 2021 den Zugang des “Ad Observatory” der New York University (NYU) ein, weil dort zu Fragen von Falschinformationen von politischen ‘Ads‘ geforscht wurde.

Schon der Wirtschaftshistoriker Karl Polanyi (1973) war hinsichtlich der Frage, ob der Kapitalismus von innen heraus verändert werden kann, skeptisch; eine Überlegung, die die Sozialpsychologin Shoshanna Zuboff (2019: 326) auf den Überwachungskapitalismus überträgt: “industrial civilization flourished at the expense of nature and now threatens to cost us the Earth, an information civilization shaped by surveillance capitalism will thrive at the expense of human nature and threatens to cost us our humanity.” Sowohl Polanyi als auch Zuboff sind kritisch und meinen “raw capitalism could not be cooked from within” (Zuboff 2019: 326). Vielversprechender als auf eine Verantwortungsübernahme durch Technologieunternehmen zu setzen, erscheinen die anderen beiden Optionen im Sinne von Polanyis Idee von ‚Gegenbewegungen‘.

Politische Regulierung

Die Europäische Union hat in den vergangenen Jahren verschiedene Initiativen zur politischen Regulierung lanciert, allen voran der aus dem April des Jahres resultierenden Vorschlag „Zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz“[2]. Dieser erste Rechtsrahmen für KI in der EU ist zweifelsohne ein wichtiger Meilenstein für die Regulierung datenbezogener Geschäftspraktiken. Diese und ähnliche ‚harte‘ Gesetzesinitiativen sollten jedoch durch mit mehr partizipatorischen Elementen flankiert werden.

Zivilgesellschaftliche Aktivitäten

Insbesondere die Zivilgesellschaft, vor allem in der organisierten Form von Nichtregierungsorganisationen, ist von entscheidender Bedeutung für eine echte Neugestaltung im Bereich der KI. NGOs können zum einen die Funktion kritischen Begleiter oder Gegenspieler gegenüber ökonomisch-geleitete Interessen in diesem Entwicklungsprozess erfüllen und dabei sowohl ihre Sachkenntnis als auch gesellschaftliche Perspektiven einbringen. Die Stärkung ihrer Stimme, aber auch die Ausstattung mit ausreichenden finanziellen Mitteln wäre dafür wesentlich.

Wichtig dürfte die Rolle zivilgesellschaftlicher Akteure jedoch noch aus einem weiteren Grund sein: Seitens der Unternehmen, aber auch seitens der Politik hat sich in den vergangenen Jahren die Formel ‚humans in the loop‘ eingebürgert, mit der ausgedrückt werden soll, dass der Mensch bei den Entwicklungen der Digitalisierung stets berücksichtigt, ja im Mittelpunkt stehen soll. Diese Metapher jedoch verengt trotz eines gewissen Charmes den Denk- und Diskursraum, denn sie verortet den Menschen a priori in einer (Programmier-)Schleife. Sie drückt begrifflich aus, was wir in der praktischen Diskussion gut beobachten können: Der zunehmende Einsatz von KI scheint unaufhaltsam, die Zukunft ‚vorprogrammiert‘ – und zwar in allen Lebensbereichen.

Was damit in den Hintergrund rückt, ist die grundsätzlichere Frage, in welchen Bereichen unserer Gesellschaft wir den Einsatz von KI aus prinzipiellen Gründen ausschließen wollen, weil sie einer wohlverstandenen Idee von Freiheit entgegenstehen, ja womöglich gar unsere demokratisch-liberale Grundordnung gefährden. Wollen wir KI-gestützte Waffensysteme, Überwachungssysteme durch Gesichtserkennungstechnologie, sollen Algorithmen Triage-Entscheidungen in der Notfallmedizin treffen dürfen?

Diese und viele weitere Fragen zu adressieren und darüber einen gesellschaftlichen Verständigungsprozess zu initiieren wäre die Voraussetzung für eine wahrhaft menschenzentrierte Entwicklungsperspektive der Digitalisierung, bei der der Mensch nicht lediglich „in the loop“, sondern „outside the code“ ist.

Literatur

Gallie, Walter Bryce (1956): Essentially Contested Concepts. In: Proceedings of the Aristotelian Society. 56, 1956, S. 167–198.

Hegel, Georg W. F. (1821). Grundlinien der Philosophie des Rechts.

Honneth, Axel (2010). Das Ich im Wir: Studien zur Anerkennungstheorie. Berlin: Suhrkamp Verlag.

Honneth, Axel (2011). Das Recht der Freiheit: Grundriss einer demokratischen Sittlichkeit. Berlin: Suhrkamp Verlag.

Mathiesen, T. (1997). The Viewer Society. Michel Foucault’s “Panopticon” Revisited. Theoretical Criminology, 1(2), 215-234.

Polanyi, K. (1973). Die große Transformation: Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen. Frankfurt am Main: Suhrkamp.

Seele, P., Schultz M. D. (2022) From Greenwashing to Machinewashing: A Model and Future Directions Derived from Reasoning by Analogy, Journal of Business Ethics:01-27

Zuboff, S. (2019). The Age of Surveillance Capitalism. New York: Public Affairs.

[1] Der vorliegende Text basiert auf einem Forschungspapier unter dem Titel „Digital Freedom – A Prison Break“ (derzeit in Begutachtung) sowie einem Beitrag in der Neue Zürcher Zeitung (NZZ) unter der Überschrift „Digitale Freiheit – die Zukunft ist nicht vorprogrammiert“, erschienen 16.11.2021, S. 18.

[2] https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:52021PC0206&from=EN

Dieser Beitrag stammt aus dem Kompendium Digitale Transformation
Kompendium Digitale Transformation von Thomas Beschorner und Roberta Fischli wird unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedinungen 4.0 International lizenziert, sofern nichts anderes angegeben ist.

Transformationskultur

Digitale Transformation – Potenziale für Unternehmen nutzen

Gastbeitrag von Dr. Katja Nagel, Gründerin und Geschäftsführerin der Unternehmensberatung Cetacea in München

Die digitale Transformation ist kein Modewort, sondern unsere neue Realität.

Für die einen ist sie ein Versprechen, für die anderen eine Bedrohung. Und dennoch stellt sie die Welt auf den Kopf. Bei den meisten Arbeitnehmern kommt sie vordergründig an in Form von „New Work“. Für den Erfolg des gesamten Transformationsprojekts ist es dabei von elementarer Bedeutung, dass die Menschen mitziehen.

Seit vielen Jahren kommt Change Management dabei aus der Schmuddelecke der „Weichen Faktoren“ der Betriebswirtschaft nicht raus. Es gibt nicht die eine Lehre, nicht den einen Ansatz, es gibt kaum Messinstrumente, es gibt jede Menge selbsternannter Experten, der Begriff ist als Berufsbezeichnung ein freier Vogel. Was schwer zu greifen ist, übersieht man gerne.

Aber die Dunkelheit geht nicht weg, nur weil man die Augen zumacht. Sie bleibt. Die Menschen, die nicht mitanpacken können, weil sie blockiert sind, besorgt sind, nicht verstehen – sie bleiben. Aber es bleibt eben auch der Bedarf, systematisch und methodisch und zielgerichtet eine Organisation weiterzuentwickeln und Transformationen nicht scheitern zu lassen an den Unfähigkeiten des eigenen Unternehmens. Damit aus der Digitalen Transformation keine Digitalisierungsfalle wird, muss das Unternehmen parallel zu den operativen Einführungsarbeiten den Fokus auf die Menschen im Unternehmen setzen. Sie sollten die Digitalisierung nicht ertragen, sondern mittragen.

Auf der Suche nach der perfekten Lösung? Change of Change Management

Um die Digitale Transformation auch in der Organisation gesamthaft zu verankern, sind Unternehmen auf der Suche nach der perfekten Lösung (die es nicht gibt). Dennoch helfen hier neun Empfehlungen für den Umgang mit der Organisation. Und hier geht es nicht um Basis-Wahrheiten, hier muss es um neue Wege gehen. Wenn die Digitale Transformation Wagnis und Aufbruch in das Neue bedeutet, wie könnte sie dann für Change Management Kontinuität verheißen? Wir kommen aus einer Zeit, in der Change Manager ganz genau wussten (oder glaubten, zu wissen), wie man Organisationen dreht. Wir gehen in eine Zeit, in der auch Change Management sich ein Stück weit neu erfinden muss.

Neun Empfehlungen

Empfehlung 1: Nicht Hofberichterstattung und Wattebäuschchen werfen.

Klar ist: In so einer Transformation läuft nicht alles rund. Was nicht hilft – und doch immer noch so gerne praktiziert wird: Hofberichterstattung. Alles ist wunderbar und wird noch wunderbarer. Das geht auf Kosten der Glaubwürdigkeit. Mehr Mut braucht es in Organisationen im Umgang mit der digitalen Transformation. Auch die Dinge ansprechen, die (noch) nicht funktionieren. Denn am Ende brauchen wir in Organisationen nicht Menschen, die alles immer mit der rosaroten Brille sehen, sondern Menschen, die an den Herausforderungen und Schwierigkeiten wachsen und sie annehmen. Eine stets positive Kommunikation ist Wattebäuschchen werfen und setzt die Belastbarkeit einer Organisation herunter.

Empfehlung 2: Von Anfang an in der vollen Breite der Organisation dabei.

Das Projektteam sollte von Anfang an ergänzt werden um die Aspekte People/Change/Communications. Diese Dimension sollte nicht nur mitgedacht werden, sondern auch begleitend tätig sein. Auf Augenhöhe und mit eigenen Maßnahmen, von Schwierigkeiten bis hin zu Etappenzielen und Erfolgen. Um sicherzustellen, dass man die Organisation nicht verliert vor zu viel Technik, Technologie, Projektmanagement. Von Anfang an versehen mit Zielen, Kennzahlen zur Zielerreichung, Budget und Verantwortlichkeiten, mit einem virtuellen Netzwerk quer über die ganze Organisation des Unternehmens.


Zur Autorin:

Sie ist Top-Managementberaterin und verfügt über mehr als 20 Jahre Erfahrung in Unternehmen und Beratung, unter anderem in den Bereichen Unternehmensentwicklung, Strategie, Marketing und Kommunikation. Sie hat Transformations- und Restrukturierungsprozesse internationaler Konzerne mitgestaltet und war vor ihrer Zeit bei Cetacea unter anderem bei Siemens, T-Systems und O2. Dort hat Katja Nagel zahlreiche Turnaround-, Culture Change- und Restrukturierungsprojekte durchgeführt.


Empfehlung 3: Die Menschen selbst zu Wort kommen lassen.

In der Regel ist unsere Kommunikation voll der Imperative: man soll, muss. Von oben herab. Das ermüdet jede Organisation und auch die motiviertesten Mitarbeiter. Man stumpft ab über die Zeit. Hier braucht es in der Kommunikation selbst einen Quantensprung: Weg von der Belehrung, weg von der Theorie, hin zum Erlebten, hin zu den Betroffenen und Beteiligten selbst. Erste Eindrücke authentisch und unverzerrt teilen, auch erste Sorgen und Vorbehalte. Rückmeldungen an das Projektteam, wo noch nachgebessert werden muss. Klarheit schaffen, dass der Weg das Ziel ist und der perfekte Zustand gar nicht erreicht werden kann.

Empfehlung 4: Tauschgeschäft Sicherheit gegen Emotionen.

Die Transformationskultur in Deutschland ist – da muss man ganz ehrlich sein – extrem minderbemittelt, denn die deutsche Seele liebt Sicherheit, Genauigkeit und Verlässlichkeit. Diese deutsche Mentalität führt zu Verlangsamung jeglicher Digitaler Transformation. Das wahrgenommene Risiko erscheint dadurch nämlich sehr viel größer. Doch jetzt muss es ein Tauschgeschäft geben: Unternehmen können Sicherheit nicht mehr in diesem Ausmaß anbieten, aber sie haben eine andere begehrte Ware: es ist die Emotion, das Zugehörigkeitsgefühl, das gemeinsame Ringen um die neuen Lösungen. Und letztendlich hilft dann auch die Solidarität, das Wir-Gefühl, das Team, um Risiken gefühlt zu reduzieren.


„…hier geht es nicht um Basis-Wahrheiten, hier muss es um neue Wege gehen.“


Empfehlung 5: Top Management ohne Krone auf dem Haupt.

In vielen Organisationen glauben tatsächlich Top Manager immer noch, dass sie alles besser wissen. Kraft ihrer Position und ihrer Macht. Und kaum einer widerspricht ihnen. Wir sind gut beraten, zu glauben, dass wir gut sind – aber das Beste entsteht erst durch das Zusammenspiel mit den anderen Guten um uns rum. Das Top Management muss lernen, mit einer Stimme zu sprechen, interne Zwistigkeiten und Rivalitäten dem größeren Ganzen unterzuordnen und die Digitale Transformation zu bewerben, zu diskutieren, umzusetzen auf allen Ebenen des eigenen Verantwortungsbereiches. Und dabei Tor und Tür öffnen, um auch neu zu verhandeln intern, was gewünscht und gewollt und richtig – und falsch ist. Und schließlich braucht es Vorbilder im Top Management, die für Inspiration sorgen.

Empfehlung 6: Neue Formen des „Enablings“ braucht es.

Viele Menschen hatten schon zahlreiche Trainings in ihrem Berufsleben, die letztendlich spurlos an ihnen vorbeigegangen sind. Spurlos deswegen, weil die betriebliche Realität alle nur Stunden danach wieder eingefangen hatte und man im Hamsterrad des Gewohnten wieder um die eigene Effizienz und damit Wirksamkeit gerungen hat. Hier muss Training, oder „Enabling“, neu gedacht, neu konzipiert werden. Es muss viel mehr in den beruflichen Alltag integriert, kleinteiliger werden, umsetzungsorientierter, praxisnäher, innovativer, dynamischer, kollektiver. Es braucht insbesondere Change Tools, Formate und Hilfsmittel für Führungskräfte und Mitarbeiter, um ihren eigenen Weg in ihren Abteilungen zu gehen.

Empfehlung 7: Mut als zentralen Unternehmenswert etablieren.

Die wichtigste Geisteshaltung, die es für die Digitale Transformation braucht, ist schlicht Mut. Zu vielen Managern und Mitarbeitern fehlt der Mut, das haben wir jahrelang in vielen Organisationen nicht trainiert und nicht sozialisiert als wünschenswert und lohnenswert. Wir müssen die vielzitierte Fehlerkultur uns selbst erarbeiten, experimentieren, Fehler zulassen, Fehler machen, aus Fehlern lernen. Wir müssen die Diskussion rund um Fehler zelebrieren, auch dann loben und belohnen, wenn Fehler gemacht werden. Mut muss gefördert werden als Geisteshaltung, die es zulässt, kalkulierbare Risiken in Kauf zu nehmen, um Neues zu verproben und daran zu wachsen.


„Am Ende heißt das Erfolgsrezept für eine gelungene Digitale Transformation: Transformationskultur. „

Dr. Katja Nagel

Empfehlung 8: Die Vergangenheit war auch cool.

Viele Manager und Kommunikatoren in Transformationen machen den Fehler und erklären am Beispiel bisheriger Prozesse, Strukturen, Verhaltensweisen, was daran nicht (mehr) gut ist. Dabei erklären sie aber nicht deutlich genug, dass das Ablösen des Alten nicht bedeutet, dass es zu seiner Zeit nicht richtig und gut war. Eigentlich keine große Sache, aber mit großen Folgen. Es braucht ganz klare Aussagen, dass das Neue nicht schlechtes Alte ablöst, sondern eine schlüssige Weiterentwicklung ist. Menschen können nicht umgehen mit dem Gefühl, jahrelang etwas falsch gemacht zu haben, wenn sie sich gleichzeitig erfolgreich fühlen. Das führt zur diffusen Ablehnung des Neuen, denn Menschen haben sonst das Gefühl, ihre eigene Vergangenheit abzulehnen.

Empfehlung 9: Konsequenz ist nicht nur in der Erziehung eine Tugend.

Hier geht es um konsequente Sanktionierung von Brandstiftern und Trennung von demonstrativen ewig Gestrigen – allein schon, um ein Zeichen zu setzen und der Organisation zu zeigen, dass das Akzeptieren, Vorantreiben und Umsetzen der Digitalen Transformation im eigenen Arbeitsumfeld nicht nur erbeten wird, sondern auch gewürdigt wird bzw. im gegenteiligen Fall sanktioniert wird. In der Erziehung wird immer wieder Konsequenz angemahnt, nicht zuletzt, um berechenbar zu sein und zu bleiben für die Menschen, die man erziehen will. Wir müssen verstehen, dass eine Digitale Transformation sehr viel zu tun hat mit Erziehung, mit Pädagogik, mit Didaktik.

Was ist das Erfolgsrezept – einfach ausgedrückt?

Am Ende heißt das Erfolgsrezept für eine gelungene Digitale Transformation: Transformationskultur. In Deutschland speziell wird der bisherige wirtschaftliche Erfolg einer ganzen Generation und der Wohlstand einer ganzen Nation zum Fluch für die Gesellschaft, weil sie unser bisheriges Arbeiten zementiert und damit natürlich auch zum Hindernis für Transformationskultur wird. Wir sind saturiert in diesem Land, wir haben eine Verteilungs- und keine Leistungsdiskussion mehr in der Öffentlichkeit. Wir sprechen immer mehr von Teams und handeln doch immer weniger als Team, sondern als Einzelkämpfer. Jeder ist sich selbst der nächste und gleichzeitig schießen die Beiträge in Unternehmen und Öffentlichkeit rund um Integrität in die Höhe. Diese Paradoxien in unserem Denken und Handeln sind Kennzeichen einer Gesellschaft in einem tiefgreifenden Wandel. Wir brauchen neue Ansätze, uns selbst zu hinterfragen, zu reflektieren und neu zu entscheiden.

https://www.cetacea-gmbh.de/

Mehr Resilienz durch die digitale Transformation?

Können Unternehmen mehr Resilienz im Wettbewerb erreichen, in dem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Diese werden wir nachfolgend immer wieder in Form von kurzen Panels darstellen. Hier die ersten Einblicke:

Clemens Hammacher, General Manager DACH bei Piano

Die Kunden besser verstehen

Da die Verbraucher immer mehr Zeit im Internet verbringen, ist die digitale Transformation für viele Branchen von entscheidender Bedeutung für ihr Überleben. Unternehmen, die Dienste mit Online-Transaktionen anbieten (etwa Verlage, Banken, Fluggesellschaften und andere), stehen vor der Herausforderung, jede Benutzerinteraktion zu optimieren. Indem sie die Vorteile der Technologie nutzen, gelingt es engagierten Firmen, sehr schnell ihre Geschäftsergebnisse zu verbessern.

Im Verlagswesen ermöglicht es die digitale Transformation den Unternehmen zum Beispiel, das richtige Gleichgewicht zwischen Werbung und Abonnements zu finden. Das maximiert ihre Gesamteinnahmen und hilft beim Aufbau eines stabilen Geschäftsmodells, das auf mehreren Einnahmequellen basiert. Dann können sich Firmen auch über Wasser halten, wenn eine Einnahmequelle einbricht oder ganz wegfällt, wie wir es bei der Werbung zu Beginn der Pandemie erlebt haben. Unternehmen, die all die einzigartigen Wege erforschen und verstehen, auf denen ihre Kunden und Zielgruppen mit ihnen in Kontakt treten, können dann die richtigen Taktiken anwenden, um das Wachstum zu fördern.


Dr. Frank Schemmel, Practice Lead Privacy & Compliance bei DataGuard

„Daten, Daten, Daten“

Digitale Transformation bedingt eine immer größere Menge an Daten, die gehostet und verwaltet, analysiert, archiviert und wieder gelöscht werden muss. Wenn Daten das Öl des 21. Jahrhunderts sind, dann sind Datenschutz und Information Security der Umweltschutz des 21. Jahrhunderts, die ein nachhaltiges und robustes Agieren digitaler Geschäftsmodelle in Krisenzeiten sowie während technologisch disruptiver Ereignisse erlauben.

Die Digitalisierung verändert die Art und Weise, wie Unternehmen arbeiten und mit den Menschen interagieren. Digitale Transformation bereitet darauf vor. Wer aber auch weiterhin wettbewerbsfähig bleiben möchte, sollte auf eine umfassende PIC-Strategie (Privacy – InfoSec – Compliance) in Bezug auf Daten setzen. Denn ein ethisches und datenschutzkonformes Wirtschaften im digitalen Bereich sorgt nicht nur für mehr Resilienz und Nachhaltigkeit, sondern steigert auch das Vertrauen der Verbraucher. Und Vertrauen ist das zentrale Asset der Digital Economy.


Tim Kimber, Product Marketing Director bei Vonage

Herangehensweisen überdenken

Die Pandemie hat Unternehmen dazu gezwungen, ihre Herangehensweise an die digitale Transformation drastisch zu überdenken. Erfolg bedeutet heute, durch digitale Erlebnisse Kundenerwartungen aus der Ferne schnell zu erfüllen. Durch Investitionen in künstliche Intelligenz (KI) und digitale Transformation können Firmen die Kundenzufriedenheit verbessern und für künftige Herausforderungen gewappnet sein. Omnichannel-Kundenerlebnisse zählen zum Pflichtprogramm. Ihre Kunden erwarten, dass sie Sie über virtuelle Assistenten, direkte Ansprache, SMS, soziale Medien und Messaging-Apps erreichen und dabei zwischen den Kanälen hin und her springen können. Der Schlüssel zum Erfolg liegt darin, diesem Kanalwechsel folgen zu können und dabei nicht den Kontext der Interaktion aus den Augen zu verlieren.

Omnichannel-Kommunikation macht Ihr Unternehmen in vielen Situationen widerstandsfähiger. Wenn zum Beispiel eine hohe Nachfrage nach bestimmten Produkten besteht, sollten Sie in engem Kontakt mit Ihren Kunden stehen, um ihnen mitzuteilen, mit welchen Lieferzeiten sie rechnen müssen. Auf diese Weise können Sie auch dann ein qualitativ hochwertiges Erlebnis bieten, wenn die Anzahl der Kunden steigt.


Theo Strauß, Geschäftsführer und Mitgründer von craftguide

Schlüssel zur Sicherung von Arbeitsplätzen

Erfahrene Fachkräfte gehen in Rente, doch es rückt zu wenig Nachwuchs nach. Dadurch geht über Jahre erprobtes Anwendungswissen verloren. Unser aller Ziel muss es sein, das Erfahrungswissen professioneller Arbeitsabläufe durch Fachkräfte aus Industrie und Handwerk digital zu erfassen, um es für zukünftige Generationen zu sichern und zugänglich zu machen. Produkte im Sanitär-, Heizungs- und Klimabereich werden beispielsweise immer vernetzter, digitaler und komplexer, wie Wärmepumpen. Interaktive Bedienungs- und Wartungsanleitungen für Servicetechniker und Handwerker sowie Grundlagenschulungen für die Aus- und Weiterbildung ermöglichen das eigenständige Erlernen handwerklicher Arbeitstechniken und den fachgerechten Umgang mit den Maschinen. Sie befähigen Menschen dazu, mit den immer schnelllebigeren Produktzyklen mitzuhalten und handwerkliche Herausforderungen zu meistern – immer und überall. Sie wappnen den Servicetechniker auch für weitere Zukunftstechnologien, damit er nicht von den Innovationen überrollt wird. Die Digitalisierung ist der Schlüssel zur Sicherung von Arbeitsprozessen in Zeiten eines sich verschärfenden Fachkräftemangels in allen Branchen


Weitere Statements zum Thema:

Bildquelle / Lizenz Aufmacher: Photo by Timothy Muza on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Das richtige Mindset: Grundlage für Erfolg

Die TREND REPORT-Redaktion sprach mit Management-Beraterin Julia Kloss, Expertin für den Automotive-Sektor, über Möglichkeiten, mithilfe der digitalen Transformation Produktentwicklung und Compliance in Einklang zu bringen.

Frau Kloss, vor welchen Herausforderungen stehen Ihre Kunden?
Meine Kunden stehen aktuell vor zahlreichen Herausforderungen. Wo fange ich da an?
Ich fange mal ganz „global“ an: Wir befinden uns im Zeitalter der Digitalisierung. Viele Unternehmen richten sich neu aus, um für die Zukunft optimal aufgestellt zu sein. Erhöhte Anforderungen der Kunden, gesetzliche Änderungen und steigende Komplexität legen es nahe, Geschäftsprozesse zu optimieren und zu digitalisieren sowie bestimmte Abläufe im Unternehmen zu automatisieren. In diesem Kontext werden oftmals auch die IT-Architektur und das Datenmanagement mitbetrachtet, um sich ganzheitlich optimal aufzustellen.
Das diese Neuausrichtung einen kompletten Wandel der Organisation erfordert, sind alle Fachbereiche zu involvieren und ein Change Programm zur Steuerung zu installieren. Die Zusammenarbeit der Organisationsbereiche erfolgt parallel zum Tagesgeschäft und kostet die Organisation viel Kraft und Investment in externe Dienstleister und Beratungsunternehmen, die inhaltlich / fachlich mitwirken.
Des Weiteren stellen die Probleme in den Lieferketten zusätzlich eine Herausforderung für die Unternehmen dar. Wir sehen es aktuell in der Automobilindustrie, dass die Produktion in den Werken runtergefahren wird, und dass bestellte Kunden-Fahrzeuge erst viele Monate später ausgeliefert werden können.
Die Verknappung der Rohstoffe, der Anstieg der Rohstoff- und Energie-Preise sowie der Ukraine-Krieg wirken sich zudem aus. Die Unternehmen müssen reagieren, müssen umdenken, das geht aber nicht von heute auf morgen. Und gleichzeitig bringt diese Krise auch eine Chance mit. Die Unternehmen sollten die Gunst der Stunde nutzen, um sich Gedanken bzgl. alternativer, nachhaltigerer Energien und Materialien zu machen.
Corona hat die Welt verändert. Diese Krise hat zudem gezeigt, dass sich der digitale Wandel „zwangsweise“ schneller vollziehen lässt. Die Vorteile wurden erkannt, der Umstieg auf neue Arbeitsmodelle wurden bestätigt und öffnen die Türen für „New Work“-Konzepte, die zu einer agileren und effizienteren Arbeitsweise und damit zur Erhöhung der Produktivität beitragen können.
Schauen wir noch mal auf die Automobilindustrie und z.B. auf die Entwicklung von Produkten für das Autonome Fahren: Hier sind in der Industrie die Herausforderungen die Sicherheits-Anforderungen in den Systemen/Komponenten umzusetzen und sicherzustellen, dass die Software in den Systemen z.B. nicht von innen/außen manipuliert werden können. Künstliche Intelligenz in der Software kommt zusätzlich hinzu, um die Sicherheit, den Komfort und die Effizienz zu optimieren. Lücken in den ISO-Standards werden aktuell noch „gestopft“, um die Industrie mit Compliance-Vorgaben hinsichtlich der Produktentwicklung zu unterstützen. Funktionale Sicherheit ist bereits ein ISO-Standard (ISO 26262), der im Rahmen der Produktentwicklung einzuhalten und nachzuweisen ist. Das Gleiche wird für den Cyber Security Standard ab 2023 verbindlich in der Produktentwicklung nachzuweisen sein, damit die Produkte auch freigegeben und zugelassen werden können.

Insbesondere die Lieferkette ist derzeit stark gestört. Welche Maßnahmen empfehlen Sie Ihren Kunden?
Krisen sind immer auch Chancen. Die Unternehmen sollten Alternativ-Lösungen in Betracht ziehen. Die Realisierung geht nicht von heute auf morgen. Es geht um taktisch, strategische Themen, wie sich ein Unternehmen mittel- und vor allem langfristig ausrichten möchten bzw. sollten. Was sich bei einigen Großkonzernen abzeichnet ist, dass sie eigene Produktion für bestimmte Teile planen und realisieren. Hierbei sei beispielsweise die Investition in eine eigene Batterie-Produktion für Elektro-Mobilität seitens des Automobilzulieferers Bosch zu erwähnen.
Teile-Verfügbarkeit, gestiegene Kosten wie auch die Nachfrage nach innovativeren Technologien und Produkten bestimmen den Markt und fordern die Unternehmen zum Umdenken auf. Es stellt sich die Make-or-Buy Frage. Und in dem Beispiel von Bosch ergibt sich die Chance, neue Märkte zu erschließen. Andere Unternehmen trennen sich zum Beispiel von der Elektronik-Sparte.
Es gibt verschiedenste Ansätze, sich als Unternehmen mittel- und langfristig neu auszurichten.

In der Zukunftsentwicklung (Advanced Engineering) wird Dokumentation ein essentieller Teil des Produktentwicklung sein. Nur so kann Compliance direkt bei der Produktentwicklung sicher gestellt werden, stellt Julia Kloss dar. (Quelle: Julia Kloss)

Wie können sich Unternehmen aus dem Automotive-Sektor bestmöglich auf den schwierigen Herbst vorbereiten?
Das ist eine gute Frage. Erst mal haben die Unternehmen Verträge mit ihren Lieferanten und Alternativen können auch nicht kurzfristig aus der Hosentasche gezaubert werden. Wir sehen, dass die Automobilhersteller z.B. die Lieferketten-Probleme auch nicht ad-hoc ändern können. Sie können entscheiden, welche Fahrzeugklassen priorisiert mit Teilen versorgt werden, und das ist wie immer das Premium-Segment.
Die Konsumenten reagieren und verlagern aufgrund der langen Wartezeiten für Neu-Fahrzeuge ihre Kauf-Entscheidungen in die Zukunft. Die geleasten Fahrzeuge werden länger gefahren, oder es wird sich auf dem Gebraucht-Markt umgeschaut. Dass die Nachfrage auf dem Kfz-Gebrauchtmarkt angezogen hat, hat sich bereits abgezeichnet.
Das wird sich ggf. im Umkehrschluss positiv auf das Reparatur-Geschäft der Hersteller-Marken – ein nicht unerheblicher Anteil des Konzern-Umsatzes – auswirken.
Im Herbst wird sich meines Erachtens die Situation nicht ändern. Es ist seitens der Hersteller, Zulieferer und Konsumenten abzuwarten.
Wir können aber auch lesen, dass es den Herstellern Absatz- und Umsatz-technisch nicht wirklich schlecht geht. In anderen Länder-Märkten steigt die Nachfrage, und so gleicht sich das Ungleichgewicht gesamtheitlich wieder etwas aus.

Sie berichten wiederkehrend von Problemen in der Compliance ausgehend von Fehlern und Nachlässigkeiten im Fertigungsprozess. Warum ist da nicht längst mehr passiert? Wird den Mitarbeitern nicht genügend Raum gegeben, um entsprechend zu handeln?
Die Probleme beginnen in der Produktentwicklung, nicht – in der Produktion.
Die Abläufe in der Fertigung sind bis runter auf Arbeitsanweisungen, Checklisten etc. definiert. Wenn es in der Produktion nicht so wäre, würde Chaos ausbrechen. Also gerade in der Produktion muss es saubere Prozesse geben, und diese müssen auch eingehalten werden. In der Produktentwicklung starten viele Projekte nicht basierend auf Standard-Prozessen, deren Einhaltung sichergestellt wird. Viele Mitarbeiter arbeiten sehr häufig in mehreren Produktentwicklungs-Projekten, in denen unterschiedlich gearbeitet wird. Es gibt sehr häufig keine Standards, oder sie werden nicht berücksichtigt. Was ich über 20 Jahre in der Automobilindustrie gesehen habe, lässt sich mit dem Spruch „Chaos, Chaos, Wunder, Auto“ ausdrücken.
Wir wissen, dass Ingenieure und IT’ler insbesondere darauf Wert legen, dass ihrer Kreativität freien Lauf gelassen wird. Dokumentieren „nervt“ einfach nur.
In der Zukunftsentwicklung (Advanced Engineering) geht es „bedingt“ noch so. In vielen Unternehmen wird mittlerweile – gerade in den Software-Entwicklungsbereichen „agil“ gearbeitet. Mit der Methodik wird sich der Produktlösung schrittweise angenähert. Das macht gerade Sinn, wenn die Anforderungen an das Produkt noch nicht eindeutig definiert werden können. Die Teams arbeiten selbst-organisiert, d.h. die Entwickler / Ingenieure haben die Freiheit kreativ zu sein. Jedoch nicht ohne nachweisliches Dokumentieren. Das wird leider oft missverstanden.
Für Produkte, die Software enthalten – zum Beispiel im Chassis-/Fahrerassistenz-Bereich – müssen Sicherheitsanforderungen im Produkt nachweislich umgesetzt und getestet sein. Und da sind wir beim Stichwort „Compliance“. Die Automobil-Hersteller fordern die nachweisliche Einhaltung von ISO Standards wie funktionale Sicherheit (ISO 26262), Automotive SPICE (ISO 15504) und weitere – wenn wir Richtung „Autonomes Fahren“ schauen – bei ihren Zulieferern. Assessments zur Überprüfung der Einhaltung der Compliance-Standards in den Produktentwicklungs-Projekten seitens der Hersteller stehen regelmäßig auf der Agenda. Und das führt natürlich zu Stress bei den Automobil-Zulieferern. Es führt also kein Weg mehr daran vorbei, als sich mit den Compliance-Standards nicht nur im Wortlaut und Kontext vertraut zu machen, sondern die entsprechende Einhaltung im Rahmen der Erstellung der Projekt-Ergebnisse nachweisen zu können. Hierzu bedingt es Standard-Prozesse, die auf den Projekt-Kontext hin angepasst werden können, das einheitliche Verständnis in der Organisation sowie die operative nachweisliche Umsetzung.

Was könnte in diesem Zusammenhang durch ein „digitales Enablement“ der Führungsetage erreicht werden?
Der Wandel in diese Richtung ist in Unternehmen nur schrittweise zu realisieren.
Das richtige Mindset der Führungsetage und eine professionelle Tool-Unterstützung sind Voraussetzungen, um sich für die Zukunft optimal aufzustellen. Die Geschäftsprozess-Abläufe inklusive des Kern-Prozesses „Research & Development“ (Produktentwicklung) sind nicht mehr Papier-basiert zu managen. Die wachsende Komplexität der Prozesse kann im Zuge der gestiegenen Anforderungen (interne/externe Faktoren) nicht mehr beherrscht werden. Das Zauberwort heißt „Digitalisierung“.
Mit dem richtigen Prozessmanagement-Tool können so auch die Compliance-Anforderungen mit den Prozessen „verheiratet“ werden. Was dann nur noch erreicht werden muss, ist die einheitliche Anwendung der Prozesse in Projekten und in der Organisation. Die Grundlage für Erfolg ist eine entsprechende Kultur und der „richtige“ Mindset, der ganz oben bei der Führungsetage ausgeprägt ist und nach unten in die Organisation weitergetragen und gelebt wird.
Leider zu oft gesehen: Erst wenn Unternehmen an ihre Grenzen stoßen, die Komplexität in Produktentwicklungs-Projekten zu beherrschen, wird der Ruf nach digitaler Befähigung „laut“. Um langfristig Erfolge zu erzielen, darf hierbei nicht der organisationale Veränderungsprozess mit dem Ziel der nachhaltigen Etablierung unterschätzt werden.


Bildquelle / Lizenz Aufmacher: Photo by İrfan Simsar on Unsplash

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Let’s Connect zur Angebotskommunikation der Zukunft

Wie wird sich die Angebotskommunikation von morgen verändern?

Sie sind herzlich eingeladen, am 29. September 2022 bei Laudert Connect in Nürnberg, Antworten auf diese Frage zu finden und gemeinsam mit den Experten von Laudert und anderen Kommunikationsverantwortlichen zu diskutieren.

Zusammen mit Strategieberater und Vorausdenker Jens-Peter Kuhle blicken Laudert´s Vordenker auf Ergebnisse des EHI-Szenario-Projekts „Zukunft der Angebotskommunikation“ und erörtern, wie Sie ihre individuellen Schlussfolgerungen für den zukünftigen Marketingmix finden.

Cases und Experten-Tipps für wirksames N=1 Marketing werden konkrete Impulse und Best-Practice-Learnings liefern.

Zur Agenda

Auf Sie warten richtungsweisende Erkenntnisse aus dem EHI-Circle zur Zukunft der Angebotskommunikation, spannende Insights ins N=1-Marketing und viele weitere Impulse für Ihren Marketingmix, die wirken.

  • Die Zukünfte der Angebotskommunikation: Warum (und wie) wir mehrere Szenarien vorausdenken sollten, und wie wir auch noch bessere Entscheidungen damit treffen, erläutert Jens-Peter Kuhle von der SCMI Scenario Management International AG
  • Das Heft in die Hand nehmen – Im Print wieder agieren statt reagieren – dafür plädiert Thorsten Hamann von Laudert
  • Von der Theorie zur Praxis: Wie Conrad Electronic und CO. Umsätze durch Programmatic Printing steigern präsentiert Christof Förtsch von IRS.

Dina Hemsing von Laudert moderiert die Veranstaltung.

KÜCHENPARTY

Gemeinsam gilt es dann, den Nachmittag bei einer lauschigen Küchenparty auf der Dachterrasse der IRS ausklingen zu lassen.

Fakten zur Veranstaltung

Event: Laudert Connect

Ort: Live in Nürnberg

Datum: Montag, 29. September 2022

Uhrzeit: ab 13:00 Uhr

Genießen Sie die Laudert Connect, die wie immer einlädt zum intensiven Austauschen, Netzwerken und persönlichen Gesprächen auf Augenhöhe in Nürnberg.

Aufmacherbild/ Quelle / Lizenz
https://www.laudert.com/

Ransomware: Die Gefahr schlummert im System

Ralf Baumann, Country Manager Germany bei Veritas Technologies, schreibt darüber, wo er die größte Gefahr im Rahmen des Themenkomplexes Ransomware sieht.

Immer häufiger werden Unternehmen zu Ransomware-Opfern. Laut einer aktuellen Studie von Sophos wurden 67 Prozent der befragten Unternehmen in Deutschland angegriffen. 42 Prozent der Geschädigten zahlten sogar das geforderte Lösegeld, um ihre Daten wieder zu entschlüsseln. Prognosen zufolge werden die Attacken weiterhin zunehmen. Die tatsächliche Anzahl der Unternehmen, bei denen eine Sicherheitslücke vorliegt, könnte jedoch viel höher sein, da Ransomware oft monate- oder sogar jahrelang in den Netzwerken schlummert, bevor sie aktiviert wird. Gegenwärtig sollte daher jedes Unternehmen davon ausgehen, dass Hacker bereits in ihre Systeme eingedrungen sind oder sich in naher Zukunft Zugang verschaffen könnten. Versierten Cyberkriminellen gelingt es bereits seit einiger Zeit, Anti-Malware-Systeme zu umgehen – die erste Verteidigungslinie. Die verfolgte Strategie ist dabei ausgeklügelt: Die Angreifer schleusen Malware in die IT-Systeme. Dort schlummert sie zunächst inaktiv und bleibt somit unentdeckt. Dadurch können die Hacker potenzielle Schwächen im System ausspionieren und schlagen in einem günstigen Moment zu. Zudem kann sich der Schadcode im Netzwerk verbreiten und Daten infizieren, von denen sich die Cyberkriminellen ein hohes Lösegeld versprechen. Die Komplexität der Angriffsprozesse unterstreicht, dass Hacker die anvisierten Systeme oftmals kennen und wissen, wann der perfekte Zeitpunkt für einen Angriff gekommen ist.

Generell richten Hacker so viel Schaden wie möglich an, um ihren Erfolg und auch ihre Rendite aus den Angriffen zu maximieren. Denn für Cyberkriminelle ist Ransomware längst zu einem lukrativen Geschäftsmodell geworden. Aber womit können sich Unternehmen vor Ransomware schützen, wenn sie sich unentdeckt in einem System eingenistet hat?

Ganzheitliche Einblicke in die IT-Infrastruktur und die Daten

Cyberkriminelle suchen gezielt nach Schwachstellen in den IT-Systemen – also nach Bereichen, in denen die Sicherheit und Überwachung eingeschränkt ist. Deswegen sollten Unternehmen Tools einsetzen, die einen Einblick in die gesamte Infrastruktur gewähren. So können IT-Teams auch Dark Data aufspüren, die zwar erfasst und gespeichert sind, aber nicht mehr verwendet werden. Bei den üblicherweise großen Datenmengen in Unternehmen sind sich die Verantwortlichen oft nicht mehr bewusst, dass einige dieser Daten überhaupt existieren. Untersuchungen von Veritas Technologies ergaben, dass im Schnitt mehr als die Hälfte (52 Prozent) aller Daten nicht klassifiziert oder per Tag gekennzeichnet ist. Das bedeutet, dass deutsche Unternehmen über keinerlei Transparenz bei großen Mengen potenziell geschäftskritischer Daten verfügen. Und damit stellen sie ein leichtes Angriffsziel für Hacker dar. Außerdem besteht die Gefahr, dass die ungekennzeichneten Daten nicht nur wichtige Geschäftspläne beherbergen, sondern auch Ransomware, die so unentdeckt bleibt.

„Generell richten Hacker so viel Schaden wie möglich an, um ihren Erfolg und auch ihre Rendite aus den Angriffen zu maximieren. Denn für Cyberkriminelle ist Ransomware längst zu einem lukrativen Geschäftsmodell geworden“, erläutert Ralf Baumann die Hintergründe.

Der Überblick über die Daten ermöglicht es Unternehmen, zu erkennen, welche Daten von einem Ransomware-Angriff betroffen sind. Insbesondere bei einem Exfiltrationsangriffs ist dies wichtig, sodass die Firmen wissen, ob Hacker die Blaupausen für das neue Produkt erbeutet haben oder doch das Mittagsmenü der vergangenen Woche.

Neben einem Überblick über die gesamte Infrastruktur ist auch eine klare Dokumentation empfehlenswert, in der IT-Umgebung mit Verfahren und Konfigurationen erklärt werden. Die Übersicht sollte dem Unternehmen in Papierform vorliegen, sodass sie auch bei einem erfolgreichen Angriff verfügbar ist. Dies ist ein entscheidender Faktor, wenn es zur Wiederherstellung von verschlüsselten Daten kommt. Die Dokumentation sollte zudem regelmäßig überprüft und aktualisiert werden.

Alle Daten unabhängig ihrer Quelle schützen

Sobald ein Unternehmen seine Daten aus allen verfügbaren Quellen identifiziert hat, lassen sich diese durch mehrere Layer schützen. Denn haben sich Cyberkriminelle erst einmal Zugang zu einer Umgebung verschafft, suchen sie oft nach vertraulichen Informationen oder Log-in-Daten. Dadurch können sie tiefer in das System eindringen oder Backup-Systeme aushebeln und eine Wiederherstellung verhindern.

Um diese Art von Risiken zu begrenzen, sollten Unternehmen zunächst den Zugriff durch eine Kombination aus Benutzernamen und Passwort beschränken. So lässt sich sicherstellen, dass ein einzelner Administrator keinen Zugriff auf die gesamte Infrastruktur hat. Darüber hinaus sollten auch die Zugangsberechtigungen der Führungskräfte, die oft im Fokus von Hackern stehen, limitiert werden. Es empfiehlt sich auch die Privilegien von Backup-Administratoren kritisch zu bewerten und einzuschränken. Eine bewährte Praxis besteht in einem Zero-Trust-Ansatz für die gesamte IT-Umgebung mit einer Multi-Faktor-Authentifizierung (MFA) und einer rollenbasierte Zugriffskontrolle (RBAC).  

Zudem empfiehlt es sich, das Netzwerk in mehrere Subnetze zu segmentieren, um sicherzustellen, dass der Zugriff auf insbesondere kritische Daten verwaltet und eingeschränkt wird. Es ist hierbei essenziell, die Bewegungsmöglichkeiten von Cyberkriminellen einzuschränken, wenn sie bereits im System sind.

Eine weitere wirksame Methode zum Schutz von geschäftskritischen Daten ist die Implementierung eines unveränderlichen Speichers. Auf diese Weise lässt sich sicherstellen, dass die Daten für einen definierten Zeitraum oder dauerhaft nicht verändert, verschlüsselt und gelöscht werden können. Zudem sollten die IT-Teams einen Air Gap als physische Trennung von Geräten, Systemen und Netzwerken schaffen.

Datenschutz dank autonomer und optimierter Lösungen für die Cloud

Ist eine Schadsoftware erst einmal im System, können Firmen dank künstlicher Intelligenz (KI) und Machine Learning (ML) große Datenmengen analysieren. Auf diese Weise lassen sich zuverlässig Schwachstellen finden, Lücken schließen und die IT-Infrastruktur absichern. Mit einer autonomen Datenverwaltung unterschiedlicher Workloads können Unternehmen außerdem ihre Daten effizient und sicher managen. Durch den Einsatz entsprechender Technologien entsteht eine containerisierte, programmierbare Microservices-Architektur, die autonome und einheitliche Datenmanagement-Dienste in der Cloud bereitstellt. Durch eine Cloud-optimierte Datenverwaltungslösung mit Web-Scale-Technologien und Automatisierung wird eine kostengünstige, effiziente und sichere Datenverwaltung in Multi-Cloud-Umgebungen sichergestellt.

Besonders eignen sich für komplexe IT-Landschaften mit unterschiedlichen Cloud-Umgebungen (sogenannte Multi-Clouds) Lösungen, die auf KI und autonomen Datenmanagement basieren. Mit automatischen Malware-Scans kann ein Unternehmen seine Ransomware-Resilienz zusätzlich erhöhen. Wenn diese Überprüfungen während und vor der Datensicherung einsetzen, ist eine saubere Wiederherstellung von Daten gewährleistet – ohne ebenso den Schadcode wiederherzustellen. Da Malware nicht nur in den Primärkopien der Daten schlummern kann, sondern auch in deren Sicherheitskopien, lässt sich überprüfen, ob diese ebenfalls kompromittiert wurden. So können Unternehmen ausschließen, dass sie den Schadcode in einem Recovery-Fall nicht wieder in ihre Produktionsumgebung einschleusen.

Zudem ist ein System zur Erkennung von Anomalien empfehlenswert. So lassen sich ungewöhnliche Aktivitäten bei den Sicherungsaufträgen überwachen. Ist ein Virus in die Produktionsumgebung eingedrungen und fängt an, große Datenmengen zu verschlüsseln, führt dies dazu, dass alle betroffenen Dateien erneut gesichert werden müssen. Dieses ungewöhnliche Verhalten löst einen Alarm aus, sodass das System ohne menschliches Zutun eingreifen kann.

Diese Technologie führt zu einer granularen Flexibilität, der Content-basiert ist und eine schnelle Recovery ermöglicht. Korrumpierte Backups lassen sich auf diese Weise zeitnah erkennen. Mit einer On-Demand-Überprüfung können IT-Teams die Kontrolle über die Malware-Untersuchen behalten und sich entscheiden, welche Ziele gescannt werden sollen und welche weiterführenden Maßnahmen erforderlich sind.

Tests und Simulationen

Für Unternehmen steht nicht mehr die Frage im Raum, ob sie Opfer eines Angriffs werden, sondern wann. Gegenwärtig ist es wichtig, dass Firmen auf bevorstehende Attacken vorbereitet sind und einen effektiven Recovery-Prozess implementiert haben, der eine schnelle Wiederherstellung gewährleistet. Hierfür sind Tests unerlässlich. Denn durch regelmäßige Simulationen solcher Attacken lassen sich Ausfallzeiten und Störungen begrenzen und die Auswirkungen eines erfolgreichen Angriffs minimieren. Die Tests sollten bei allen Anwendungen durchgeführt werden, die Teil ihrer Produktionsumgebungen sind. Denn wenn Unternehmen von einer Ransomware-Attacke kalt erwischt werden, kostet das nicht nur wertvolle Zeit, sondern bedeutet unter Umständen auch das Aus des Unternehmens.


Bildquelle / Lizenz Aufmacher: Photo by FLY:D on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Compliance-Regulatorik als Handelsbarriere?

Für Unternehmen geht es um ihren Marktzugang

Expertenkommentar von Magnus Piotrowski

Compliance-Vorschriften werden immer häufiger zu einer Barriere im globalen Handel. Für Unternehmen wird der Zugang zu internationalen Märkten angesichts komplexerer und umfangreicherer Vorschriften zunehmend erschwert. Die Hintergründe und welche strategischen Entscheidungen Unternehmen nun treffen können, erklärt Magnus Piotrowski von Assent Inc. (Assent), einem führenden Anbieter im Bereich des Nachhaltigkeitsmanagement in Lieferketten.

Neben unterbrochenen Lieferketten, Inflation oder sinkendem Konsumklima stellt auch die globale Entwicklung der Compliance-Vorschriften Unternehmen immer häufiger vor Herausforderungen. Dieser Teil der aktuell komplexen wirtschaftlichen Gesamtlage erhält häufig noch nicht genug Aufmerksamkeit. Er entwickelt sich aber zu einer relevanten strategischen Frage mit Blick auf den Marktzugang.

Zwar gleichen sich regionale Compliance-Regeln tendenziell an, etwa innerhalb der EU, global dagegen divergieren sie immer stärker. Für den Marktzugang in verschiedenen Ländern und Wirtschaftsräumen gelten immer öfter unterschiedliche Anforderungen. Dies stellt Unternehmen schon früh vor die strategische Frage, in welchem Umfang sie jetzt oder in Zukunft international agieren wollen. Bei einer später beschlossenen Expansion kann es notwendig werden, Prozesse mit hohem Aufwand anzupassen.

Nicht-Compliance: Umsatzrisiko und Hemmschuh

Solche bewusst komplexen Regeln limitieren nicht nur den Marktzugang, sondern erschweren auch Sourcing wie Beschaffung. Sie haben oft das nicht vordergründig ausgesprochene Ziel, Produktion zurück in bestimmte Regionen zu holen oder dort zu halten. Angesichts weltweit asymmetrisch verteilter Rohstoffe und Kompetenzen ist dies in der Praxis aber nur begrenzt darstellbar.

Für Unternehmen bedeutet dieses politische Mittel zusätzliche Hürden und Komplexität. Um ihren Marktzugang zu sichern, benötigen sie den Einblick in immer mehr Compliance-Vorschriften. Das Risiko von Strafen durch Behörden ist dabei nur ein Faktor – oft ist es eher untergeordnet unter potenzielle Image- und finanzielle Schäden im Zuge des Managements von Non-Compliance-Vorfällen oder aufwendigen und kostspieligen Produktrückrufen.

Diese Risiken bei Nicht-Compliance können somit entsprechend in Zahlen ausgedrückt werden. Sie spiegeln den Wert des entsprechenden Knowhows wider, der angesichts wachsender internationaler Anforderungen derzeit ständig steigt. Investitionen in ein Compliance-Setup zahlen sich also unter anderem dadurch zurück, indem sie Risiken minimieren und den Marktzugang sicherstellen beziehungsweise erschließen. In diesem Zusammenhang liefert beispielsweise Assent nicht nur die Übersicht über die vielfältigen Anforderungen der jeweiligen Zielmärkte und hält diese aktuell, sondern hilft Unternehmen außerdem aktiv dabei, die verschiedenen Vorschriften umzusetzen und zu erfüllen.

Dazu garantiert die breite Basis an Daten aus der Lieferkette Nachweisbarkeit und Transparenz, so dass Unternehmen auch in einem Umfeld globaler Compliance-Herausforderungen sicher und agil handeln können.

Erfahren Sie mehr unter http://www.assentcompliance.de

CI und CD: ein Blick hinter die Kulissen

Von Markus Eisele*

Markus Eisele: „Insgesamt führen die miteinander verbundenen CI- und CD-Verfahren zu einer weniger risikoreichen Anwendungsbereitstellung, da Änderungen in kleinen Teilen und nicht auf einmal freigegeben werden.“

Die Akronyme CI und CD stehen für Continuous Integration und Continuous Delivery beziehungsweise Continuous Deployment. Prinzipiell zielen CI- und CD-Verfahren auf die kontinuierliche Automatisierung und Überwachung des gesamten Lifecycles einer Applikation ab, von der Integrations- und Test- bis hin zur Delivery- und Deployment-Phase. Diese zusammenhängenden Prozesse werden oft als „CI/CD-Pipeline“ bezeichnet und von Entwicklungs- und Betriebsteams unterstützt, die auf agile Weise in einem DevOps- oder SRE (Site Reliability Engineering)-Ansatz zusammenarbeiten.

CI betrifft den Automatisierungsprozess für Entwickler und umfasst im Prinzip die regelmäßige Bereitstellung von Codeänderungen. CD bezeichnet sowohl Continuous Delivery als auch Continuous Deployment. Die verwandten Konzepte werden teilweise synonym verwendet. Bei beiden Verfahren geht es um die Automatisierung weiterer Phasen der Pipeline. Werden die Begriffe unterschieden, soll die jeweilige Stufe der Automatisierung verdeutlicht werden. Continuous Delivery bedeutet, dass App-Änderungen eines Entwicklers automatisch auf Bugs getestet und in ein Repository wie GitHub oder eine Container-Registry hochgeladen werden, sodass sie vom Operations-Team in einer Live-Produktivumgebung bereitgestellt werden können. Continuous Deployment schließlich betrifft die automatische Freigabe und Übertragung von Entwickleränderungen vom Repository in die Produktivumgebung. Dieser Vorgang soll der Überlastung von Betriebsteams durch manuelle Prozesse entgegenwirken, die die Anwendungsbereitstellung verlangsamen. Continuous Deployment baut auf den Vorteilen von Continuous Delivery auf, indem es auch noch die nächste Stufe in der Pipeline automatisiert.

Der agile Workflow in einer CI/CD-Pipeline im detaillierten Überblick

In der modernen Anwendungsentwicklung arbeiten mehrere Entwickler an unterschiedlichen Features der gleichen App. Die Zusammenführung aller Quellcode-Branches an einem Tag kann zu einem hohen Arbeits- und Zeitaufwand führen, da die verschiedenen Branches und App-Änderungen isoliert und parallel arbeitender Entwickler miteinander in Konflikt treten können. Problematisch ist in diesem Zusammenhang auch, wenn jeder Entwickler seine eigene – anforderungsspezifisch angepasste – lokale IDE (Integrated Development Environment) nutzt anstatt einer gemeinsamen Cloud-basierten IDE.

Zu bewältigen sind diese Herausforderungen mit dem Continuous-Integration-Verfahren. Damit können Entwickler ihre Codeänderungen in einem gemeinsamen „Branch“ oder „Trunk“ viel häufiger zusammenführen. Sobald die Änderungen konsolidiert sind, werden sie validiert. Dies erfolgt durch die automatische Erstellung der Applikation und die Durchführung von Tests. In der Regel werden dabei Unit- und Integrationstests genutzt, um sicherzustellen, dass Änderungen die Funktionsfähigkeit der Applikation nicht beeinträchtigen. Wenn die automatische Prüfung Konflikte zwischen neuem und bestehendem Code erkennt, lassen sich diese mithilfe von CI schneller und häufiger beheben.

Nach der Automatisierung von Builds sowie Unit- und Integrationstests mittels CI wird im Continuous-Delivery-Prozess der validierte Code in ein Repository hochgeladen. Ein effizientes Continuous-Delivery-Verfahren erfordert, dass CI bereits Bestandteil der Entwicklungs-Pipeline ist. Ziel von Continuous Delivery ist eine Codebasis, die jederzeit für das Deployment genutzt werden kann. Continuous Delivery beinhaltet dabei in jeder Phase – von der Zusammenführung von Codeänderungen bis hin zur Bereitstellung produktionsreifer Builds – die Testautomatisierung und die Automatisierung der Codefreigabe. Am Ende dieses Prozesses ist das Operations-Team in der Lage, eine Anwendung schnell und einfach in der Produktionsumgebung zur Verfügung zu stellen.

Die letzte Stufe einer ausgereiften CI/CD-Pipeline ist das Continuous Deployment. Als Erweiterung der Continuous Delivery, bei der produktionsreife Builds automatisch in ein Code-Repository geladen werden, wird beim Continuous Deployment auch die Übertragung einer App in die Produktivphase automatisiert. Da dieser Phase in der Pipeline kein manuelles Gate vorgeschaltet ist, kommt es beim Continuous Deployment in hohem Maße auf eine sehr gut durchdachte Testautomatisierung an. In der Praxis bedeutet Continuous Deployment, dass App-Änderungen eines Entwicklers binnen weniger Minuten nach ihrer Erstellung live gehen können – vorausgesetzt, sie absolvieren die automatischen Tests erfolgreich.

Insgesamt führen die miteinander verbundenen CI- und CD-Verfahren zu einer weniger risikoreichen Anwendungsbereitstellung, da Änderungen in kleinen Teilen und nicht auf einmal freigegeben werden. Die initialen Investitionen dürfen allerdings nicht unterschätzt werden, gerade hinsichtlich der benötigten automatisierten Tests für die diversen Prüf- und Release-Phasen in der CI- und CD-Pipeline.

Viele Unternehmen arbeiten zunächst mit CI und setzen den Prozess später mit der Automatisierung von Delivery und Deployment fort, zum Beispiel bei der Entwicklung Cloud-nativer Apps. Ihre schnelle Bereitstellung wird durch DevOps-Workflows mit CI- und CD-Verfahren nachhaltig unterstützt.

* Markus Eisele ist Developer Strategist bei Red Hat


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

„Angebote statt Zwang“

Insgesamt läuft Recruiting in Deutschland viel zu langsam. 113 Tage dauert es im Schnitt, eine offene Stelle zu besetzen (laut Bundesagentur für Arbeit). Diese vergleichsweise lange Time-to-Hire sorgt für viele Personalengpässe. Modernes Recruiting und aktives Sourcing stellen HR daher vor Herausforderungen – genauso vor Herausforderungen wie das Halten von Mitarbeiter:innen. Wir sprachen mit Frank Hensgens von Indeed, wie sich das auf seine Plattform auswirkt.

Frank Hensgens: „New Work bedeutet für mich primär Flexibilität, Vertrauen und ein bewusster Umgang mit Ressourcen.“

Herr Hensgens, Unternehmen stehen eine Fülle von Recruiting-Kanälen zur Verfügung – insbesondere online warten interessante Modelle. Wie findet ein Unternehmen den genau passenden?
Es wird Sie nicht überraschen, dass ich das Angebot von Indeed für unterschiedlichste Unternehmen passend finde. Das hängt zum einen damit zusammen, dass auf Indeed mehr Menschen als auf jeder anderen Jobplattform nach einem Job suchen. Eine Stellenanzeige wird entsprechend oft gesehen, auch grenzüberschreitend. Zum anderen fokussieren wir uns nicht nur auf White-Collar-Jobs, sondern bieten auch Stellenangebote aus den klassischen Blue-Collar-Bereichen. Unser Angebot ist divers und entsprechend sind es auch unsere User*innen und potenzielle Bewerber*innen. Zusätzlich haben inzwischen 1,8 Millionen Menschen auf Jobsuche ihren Lebenslauf bei uns hinterlegt. Das macht das Finden von Kandidat*innen für Unternehmen effizienter. Zeit ist heute mehr denn je ein entscheidender Faktor bei der Besetzung von Stellen.
Und wir bringen aktiv Unternehmen und Menschen auf Jobsuche zusammen. Ende Juli haben wir erfolgreich die zweite Auflage unserer Interview Days veranstaltet – digital, bundesweit und speziell für die Flughafenbranche. Hier kommen Arbeitgeber und Arbeitsuchende schnell und unbürokratisch zusammen. In Zeiten von Arbeitskräftemangel benötigen wir Abkürzungen im Bewerbungsprozess, keine Umwege.

 

Können Sie Aussagen treffen, wie sich Ihre Plattform durch die letzten beiden Jahre verändert hat?
Unser Nutzungsvolumen lag im ersten Quartal 2022 bei 25 Millionen Visits auf Indeed und unserem Partner Glassdoor (gemäß Comscore).
Bei den ausgeschriebenen Stellen gibt es einen deutlichen Trend nach oben: Im Juli 2022 haben wir 52 Prozent mehr offene Stellen auf Indeed verzeichnet als im Vergleich zum 1. Februar 2020. Jeden Monat kommen rund eine Million offene Stellen hinzu. 
Sehr positiv finde ich die Entwicklung bei den auf Indeed hinterlegten Lebensläufen: Da liegen wir inzwischen bei fast zwei Millionen. Allein im ersten Quartal 2022 wurden monatlich 110.000 neue Lebensläufe hochgeladen. Eine spürbare Veränderung gibt es bei den Jobs mit Option auf Homeoffice: Hier enthalten inzwischen 12,4 Prozent aller Stellenanzeigen einen Verweis auf Remote bzw. Homeoffice, mehr als dreimal so viel wie vor der Pandemie. Auch bei den Suchen werden Homeoffice und Remote dreimal so häufig abgefragt wie vor der Pandemie und machen aktuell 2,4 Prozent aller Suchen aus. 

 

Was glauben Sie, welche der aktuellen Trends bei New Work werden bleiben und warum?
Die zunehmende Digitalisierung ist eigentlich kein Trend mehr, sondern hat sich im Verlauf der Pandemie zum Standard verfestigt. Das wird bleiben. Untrennbar mit der Digitalisierung ist das ortsunabhängige Arbeiten verbunden. Auch das hat sich während der Pandemie bewährt. Ich weiß, dass es Unternehmen gibt, die das Rad zurückdrehen wollen und die Belegschaft ins Büro zurückbeordern. Aber das wird sich nicht durchsetzen. Dazu bietet inzwischen zu oft die Konkurrenz im Kampf um Talente Homeoffice oder hybride Arbeitsmodelle an. Außerdem erweitern Unternehmen mit der Option auf Remote Work den Pool an möglichen Bewerbenden erheblich. Wer da nicht mitmacht, wird abgehängt werden.

Wie definieren Sie für sich persönlich und in Ihrem Unternehmen den Begriff?
New Work bedeutet für mich primär Flexibilität, Vertrauen und ein bewusster Umgang mit Ressourcen. Auch und besonders mit den Ressourcen der Arbeitnehmenden. Wir haben fordernde Jahre hinter uns, die alle viel Kraft gekostet haben. Indeed hat während der Pandemie den YOU Day eingeführt: Einen Tag im Monat, an dem alle Beschäftigten – weltweit – gleichzeitig freihaben. Das gibt den Arbeitnehmenden Raum zum Auftanken und Durchatmen. Unsere Erfahrungen damit sind mehr als positiv. 

Was möchten Sie Entscheidern aus dem HR-Bereich mit auf den Weg geben vor dem Hintergrund der aktuellen Diskussionen?
Ich habe den Eindruck, es ist bislang bei zu wenig Entscheider*innen angekommen, dass wir einen Markt für Arbeitnehmende haben. Es ist momentan schwerer, einen Job zu besetzen als einen zu finden. Deshalb ist mein Appell: Werdet flexibler und geht auf die Bedürfnisse der Bewerbenden ein. Fokussiert Euch in Stellenanzeigen auf unverzichtbare Fähigkeiten und kürzt die langen Listen mit Anforderungen. Und schaut über den Tellerrand hinaus und gebt Menschen eine Chance, die ihr beim Recruiting bislang nicht auf dem Schirm hattet. 
Aber nicht nur das Finden von Kandidat*innen ist eine Herausforderung für HR, auch das Halten. Unternehmen, die Homeoffice und hybrides Arbeiten anbieten, stehen vor der Schwierigkeit, wie sie ihre Unternehmenskultur lebendig halten und den Teamgeist pflegen. Bei Indeed hätten wir die Leute gerne wieder häufiger im Büro. Wir drängen Sie allerdings nicht. Sondern wir haben Teamtage, an denen vor allem der Austausch im Mittelpunkt steht. Da wird dann zusammen gegessen, die Leute reden miteinander und holen das an Begegnung nach, was über Videocall verloren geht. Unternehmen sollten also ein Anreiz schaffen, dass die Beschäftigten Lust haben, ins Büro zu kommen. Angebote statt Zwang. Das ist für mich der Weg der Zukunft. 


Über den Interviewpartner

Frank Hensgens ist Deutschlandchef von Indeed und erfahrener Techmanager seit 20 Jahren. Als ausgewiesener Arbeitsmarktexperte kennt er die Recruiting-Branche wie kaum ein anderer in Deutschland. Der studierte Diplom-Kaufmann arbeitete lange Jahre für seinen heutigen Konkurrenten Stepstone und war dort u.a. als Vorstand für das Deutschland-Geschäft verantwortlich.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Nachweisgesetz stellt Firmen bei der bAV vor Herausforderungen

Marco Eckert: „Für Arbeitgeber ist zu empfehlen, die Einführung einer Versorgungsordnung zu prüfen, um die bAV-Abwicklung besser zu strukturieren.“

Das Nachweisgesetz ist erst diesen Monat in Kraft getreten und betrifft einige Passagen in aktuell neu geschlossenen Arbeitsverträgen. Marco Eckert ist Geschäftsführer der DCS Deutsche Clearing-Stelle GmbH und beschreibt die Änderungen im Bezug auf die betriebliche Altersvorsorge.

Mit der auf einer EU-Richtlinie basierenden Novelle des Nachweisgesetzes (NachweisG) erweitern sich für Arbeitgeber seit dem 1. August 2022 die Pflichten: Bestehende Arbeitsverträge, Musterarbeitsverträge sowie sämtliche Personalprozesse müssen geprüft und bei Bedarf überarbeitet werden. Dies umfasst auch Regelungen zur betrieblichen Altersversorgung (bAV), da diese zu den wesentlichen Arbeitsbedingungen zählt.  Damit stehen Arbeitgeber vor neuen Herausforderungen – insbesondere droht mehr Bürokratie: Der Grad an Digitalisierung wird sich hingegen eher reduzieren. Problematisch ist ferner, dass auch im Falle von unbeabsichtigten Verstößen direkt mit Bußgeldern gerechnet werden muss.

Hintergründe des Nachweisegesetzes (NachweisG)

Doch was genau steckt hinter dem Nachweisgesetz? Zunächst soll nach Wunsch der EU mit dem Gesetz mehr Transparenz geschaffen werden. Doch resultiert daraus auch ein höheres Maß an Komplexität. Dass Dokumente gemäß Nachweisgesetz künftig in erweiterter Form schriftlich vorgehalten werden müssen, steht überdies der Entwicklung in Richtung einer Digitalisierung der bAV-Verwaltung entgegen. Der deutsche Gesetzgeber hat an dieser Stelle entschieden, die Möglichkeiten einer digitalen Übermittlung auszuschließen. Hinzu kommt, dass die Zeitspanne, innerhalb derer Firmen die neuen Regelungen umsetzen mussten, äußerst knapp war – die Herausforderung war mit den verfügbaren personellen Ressourcen oft kaum zu bewältigen. Daher ist davon auszugehen, dass es noch einige Zeit dauern wird, bis sich die Regelungen in allen Firmen niedergeschlagen haben werden.

Im Kern sind in puncto bAV die folgenden Neuerungen mit dem Nachweisgesetz verbunden:

  • Bei externer Durchführung der bAV muss der Arbeitgeber den Namen und die Anschrift des Versorgungsträgers mitteilen, sofern nicht der Versorgungsträger zu dieser Angabe verpflichtet ist.
  • Künftig sind alle Bestandteile des Arbeitsentgelts jeweils getrennt anzugeben, wobei der Arbeitgeber neben der Fälligkeit auch über die Art der Auszahlung zu informieren hat.
  • Das NachweisG hält an dem bestehenden Erfordernis eines schriftlichen Nachweises der wesentlichen Vertragsbedingungen mit Unterschrift des Arbeitgebers fest. Die elektronische Form soll weiterhin kategorisch ausgeschlossen werden, obwohl nach EU-Richtlinien eine digitale Übermittlung grundsätzlich zugelassen werden könnte.
  • Für Arbeitnehmer, deren Arbeitsverhältnis vor bereits vor dem 1. Januar 2022 bestanden hat, sieht der Gesetzentwurf vor, dass ein Nachweis auf Verlangen auszuhändigen ist.
  • Eine Änderung der wesentlichen Vertragsbedingungen ist künftig spätestens am Tag des Wirksamwerdens schriftlich mitzuteilen. Bislang galt dies erst einen Monat nach der Änderung.
  • Grundlegende Neuerung des NachwG ist die Wertung als Ordnungswidrigkeit, wenn der Arbeitgeber einer Pflicht nach dem Nachweisgesetz nicht in der vorgeschriebenen Weise oder nicht rechtzeitig nachkommt. Das gilt auch für die daran anknüpfende Ahndungsmöglichkeit eines solchen Verstoßes mit einem Bußgeld. Die Sanktionierung gibt die EU-Richtlinie dem deutschen Gesetzgeber vor.

Versorgungsordnung vereinfacht Konformität mit Nachweisgesetz

Angesichts der Tatsache, dass die Novelle des Nachweisgesetzes bereits seit Anfang August in Kraft ist, besteht für Arbeitgeber nun Handlungsbedarf: Sofern die Regelungen noch nicht vollständig umgesetzt werden, gilt es, dies kurzfristig nachzuholen. Doch darüber hinaus stehen Unternehmen grundsätzlich Regelwerken gegenüber, die sich laufend ändern: Das Inkrafttreten des NachweisG bedeutet dabei eine weitere Verschärfung. Für Arbeitgeber ist zu empfehlen, die Einführung einer Versorgungsordnung zu prüfen, um die bAV-Abwicklung besser zu strukturieren. Eine solche Versorgungsordnung unterstützt erheblich bei der Umsetzung neuer Gesetze und Regelungen. Informationspflichten werden damit praktisch automatisch und ohne weitere erfüllt. Auf die Versorgungsordnung kann im Einzelfall, etwa in puncto Arbeitsverträge, dann Bezug genommen werden.

Über den Autor

Marco Eckert ist Geschäftsführer der DCS Deutsche Clearing-Stelle GmbH, ein Spezialist für die moderne Verwaltung der betrieblichen Altersversorgung (bAV) in Unternehmen. Die DCS optimiert Services und übernimmt die wachsenden Verwaltungsaufgaben. Ziel ist es, Personalverantwortliche zu entlasten und Arbeitgeber vor Haftungsrisiken zu schützen. Mehr Informationen unter https://dcsgroup.de .


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Sind Luxusuhren eine attraktive Investition?

Exklusiver Online Händler HORANDO gibt hilfreiche Tipps

Wer hochwertige Uhren als Wertanlage erwirbt, sollte grundsätzlich Freude an den Chronometern haben. Eine gewisse Affinität zu den Märkten von Luxusarmbanduhr hilft dabei, die Gewinnermodelle zu erkennen und Wertverluste zu vermeiden. Und gut zu wissen ist, dass die erzielte Rendite bis zum Ablauf der einjährigen Spekulationsfrist steuerfrei bleibt.

In Zeiten schwacher Zinsentwicklung und schwankender Aktienkurse werden Sachwerte als Anlageobjekte immer beliebter. Dabei rücken auch Luxusuhren vermehrt in den Fokus: während Aktienwerte auf null oder ins Minus sinken können, passiert dies bei Uhren eher nicht. Einige Modelle erzielen im Jahresrückblick eine Wertsteigerung von mehreren 100 Prozent. Vergleicht man die Börsennotierungen international agierender Großunternehmen anderer Branchen mit der Wertentwicklung von hochwertigen Armbanduhren, wird die Spanne der Renditen noch deutlicher.

Der Blick auf die internationalen Uhrenmärkte ist außerdem ratsam, denn auch wenn der europäische Markt schwächelt, hat dies nicht zwingend Auswirkung auf Märkte in Asien oder den USA. Schlaue Anleger aus Nicht-EU-Länder kaufen dann gezielt im EU-Markt und gleichen konjunkturelle Tiefen schnell wieder aus.


Werte die überzeugen: ein sattes Plus von 718 Prozent bei der PATEK PHILIPPE NAUTILUS 5711 und immer noch 160 Prozent Rendite mit dem ROLEX COSMOGRAPH DAYTONA 116520. An diese enorme Wertentwicklung kommen selbst Börsengrößen wie APPLE INC. (mit 112 Prozent Steigerung) oder auch die MERCEDES-BENZ DAIMLER GROUP (mit kaum messbaren 3,4 Prozent) nicht annähernd heran. (Quelle: © HORANDO)

Limitierte Verfügbarkeiten bestimmter Luxus-Chronometer verstärkten die Nachfragen im Sekundärmarkt, der eine große Auswahl an Neu- und Gebrauchtuhren bietet. Die Uhren aus dem sogenannten Certified Pre Owned Bereich haben die Vorteile sehr speziell- und einmalig zu sein. Seriennummer, Beschaffenheit und Jahrgang üben starke Einflüsse auf den Preis aus. Durch Vorkäufe und Auktionen sind begehrte Modelle schnell in festen Händen, was die Wertentwicklung (auch für vergleichbare Modellbaureihen) beflügelt.

Doch aufgepasst: generell sollten ausschließlich Uhren im Full-Set mit klarer Historie sowie mit obligatorischer Prüfung von Authentizität und Echtheit angekauft werden. In Fachmedien und Foren findet man technische Bewertungen und kann durch die Analyse von Auktionsergebnissen, Preise auf unterschiedlichen Marktplätzen vergleichen sowie den tatsächlichen Wert („Fair Value“) ermitteln.

Unbedingt sollte jedem Kauf einer Luxusuhr eine detaillierte Recherche vorangehen. Plattformen wie HORANDO bieten einen sicheren und transparenten Kaufprozess im Neu- und Certified Pre Owned Bereich. Auch wenn bestimmte Zeitmesser stark beworben werden und im Marketing Fokus stehen, sind diese nicht zwangsläufig die besten Investments. „Kein Uhrenkauf sollte ohne signifikante Daten zur Wertentwicklung der vergangenen zwei bis drei Jahre erfolgen“, rät Stefan Sebök, Mitglied der Geschäftsführung bei HORANDO. Denn auch bei eine Limited Edition Luxusuhr garantiert nicht zwangsläufig, dass der Markt die geminderte Verfügbarkeit im Pricing berücksichtigt.

Die HORANDO Empfehlung: Zu jedem Uhrenkauf gehören die Originalbox und ein Echtheitszertifikat sowie eine detaillierte Recherche auf unterschiedlichen Marktplätzen.


Weitere Informationen unter:
HORANDO


Bildquelle / Lizenz Aufmacher:

Photo by Agê Barros on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Künstliche Intelligenz als Treiber der Digitalisierung – Wo stehen deutsche Unternehmen?

Deutschland´s KI-Reifegrad erläutert von Dr.-Ing. Sebastian Werner, AI Evangelist bei der “Everyday AI” Plattform Dataiku.

Deutschland hat noch immer einen Ruf als KI-Schlusslicht. Dabei ist die Verwendung von Daten schon heute für viele Unternehmen essenziell und es gibt ein grundlegendes Bewusstsein für die Potenziale der Technologie. Eine neue Studie zeigt, wo Deutschland in seiner KI-Journey wirklich steht und wie sich die Akzeptanz innerhalb der kommenden fünf Jahre entwickeln könnte.

Deutschland möchte weltweit Vorreiter im Bereich Künstliche Intelligenz werden – international kämpft das Land dennoch weiterhin mit einem gewissen Ruf als Schlusslicht. Auch die Europäische Union wird im weltweiten Vergleich eher auf den hinteren Rängen eingestuft, wenn es um die “AI Maturity” geht. Die jüngsten Entwicklungen – beispielsweise die Pläne der EU, den Einsatz von KI zu regulieren – lassen ebenfalls vermuten, dass eine Vorreiterrolle in den kommenden Jahren nur schwer zu realisieren ist.

So dramatisch sich die Lage zunächst darstellen mag, so sehr ist auch ein differenziertes Bild der Sachlage notwendig. Wo stehen Deutschland und andere EU-Länder in Puncto KI-Reifegrad wirklich? Wie stark sind Daten und Machine Learning schon heute in den Unternehmen eingebunden und wie sieht die Vision für die kommenden fünf Jahre aus? Das hat die Everyday AI Plattform Dataiku in einer europaweiten Studie gemeinsam mit YouGov untersucht. Dazu wurden insgesamt 2587 CEOs, Manager und Angestellte in Frankreich, dem Vereinigten Königreich, den Niederlanden, Deutschland sowie den Vereinigten Arabischen Emiraten befragt – 506 Personen davon in Deutschland.

Datennutzung in deutschen Unternehmen steigt

Im Jahr 2022 spielt die Verwendung von Daten in der täglichen Arbeit deutscher Unternehmen bereits eine entscheidende Rolle. Immerhin halten mehr als 60 Prozent der Befragten die Nutzung von Daten in ihrer täglichen Arbeit für essentiell. In den anderen befragten Ländern – Frankreich, den Niederlanden und Großbritannien – wird Daten dennoch ein noch größerer Wert beigemessen. Spitzenreiter sind die Niederlande, in denen ganze 71 Prozent ohne Daten in ihrer täglichen Arbeit nicht auskommen würden. Erfreulich ist, dass mehr als die Hälfte aller Befragten in deutschen Unternehmen angeben – im Vergleich zu vor fünf Jahren – mehr oder deutlich mehr Daten zu nutzen. Ein klares Zeichen, dass der Wert von Daten nicht nur erkannt, sondern auch bereits genutzt wird.

Auch Künstliche Intelligenz ist für deutsche Unternehmen im Jahr 2022 natürlich kein Fremdwort mehr. Die Technologie wird aktuell zwar eher im Rahmen einzelner Use Cases genutzt, als wirklicher ganzheitlicher Geschäftstreiber zu sein – dennoch erkennen immer mehr Verantwortliche das noch ungenutzte Potenzial. Entsprechend erwarten 64 Prozent, dass die Technologie ihr Unternehmen in den nächsten 5 Jahren beeinflussen wird – wobei die Stärke des Einflusses hier doch deutlich unterschiedlich wahrgenommen wird und nur ein Bruchteil von 13 Prozent an eine komplette Revolution ihres Unternehmens durch KI glauben. 


„Im Jahr 2022 spielt die Verwendung von Daten in der täglichen Arbeit deutscher Unternehmen bereits eine entscheidende Rolle. Immerhin halten mehr als 60 Prozent der Befragten die Nutzung von Daten in ihrer täglichen Arbeit für essentiell.“


 


Über den Autor:

Dr.-Ing. Sebastian Werner ist AI Evangelist bei der “Everyday AI” Plattform Dataiku. Basierend auf seiner umfangreichen Erfahrung als CTO sowie im Bereich Modellierung und Data Science unterstützt er Kunden bei der Strategieentwicklung rund um Künstliche Intelligenz. Er ist Vorstand im Arbeitskreis Big Data und Advanced Analytics des Bitkom e.V. und Mitglied der German Data Science Society e.V.

Entscheidungsträger glauben am wenigsten an Künstliche Intelligenz

Besonders spannend gestaltet sich der Blick auf die verschiedenen Management-Ebenen in deutschen Unternehmen. Gerade unter den CEOs und dem Top-Management – also den zentralen Entscheidungsträgern – glauben nur 57 Prozent daran, dass KI und Machine Learning in den kommenden fünf Jahren einen Impact auf ihr Unternehmen haben. Die größten Befürworter der These finden sich dafür auf der mittleren Management-Ebene, wo 73 Prozent einen Einfluss erwarten. Mit dem Ziel einer erfolgreichen Digitalen Transformation im Blick ist das eine wichtige Erkenntnis. Denn obwohl das Bewusstsein für die Mehrwerte dieser neuen Technologie vorhanden ist, kann gerade die Führungsebene noch weiter dafür sensibilisiert werden.

Dennoch zeigt die Studie auch, dass Führungskräfte und Angestellte in deutschen Unternehmen vor allem eine wichtigen Erfolgsfaktor bereits verinnerlicht haben: Sie sind die Treiber der digitalen Transformation – Veränderung kommt von innen, und nicht ohne eigenes zutun. Soweit neue Technologien ihre Branche und ihr Unternehmen beeinflussen werden, so sehr wird auch ihre eigene Rolle und tägliche Arbeit beeinflusst. Das sieht bei einigen europäischen Nachbarn noch anders aus: Hier sind sich zwar viele Arbeitnehmer der Auswirkungen von KI auf ihr Unternehmen bewusst, nicht aber auf ihren eigenen Job und den Unterschied, den sie machen.

Die Zukunft von KI in Deutschland: Drei zentrale Faktoren

Eine erfolgreiche Digitale Transformation und die Weiterentwicklung des KI-Reifegrades gehen in Deutschland und ganz Europa Hand in Hand. Um diese Ziele zu realisieren, sind einige zentrale Erkenntnisse von Bedeutung:

  1. Neue Bestrebungen wie die Regulierung von KI Projekten durch die EU sind keine entwicklungshemmenden Faktoren, sondern eine echte Chance auf bessere Prozesse, klarere Governance- und Compliance Strukturen und einen verantwortungsvollen Umgang mit Künstlicher Intelligenz.
  2. Die Demokratisierung von KI-Projekten ist nicht nur Katalysator,sondern ein zentrales Erfordernis für skalierbare und erfolgreiche digitale Transformation. Erst wenn Unternehmen sämtliche Mitarbeiter – auch jene abseits der klassischen IT-Berufe – in ihre KI-Prozesse einbinden, wird eine volle Entfaltung der Potenziale möglich.
  3. Weltweit entwickelt sich Künstliche Intelligenz bereits weiter: Der Einsatz in jeweils nur spezifischen Use Cases entwickelt sich immer mehr in Richtung “Everyday AI” – also die vollkommene Einbindung Künstlicher Intelligenz in sämtliche Geschäftsprozesse.

Deutschland ist bereits auf dem richtigen Weg und hat die vergangenen Jahre genutzt, um Weichen für einen nutzbringenden Einsatz von Künstlicher Intelligenz zu stellen. Erste Erfolge unterstreichen das Potenzial der Technologie; andererseits sind noch nicht alle Vorbehalte aus dem Weg geräumt. Es ist allerdings genau diese Entwicklung, die den Weg zu einer digitalen Zukunft ebnet, die gleichzeitig von wirtschaftlichem Mehrwert und einem verantwortungsvollen Umgang geprägt ist.

New Work – Mindset des Enablements

Als Mitarbeiter- bzw. Employee-Enablement wird die Praxis beschrieben, Mitarbeiter möglichst vielseitig zu schulen, um sie so im Arbeitsalltag polyvalenter zu machen. Enablement befähigt Mitarbeiter, fortgeschrittene Aufgaben auszuführen und komplexe Tasks zu meistern. Dadurch können Aufgaben im Laufe der Zeit immer flexibler delegiert werden, Kompetenz-Hierarchien verflachen und die Mitarbeiter bekommen das berechtigte Gefühl, dass in sie investiert wird, was die Wertschätzung ihrerseits dem Unternehmen gegenüber stärkt. Enablement sorgt für hohe Bindungsraten, da eine solche Unterstützung den Mitarbeitern das Gefühl gibt, dass ihre Leistung anerkannt wird.

Katrin Seidel ist systemischer Coach für Mitarbeiter und Führungskräfte und begeisterte Unternehmerin. Seit 22 Jahren ist sie in der Führung der europaweit agierenden Trainingscompany bfkm GmbH tätig und somit selbst tagtäglich mit den Herausforderungen des Führungsalltags konfrontiert. Ihre Einblicke und Einschätzungen zum Thema Employee Enablement teilt sie in diesem Gastbeitrag.

Warum Enablement so wichtig ist

Mitarbeiterförderung ist gleichzusetzen mit Unternehmensförderung! Enablement ist insofern nicht nur als ein bisschen Imagepflege zu verstehen, sondern als wichtiger Grundstein für eine gesunde Unternehmenskultur. Zudem ist Enablement auch aus strategischer Sicht ein wertvolles Attribut für Unternehmen, um ihre Attraktivität für potenzielle Bewerber zu erhöhen und um Mitarbeiter effizienter zu binden. Gerade in Zeiten, in denen ganze Branchen händeringend um Auszubildende und Fachkräfte kämpfen müssen, sollte jedem klar sein, dass sich der Wettbewerb um fähige, engagierte Mitarbeiter in Zukunft tendenziell eher verschärfen als entspannen wird.

In die eigenen Mitarbeiter zu investieren und ihnen mehr Aufgaben anzuvertrauen, ist also nicht nur eine Maßnahme, die das Unternehmen für Bewerber attraktiver macht. Es ist auch strategisch wünschenswert, da der etablierte Mitarbeiterstamm durch breit gefächerte Qualifikationen qualitativ solider aufgestellt wird. “Kompetenzen und Fähigkeiten der Mitarbeiter werden damit sukzessive verbessert, was eigenständiges Arbeiten und Entscheidungskompetenz vor Ort erhöht. Das entschlackt nicht nur die Abläufe und erhöht die Performance. Auch der Zusammenhalt unter den Mitarbeitern wird potenziell gefördert, wodurch wiederum die Bindung an das Unternehmen gestärkt wird.”, so Katrin Seidel.

Vorteile von Mitarbeiter Enablement im Überblick

Die Zeiten, in denen Unternehmer (gelinde gesagt) noch recht trocken vom „Humankapital“ sprechen konnten, sind im Wesentlichen vorüber. Und gerade ein schlechter Ruf als Arbeitgeber spricht sich heute schneller herum denn je. Nicht zuletzt, weil es jedem offen steht, sich im Internet zu Unternehmen und deren Bewertung aus Arbeitnehmersicht zu informieren. In die eigenen Mitarbeiter gezielt zu investieren – und das nicht nur mit schönen Worten – ist in manchen Branchen mittlerweile ein regelrechter Sachzwang. Allerdings auch einer, der Früchte trägt:

  • Enablement ist gleich Empowerment – Kompetente, gut ausgebildete Mitarbeiter können Außergewöhnliches leisten, das Beste aus sich herausholen und im Unternehmen etwas bewegen. Das bewirkt, dass sie eben dort auch eine Zukunft für sich sehen. Umgekehrt steigt die Frustration, wenn Mitarbeiter, die sich für die Unternehmensvision und -werte begeistern, ihrer Arbeit nicht gewachsen sind oder aufgrund von zu geringer Qualifikation im monotonen Arbeitstrott versacken.
  • Höhere Produktivität steigert Umsatzchancen – Gezielte Schulungen können die Produktivität und Eigenständigkeit der Mitarbeiter steigern. Dies spiegelt sich in deren Denken und Handeln wider. Gut ausgebildete Mitarbeiter agieren effizienter, zielgerichteter und selbstbewusster. Eine gesteigerte Mitarbeiterkompetenz verbessert die Qualität der Arbeit, was sich letztlich positiv auf Aspekte wie Kundenkommunikation, Vertrieb und Umsatz auswirkt.
  • Bindung an Stelle von Fluktuation – Hohe Fluktuationsraten im Mitarbeiterstab verursachen Kosten, da ständig neue Mitarbeiter gesucht und ausgebildet werden müssen. Nicht zuletzt sind sie oft ein klares Indiz für unzufriedene Mitarbeiter. Es muss demnach im Interesse des Unternehmens liegen, Leistungsträger langfristig zu binden. Eine gute Mitarbeiterführung und engagiertes Enablement kann dafür die Weichen stellen.

Arbeitgebermarketing und Unternehmenskultur – Einen vielseitig qualifizierten sowie kompetenten Kern an Mitarbeitern zu haben, verbessert nicht nur die unternehmerische Resilienz gegen personelle Engpässe. Mit der Zeit wird auch die Qualität der innerbetrieblichen Ausbildung immer besser. Kompetente und qualifizierte Mitarbeiter können neuen Mitarbeitern und Auszubildenden wesentlich mehr vermitteln, wenn sie selbst diesbezüglich auf einem soliden Fundament stehen. Dies steigert die Attraktivität und den Ruf als Arbeitgeber!

Fazit – Enablement für Team Building und agiles Arbeiten

Mitarbeiter müssen Eigenverantwortung lernen, um ihr Können und Wissen flexibel und gewinnbringend einzusetzen und sich mit anderen (Kollegen sowie Kunden) zu vernetzen. Diese Eigenverantwortung wird durch gezielte Fort- und Weiterbildungen befeuert. Vor allem aber erhöht mehr Eigenverantwortung die unternehmerische Agilität im Arbeitsalltag.
Eine agile Arbeitsteilung bedeutet eine substanzielle Veränderung. Kompetenzen werden erhöht und interne Hierarchien verflacht. Ein solcher Wandlungsprozesse kann durchaus zunächst auf innere Widerstände stoßen. Gewohnheiten, bisherige Kompetenzbereiche sowie Pfadabhängigkeiten verursachen möglicherweise eine Neigung der Mitarbeiter, sich gegen Wandlung (und sei sie noch so positiv) zu sträuben. Nicht zuletzt kann auf der Führungsebene eine zunehmend agile Unternehmensführung auch einen Verlust an Führungskraft implizieren. Doch wenn alle im Unternehmen lernen, mehr Verantwortung zu übernehmen, wird sich das mittelfristig für Führungskräfte als entlastender Vorteil erweisen. Wenn alle in der Breite ermutigt und befähigt werden, auch im Angesicht dynamischer Entwicklungen und Probleme, flexibel und lösungsorientiert zu handeln, steigert das im Endeffekt den Anteil aller am unternehmerischen Erfolg. Ein besseres Feedback, im Sinne der Unternehmenskultur, ist kaum vorstellbar!


Über die Autorin

Katrin Seidel (Quelle: bfkm GmbH | Die Trainingscompany)

Katrin Seidel ist systemischer Coach für Mitarbeiter und Führungskräfte und begeisterte Unternehmerin. Seit 22 Jahren ist sie in der Führung der europaweit agierenden Trainingscompany bfkm GmbH tätig und somit selbst tagtäglich mit den Herausforderungen des Führungsalltags konfrontiert. Sie ist der festen Überzeugung, dass Frauen in ihre weibliche Kraft der Führung und Männer in ihre männliche Führungskraft kommen müssen, um den Arbeitsalltag neu für sich und die Mitarbeiter/innen zu gestalten. Die Themen Führung, neue Führung, Wandel der Arbeitswelt, Agilität und tiefe persönliche Weiterentwicklung von Führungskräften liegen Katrin Seidel besonders am Herzen. Die bfkm GmbH präsentiert sich heute unter ihrer Leitung als kompetenter Qualifizierungsanbieter und progressiver Organisationsentwickler. Das 9-köpfige Mitarbeiter- und 100-köpfige Trainerteam trainiert, berät und coacht pro Jahr um die 12.000 Seminarteilnehmer. Katrin Seidel setzt sich auch in der Nachwuchsförderung ein und initiierte in diesem Zusammenhang 2006 den Azubiwettbewerb „Young Professionals – Talente im Dialog“, um junge Menschen für Ausbildungsberufe im Dialogmarketing zu begeistern. Außerhalb des Berufs engagierte sie sich viele Jahre lang als Vorstandsmitglied der Saaleschule für „Inklusion“ und „individuelles Lernen“ für Kinder.

www.bfkm-halle.de


Bildquelle / Lizenz Aufmacher:

Photo by Towfiqu barbhuiya on Unsplash

Wenn den eigenen Augen nicht getraut werden kann

Klaus Joachim Gährs, Senior Account Manager bei BioCatch, schreibt über Deep Fakes als Bedrohungspotenzial aber auch über Lösungen, dieser Herausforderung zu begegnen.

„Je ungewöhnlicher eine Sitzung bei einem Konto verläuft, desto wahrscheinlicher ist es, dass es sich um Betrug handelt. Das lässt sich automatisiert messen und auswerten. Dies ist eine Möglichkeit, Deep Fakes beizukommen“, erläutert Klaus Joachmin Gährs.

Ende Juni machte die Videoschalte zwischen der Berliner Oberbürgermeisterin Franziska Giffey und einem vermeintlichen Vitali Klitschko Schlagzeilen. Der Grund: Der Gesprächspartner der deutschen Politikerin sah zwar aus wie der Bürgermeister von Kiew, war es aber nicht. Schnell wurde die Vermutung publik, dass es sich hierbei um einen Deepfake handelt, also eine Videomanipulation mithilfe von KI (Künstlicher Intelligenz). Die Vermutung erwies sich aber als falsch, denn bei der Fälschung handelte es sich nur um einen einfachen „Shallowfake“, der technisch weit weniger anspruchsvoll ist.

Dennoch zeigt der Vorfall deutlich, dass von manipulierten Ton- und Videoaufnahmen – Deepfake oder nicht – eine hohe Gefahr ausgeht und die Konsequenzen nicht zu unterschätzen sind. Laut einem Bericht von Europol stellen Deepfakes eine der besorgniserregendsten Entwicklungen dar, wenn es um den Einsatz von künstlicher Intelligenz durch Cyberkriminelle geht. Dies gilt ganz besonders für die Geschäftswelt. Dort kann die Technologie in den falschen Händen einen hohen finanziellen Schaden anrichten.

Authorized-Push-Payment und CEO-Betrug

In der Vergangenheit tauchten immer wieder Meldungen darüber auf, dass Betrüger Deepfake Voice benutzt haben, um beispielsweise die Stimme eines Vorgesetzten in Echtzeit nachzuahmen. So gelang es Betrügern bei einer deutsch-britischen Firma, einen Geschäftsführer zu überzeugen, 220.000 Euro auf ein Konto zu überweisen. Dazu mussten sie sich nur mithilfe dieser Technologie als Chef der deutschen Muttergesellschaft ausgeben.

Die Vorgehensweise der Kriminellen ist dabei ähnlich wie bei einem APP-Betrug (Authorized-Push-Payment) beziehungsweise einem CEO-Fraud in Echtzeit. Beide Betrugsversionen zählen zu den sogenannten Social-Engineering-Attacken. Und diese Angriffsmethoden zielen auf den Menschen als schwächstes Glied in der IT-Sicherheitskette: Die Kriminellen geben sich am Telefon als Geschäftsführer aus und überzeugen so ihr Opfer, einen bestimmten Betrag auf ein Konto zu überweisen. Die genutzten personenbezogenen Daten kaufen die Cyberbetrüger oftmals im Dark Web oder stehlen sie aus den öffentlichen Kanälen der sozialen Medien. So wirken sie auf den Angerufenen glaubwürdig und können ihn manipulieren, eine autorisierte Überweisung auszulösen. Ton- und Videoausschnitte lassen sich ebenso oft von Social-Media-Kanälen und durch Deepfake oder andere Methoden fälschen. Der Druck, der gegenüber dem Mitarbeiter aufgebaut wird, ist immens, wenn der leitende Angestellte oder der CEO eines Unternehmens telefonisch zur Überweisung auffordert. So wird oft nicht hinterfragt, ob die tatsächlichen Sicherheitsprozesse eines Unternehmens für eine Transaktion eingehalten werden.

Da ein echter Mitarbeiter die Überweisung auslöst, können die Cyberkriminellen die Sicherheitsprozesse der Bank umgehen und sich unbefugt Zutritt zu den Kundenkonten verschaffen. Diese Art von Betrug zu erkennen, ist schwierig, da die Betrüger nicht direkt mit einer Bankplattform interagieren, sondern den Mitarbeiter dazu bringen, eine Zahlung zu tätigen. Der Benutzer meldet sich während dieses Vorgangs vom eigenen Gerät und von einem gültigen Standort an, weswegen bei der Bank oft zu spät Verdacht geschöpft wird. Auch die Multi-Faktor-Authentifizierung (MFA) lässt sich so umgehen.

Betrugserkennung in Echtzeit

Das Problem bei Social-Engineering-Attacken in Echtzeit ist, dass herkömmliche Kontrollen wie etwa die Identifizierung des Endgeräts, der IP und des Standortes nicht mehr ausreichen. Selbst Out-of-Band-Methoden wie das Versenden eines Einmal-Passwortes (OTP) per SMS bieten keinen Schutz, da die Transaktionen durch legitime Nutzer mit einem legitimen Endgerät stattfinden. Auf diese Weise ist der Zugriff auf das OTP keine Hürde.

Hinzu kommt, dass Social-Engineering-Attacken im Vergleich zu anderen Cyberattacken relativ einfach auszuführen und lukrativ für die Kriminellen sind. Laut Daten von BioCatch ist die Zahl solcher Angriffe in den letzten Jahren deutlich gestiegen. Bisher sind sie im Jahr 2022 sogar deutlich auf dem Vormarsch. Schätzungen zufolge verlieren Opfer von APP-Betrügereien durchschnittlich 28.000 Pfund pro Stunde. Sind die Gelder erst einmal überwiesen, ist es sehr schwierig, diese zurückzubekommen. Weniger als die Hälfte der APP-Opfer werden nachher finanziell entschädigt, da sie die Zahlung selbst ausgelöst haben.

Abhilfe können Technologien auf Basis von Verhaltensbiometrie schaffen, mit denen sich die Identität von Personen während der gesamten Abwicklung ihrer Bankgeschäfte verifizieren lässt. Diese Technologie basiert auf KI und ML (Machine Learning) und analysiert das digitale physische sowie kognitive Verhalten eines Nutzers. So kann sie mit hoher Wahrscheinlichkeit zwischen Aktivitäten von legitimen Kunden und Cyberkriminellen unterscheiden – auch wenn der Kunde nur unter dem Einfluss des Kriminellen steht. Über datenbasierte Erkenntnisse lassen sich dabei „echte“ von „betrügerischen“ Verhaltensmustern unterscheiden. Und mithilfe von Risikomodellen lassen sich so eine Vielzahl von Bedrohungen in Echtzeit erkennen und rechtzeitig stoppen. Denn das Verhaltensmuster eines echten Nutzers unterscheidet sich während der Transaktion, wenn die Person unter dem Einfluss eines Cyberkriminellen steht.

Auffällige Muster

Dauert beispielsweise eine Kontositzung länger als gewöhnlich, kann dies ein Indikator für einen Nutzer sein, der von Cyberkriminellen manipuliert wird. Hinzu kommen oft ziellose Mausbewegungen, die darauf hindeuten, dass die Person nervös ist oder unter Druck steht, während sie auf Anweisungen ihres Gesprächspartners wartet. Auch das Tippverhalten weist bei einem APP-Betrug häufig Unregelmäßigkeiten auf. Segmentierte Tastaturanschläge zeigen etwa, dass es sich hierbei um keine routinierte Eingabe handelt und die Kontonummer von einem Cyberkriminellen vorgelesen werden könnte. Die benötigte Zeit für einfache, intuitive Aktionen wie das Bestätigen einer Angabe steigt solchen Fällen außerdem signifikant an. Und auch bei der Nutzung eines Smartphones lassen sich üblicherweise veränderte Bewegungsmuster feststellen – beispielsweise ändert sich die Ausrichtung des Endgerätes häufig. Das liegt daran, dass der eingeloggte Nutzer das Smartphone immer wieder ablegt oder aufnimmt, um die Anweisungen des Kriminellen entgegenzunehmen.

Je mehr unübliche Verhaltensmuster in Kombination ein Nutzer während einer Kontositzung zeigt, desto höher wird der Alarmscore bei der Bank. Die Sicherheitsspezialisten können dadurch rechtzeitig eingreifen, den Kunden warnen oder die Transaktion stoppen. So lassen sich erhebliche finanzielle Verluste vermeiden.

Die Spitze des Eisbergs

Die Betrugsmethoden der Cyberkriminellen entwickeln sich immer weiter. Auch wenn die Versuche über Deepfakes noch spärlich eingesetzt werden und der Einsatz der Technologie mit viel Aufwand verbunden ist, sind die gemeldeten Fälle laut Einschätzungen von BioCatch nur die Spitze des Eisbergs. Damit sich Unternehmen und auch Bankkunden vor den finanziellen Schäden schützen können, ist es unabdingbar, den Betrug in dem Moment zu erkennen, wenn er stattfindet. Security-Maßnahmen über Verhaltensbiometrie verringern das Sicherheitsrisiko enorm.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Progressive Delivery: Eine Weiterentwicklung von Continuous Delivery

* Autor: Dirk Radde

Progressive Delivery ist ein moderner Ansatz für die Softwarebereitstellung, der auf den Prinzipien von Continuous Delivery aufbaut. Unternehmen können so Code schneller und mit hoher Kadenz bereitstellen, während sie gleichzeitig die Risiken reduzieren. Um dies zu erreichen, werden Advanced-Deployment-Strategien mit zusätzlichen Kontroll- und Überwachungsmöglichkeiten genutzt. Verbesserte Kontrolle ist ein zentrales Fundament von Progressive Delivery.

Ziele von Progressive Delivery

  • Schnellere und kontrollierte Freigabe von neuer Software
  • Minimierung von Ausfallzeiten
  • Begrenzung des “Explosionsradius” unbeabsichtigter Folgen beziehungsweise negativer Ergebnisse
  • Begrenzung des Work-in-Progress (WIP), höhere Kadenz und ein reibungsloser Ablauf
  • Schnelleres Lernen und schnellere Entscheidungen im Prozess

Deployment-Strategien für Progressive Delivery

Nachdem wir betrachtet haben, welche Ziele mit Progressive Delivery erreicht werden können, sehen wir uns nun drei gängige Muster (Blue/Green, Canary, Feature Flags) der Implementierung näher an.

Bild: Vorteile der jeweiligen Deployment-Strategien

Bild: Vorteile der jeweiligen Deployment-Strategien

Blue/Green Deployment

Ein Blue/Green Deployment reduziert Risiken, indem zwei identische Produktionsumgebungen betrieben werden. Zu jedem Zeitpunkt ist nur eine der beiden Umgebungen im Live-Betrieb. In diesem Beispiel ist „Blue“ in Live-Betrieb und „Green“ im Leerlauf. Nachdem Sie die neue Version auf „Green“ installiert haben, führen Sie Ihre Smoke-Tests durch und stellen sicher, dass alles in Ordnung ist. Sobald die Tests erfolgreich abgeschlossen sind, wird der Live-Verkehr auf “Green” umgeleitet.

Im Falle einer fehlgeschlagenen Bereitstellung ist der Rollback-Prozess stark vereinfacht. Wenn mit Ihrer neuen Version auf “Green” etwas Unerwartetes passiert, können Sie sofort zur letzten Version zurückkehren, indem Sie wieder auf “Blue” wechseln.

Bild: Blue/Green Deployment (Quelle: Argo)

Canary Deployment

Bei Canary Deployments wird ein Software-Update zunächst nur einer kleinen Nutzergruppe zur Verfügung gestellt. Diese Gruppe wird über einen Load Balancer auf die neue Software geleitet. Die neue Version wird einige Zeit lang überwacht, um aussagekräftige Daten zu sammeln. Stellt das Team ein Problem fest, wird die Software umgehend zurückgezogen. Wenn keine Probleme festgestellt werden, wird die Version schrittweise für alle Anwender verfügbar gemacht.

Mit Canary Deployments können Sie neue Features kontinuierlich einführen, ohne befürchten zu müssen, dass eine einzige neue Funktion Ihre gesamte Nutzerbasis beeinträchtigt. Der Zweck eines Canary Deployments besteht darin, eine eindeutige Antwort zu erhalten, ob die Version so sicher ist, um sie risikolos komplett in die Produktion zu überführen. Voraussetzung für die Beantwortung dieser Frage sind ein Monitoring und definierte Metriken.

Bild: Canary Deployment (Quelle: Argo)

Feature Flag Rollouts

Bei Feature Flag Rollouts wird der Code mit deaktivierten neuen Features in der Produktion bereitgestellt. Um mit dem Rollout zu beginnen, können Sie den Code zunächst nur den Entwicklern für einen abschließenden Smoke-Test zugänglich machen. Als Nächstes stellen Sie die neuen Features beispielsweise den Early Adopters zur Verfügung.

Wenn die Dinge immer noch gut laufen, beginnen Sie damit, die Einführung zu beschleunigen. Auf diese Weise können Sie neue Features schrittweise den Anwendern zugänglich machen und sehen, wie die Software sich verhält, bevor Sie den Prozentsatz weiter erhöhen.

Rückgängig kann dies ganz einfach durch Ausschalten des Feature Flags gemacht werden. Es sind keine Patches, kein erneutes Deployment oder ein geändertes Netzwerk-Routing erforderlich. Sie sind immer noch in der Produktion, aber Sie geben den neuen Code nicht mehr an ihre Anwender weiter.

Bild: Feature Flag Rollout (Quelle: Argo)

Progressive Delivery für Cloud-native Apps

In der Regel werden heute Cloud-native Anwendungen entwickelt und automatisch auf Knoten in einem Kubernetes-Cluster innerhalb einer Microservices-Architektur bereitgestellt. Allerdings fehlt die einfache Unterstützung ein paar wichtiger Deployment-Strategien.

Ergänzende Tools wie Argo Rollouts oder Flagger bieten die Funktionalität, um Blue/Green, Canary, A/B Testing für Kubernetes, Red Hat OpenShift oder andere kommerzielle Kubernetes-Plattformen effizient umzusetzen. Damit können Sie problemlos Progressive Delivery für Ihre Kubernetes-Cluster übernehmen.

Bild: Argo Rollout Controller für Kubernetes (Quelle: Argo)

Fazit

Progressive Delivery kann der nächste Schritt zur Verbesserung Ihres Software-Delivery-Prozesses sein. Unternehmen, die dieses Verfahren anwenden, können Risiken reduzieren und die Customer Experience verbessern. Progressive Delivery ist ein bewährtes Mittel, um kontrolliert in hoher Kadenz und Geschwindigkeit neue Features auszuliefern.

Über den Autor

Der Autor Dirk Radde ist Tech Lead DevOps Infrastructure bei Devoteam Germany. Devoteam ist ein führendes Beratungsunternehmen, das sich auf digitale Strategie, Technologieplattformen, Cybersecurity und Business Transformation konzentriert, um Unternehmen zu helfen, ihre Zukunft zu gestalten. Mit 25 Jahren Erfahrung und 10.000 Mitarbeitern in ganz Europa, dem Nahen Osten und Afrika, fördert Devoteam verantwortungsvolle Technologien für Menschen.

Creative Tech for Better Change
Weitere Informationen: https://de.devoteam.com

4 Tipps für ein sicheres Cloud-Archiv

Im Frühjahr 2021 hielten tausende Unternehmen den Atem an: Beim größten Cloud-Anbieter Europas erscholl der Ruf: „Es brennt!“ Von den vier Rechenzentren des französischen Unternehmens in Straßburg ging ein Datenzentrum ganz in Flammen auf, eines zur Hälfte, die anderen beiden wurden aus Sicherheitsgründen heruntergefahren. Die Folgen dramatisch: Millionen von Webseiten waren vorübergehend nicht erreichbar. Ein Teil der Daten unwiederbringlich vernichtet.


Digitale Geschäftsprozesse sicher in der Cloud

Klar, ein Großbrand im Datencenter ist die Ausnahme. Trotzdem zeigt das Beispiel des OVH-Brands, dass Datensicherheit in der Cloud deutlich mehr beinhaltet als „nur“ Cyberschutz, Datenleaks oder Hackerangriffe. Während der Brandschutz meist noch durch die Gebäudeplanung abgedeckt ist, fallen andere Maßnahmen rund um physikalische IT-Sicherheit, Backup und Compliance in vielen Unternehmen eher mangelhaft aus.

Das Thema Sicherheit bereitet also nach wie vor Sorgen, wenn Unternehmen die Archivierung von Daten in der Cloud in Angriff nehmen. Vor allem wenn es um steuerrelevante und aufbewahrungspflichtige Dokumente sowie personenbezogene Daten geht, sind die Bedenken groß. Wie können Unternehmen sichergehen, dass ihre Daten nicht in Rauch aufgehen? Um es vorwegzunehmen: Die Cloud ist nicht nur sicher. Das Ende der Papierablage und der Wandel zum digitalen Dokumentenmanagement im Cloud-Archiv bringt zudem wichtige Vorteile. Dazu gehören die zeitsparende automatisierte Übertragung, revisionssichere und transparente Prozesse oder ein schneller und direkter Datenzugriff. Im Klartext heißt das: Augen auf bei der Partnerwahl. Wer bei der Auswahl einer Lösung für das Dokumentenmanagement nur auf die Kosten achtet, ist schlecht beraten. Bei der Wahl des Cloud-Partners sind in Sachen Sicherheit und Datenschutz einige Faktoren in Betracht zu ziehen. Die Voraussetzung für sichere Dokumenten- und Datenservices in der Cloud: Physische IT-Sicherheit, eine zuverlässige Datensicherung (Backup), Zertifikate sowie ein Rundum-Sorglos-Service-Paket des Anbieters.

Tipp 1 – Ganz schön sicher: Der Standort

Zuerst einmal das Offensichtliche: Der Zugang zum Gelände des Cloud-Partners sollte abgesichert sein. Eine Umzäunung ist genauso Pflicht wie Sicherheitspersonal rund um die Uhr. Personen, die Zutritt begehren, müssen angemeldet sein und sich ausweisen können. Was selbstverständlich klingt, sorgt in der Praxis immer wieder für Überraschungen. Wer denkt zum Beispiel beim Thema Sicherheit im Cloud-Archiv an die Besuchertoilette? Ein Pentester verschaffte sich im Juli 2022 Zugang in ein gesichertes Rechenzentrum – ganz einfach über eine öffentliche Toilette, die er zuvor im Gebäudeplan ausfindig gemacht hatte.

Die nächste Frage: Wie ist der Brandschutz des Rechenzentrums aufgebaut, in dem die Dokumentenmanagement-Lösung gehostet wird? Hier gibt es verschiedene Ansätze. Manche Serverräume sind so ausgestattet, dass ein Brand gar nicht mehr entstehen kann, zum Beispiel durch einen permanent niedrigen Sauerstoffgehalt in der Luft. Andere Serverräume verfügen über ein Brand-Früherkennungs-System. Bei einem ausgelösten Alarm wird der Raum mit Gas geflutet, um den Brand sofort im Keim zu ersticken. Idealerweise werden Serverdaten beim Hosting-Anbieter über verschiedene Brandschutzzonen hinweg doppelt gespeichert. Noch sicherer ist die Aufbewahrung der Serverdaten in verschiedenen Gebäuden mit ausreichend räumlicher Trennung.

Tipp 2 – Die beste Absicherung: Das Backup

Das A und O der Absicherung: Ein Cloud-Backup. Dies stellt jeder Anbieter zur Verfügung und sollte beim Auswahlprozess ganz oben bei den Prioritäten stehen. Nur durch ein entsprechendes Backup-System sind die auf den Servern gespeicherten Daten wirklich sicher. Viele Anbieter testen jedoch nie, ob Unternehmen ihre Daten im Notfall zurückbekommen. Beispiel: Das klassische Tape-Backup. Geschieht die Überschreibung der Tapes schon zum 160sten Mal, kann es beim Auslesen der Tapes und der Datenrekonstruierung zu Schwierigkeiten kommen. Service Level Agreements (SLA) decken solche Fälle in der Regel ab. Die Gewährleistung einer Serververfügbarkeit und Datensicherheit von 99,9 Prozent hört sich zunächst nicht schlecht an – ist aber wertlos, wenn die Unternehmensdaten am Schluss trotzdem weg sind.

Entscheidend ist daher ein verlässliches Backup, ein System mit einem vollständigen Datenbestand. In Unternehmen kommen völlig unterschiedliche Systeme zum Einsatz und die verschiedensten Objektdaten fallen an. Zum Beispiel erfolgt die Referenzierung von PDF- oder Word-Dokumenten aus unterschiedlichen Datenbanken heraus. Eine logisch sinnvolle Überführung bei der Datensicherung garantiert im Notfall eine vernünftige Wiederherstellung dieser unterschiedlichen Datentöpfe. Ein gutes Backup enthält auch Mechanismen, um Datenveränderungen zu erkennen. Damit wird sichergestellt, dass die Datenbank noch in Betrieb oder das Word-Dokument in unveränderter Form auch nach Jahren noch vorhanden ist.

Tipp3 – Zertifikate: Hilft viel wirklich viel?

Viele Rechenzentrumsbetreiber verweisen auf ihre zahlreichen Zertifikate. Nicht immer ist eine Zertifizierung jedoch ein Garant für eine vernünftige Leistung. Ja, Zertifikate sind wichtig. Sie zeigen beispielsweise, dass der Rechenzentrumsbetreiber einen überprüften Brandschutz hat, die Stromversorgung sauber ausgelegt ist und die Dieselaggregate im Notfall funktionstüchtig sind. Dennoch sollten Unternehmen genau prüfen, ob sich das vom Anbieter angepriesene Zertifikat auch tatsächlich auf den gewünschten Service oder auf einen ganz anderen Bereich bezieht.

Ein wichtiger Standard in Sachen Daten- und Cloud-Sicherheit ist ISO 27001. Dieses Zertifikat betrifft das Risikomanagement: Hat der Anbieter mögliche Risiken identifiziert und stimmt die Dokumentation für den Notfall? Wenn ein Mitarbeiter erkrankt, muss dessen Know-how sauber dokumentiert und die Vertretung geregelt sein. Wenn ein Server kaputt geht oder es brennt, müssen die einzuleitenden Maßnahmen ebenfalls bekannt sein. Risikomanagement heißt, der Anbieter hat das Risiko identifiziert und Maßnahmen ergriffen, die im Notfall das Risiko mitigieren. Das bedeutet, ein Risiko wird verkleinert oder komplett ausgeschaltet, zum Beispiel durch Redundanzen oder durch saubere Prozesse. Durch solche Vorbereitungen werden Servicelevel beschrieben und erbracht.

Die Compliance ist also wichtig und zeigt, wie ein Rechenzentrumsanbieter intern arbeitet. Kunden sollten sich trotzdem immer fragen, was diese Zertifizierungen tatsächlich bringen und wie es im Ernstfall mit der Lösungskompetenz und Flexibilität von Cloud-Providern aussieht. Nicht alle Probleme sind im Vorfeld definiert. Im Krisenfall zeigt sich, ob der Provider versteht, wie das System funktioniert und vor allem die Auswirkungen auf den Kunden. SLAs und die Einhaltung branchenweiter Standards gehören zu den Mindestanforderungen. Echte Datensicherheit setzt jedoch darüber hinaus smarte Workarounds voraus, die zeitnah und effektiv zur Verfügung stehen.

Tipp 4 – Was ist besser: Infrastructure as a Service oder Managed Service?

Infrastructure as a Service (IaaS) ist in aller Munde. Jeder Cloud-Provider bietet virtuelle Maschinen oder Services zur Miete an. Bei IaaS kümmert sich ein Unternehmen nicht mehr um die physikalischen Server, um eigene Anwendungen zu betreiben, sondern mietet diesen Service. Das entbindet das Unternehmen natürlich nicht von der Verantwortung.

Vielen Unternehmen fehlt ein tiefergehendes Wissen zum selbständigen Aufbau und Betrieb einer umfassenden virtuellen IT-Infrastruktur. Sie buchen deshalb Lösungen gleich als Managed Service. Bei diesem Service entwickelt der Provider interaktiv mit seinem Kunden ein Konzept zum Aufbau der Infrastruktur. Der Provider erhält einen gewissen Einblick in die Anwendungen eines Unternehmens, um die Infrastruktur daran anzupassen. Das Unternehmen kennt seine Software in und auswendig, während der Provider wiederum weiß, wie schnell zum Beispiel seine Datenspeicher und Netzwerke sind. So wird gemeinsam die optimale Lösung gefunden. Dazu zählen nicht nur technische, sondern auch finanzielle Aspekte. Technologisch immer auf dem neuesten Stand zu sein, muss auch bezahlbar bleiben. Das gehört bei einem Managed Service mit dazu.

Sicher mit entsprechenden Sicherheiten: Auf in die Cloud

Ein Datenverlust sollte nicht unterschätzt werden. Was für große Unternehmen bereits äußerst schmerzhaft ist, kann kleine und mittelständische Unternehmen innerhalb kürzester Zeit in die Knie zwingen. In diesem Sinne ist und bleibt die Frage nach Sicherheit in der Cloud berechtigt. Die gute Nachricht: Smarte Lösungen für Dokumentenmanagement und Archivierung bieten heute bereits umfassende Maßnahmen. Dazu gehören Hochverfügbarkeitsserver in deutschen Hochsicherheits-Rechenzentren und mit AES 256 verschlüsselte HTTPS-Verbindungen, um sowohl die Cloud Archivierung selbst als auch alle Übertragungswege wirkungsvoll vor unberechtigtem Zugriff und Datenverlust zu schützen. Damit steht dem Weg in die Cloud – und für digitale Geschäftsprozesse in der Beschaffung, im Vertragsmanagement oder auch im Personalwesen – nichts mehr im Weg.

Zum Autor:

Christoph Nordmann leitet die Unternehmenskommunikation der EASY SOFTWARE AG. Mit Stationen im Gesundheitswesen und der herstellenden Industrie in der Schweiz, den Niederlanden und Deutschland verfügt er über umfangreiche Erfahrungen im Aufbau und der Leitung von Kommunikationsabteilungen und der Begleitung von Change-Prozessen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Zukunft der Ernährung: Pilze können mehr

Über die spannende Zukunft der Ernährung – insbesondere vor dem Hintergrund von mehr Nachhaltigkeit – sprachen wir mit der Vice President of Product von Mushlabs, Cathy Hutz.

Frau Hutz, was ist die Vision hinter Mushlabs?
Unsere Vision ist es, dass jeder Mensch, unabhängig von geographischen, politischen oder sozio-ökonomischen Umständen Zugang zu gesunden, vollwertigen und nachhaltigen Lebensmitteln hat. Wir wollen dies durch die Fermentation von Speisepilzen erreichen. Dafür kultivieren wir das Myzel, das unterirdisch wachsende Wurzelgeflecht der Pilze, in einer Nährlösung in Fermentern. Sobald das Myzel nach wenigen Tagen zur Ernte bereit ist, verwenden wir es anschließend als Hauptzutat in unseren Lebensmitteln, derzeit handelt es sich dabei vor allem um Fleischalternativprodukte. Dieser Ansatz bringt viele Vorteile mit sich: Ein Fermenter arbeitet unabhängig von den herrschenden Umwelteinflüssen und kann daher überall aufgestellt werden. Unser Pilzmyzel können wir mit lokalen Nebenerzeugnissen aus der Agrar- und Lebensmittelindustrie füttern. All das ermöglicht den Aufbau einer dezentralen und lokal ausgerichteten Produktion. Dadurch wollen wir unsere Produkte nicht nur nachhaltiger produzieren, indem wir bspw. Transportstrecken so gering wie möglich halten, sondern auch zu möglichst erschwinglichen Preisen anbieten. Zudem können wir so robuste Produktionsprozesse schaffen und die lokale Versorgungssicherheit verbessern.

Cathy Hutz, Co-founder von Mushlabs sieht die Fermentation von Myzel für Fleisch und Fleischersatz für den industriellen Maßstab geeignet.

Insbesondere Fleisch und Fleischersatz hat einen hohen CO2-Fußabdruck. Wie gestaltet sich das bei Ihrer Methode und in welchen Mengen kann skaliert werden?
Fermentation, insbesondere mit Verwendung von Nebenerzeugnissen aus der Agrar- und Lebensmittelindustrie, ist weltweit eines der nachhaltigsten und effizientesten Verfahren zur Lebensmittelherstellung. Wir können alle Ressourcen mit maximaler Effizienz nutzen und so Zeit, Energie, Wasser und CO2 sparen. Für uns ist es aber auch wichtig, Nachhaltigkeit über CO2 hinaus zu betrachten. Wir brauchen in unserem Produktionsprozess wenig Flächennutzung und setzen keinerlei Pestizide oder Düngemittel ein. Damit geben wir vor allem Raum für mehr Artenvielfalt, welche für das Gleichgewicht unseres Planetens essentiell ist und in eine problematische Schieflage geraten ist.
Konkrete Zahlen zu unserem CO2 Fußabdruck können wir geben, sobald sich das Produkt auf dem Markt befindet und der gesamte Prozess auf industriellem Level etabliert ist. Unseren Produktionsprozess haben wir bereits auf industriellem Maßstab in diversen Testläufen bewiesen, die Umsetzbarkeit ist demnach sicher.

Die weltweite Ernährung insbesondere in Entwicklungs- und Schwellenländern wird zunehmend zur Herausforderung. Welchen Beitrag könnten Sie dazu in Zukunft leisten?
Wie bereits beschrieben kann unsere Produktionstechnologie unabhängig von Umwelteinflüssen überall auf der Welt eingesetzt werden. Zudem können lokale Nebenerzeugnisse aufgewertet und für die Kultivierung von Myzel in Fermentern vor Ort genutzt werden. All das kann unser derzeitiges Lebensmittelsystem positiv beeinflussen und es fairer, effizienter, nachhaltiger und sicherer machen.

Wie sehr waren diese Faktoren aus Ihrer Sicht entscheidend für den Einstieg des EIC-Accelerator?
Entscheidende Kriterien für die Auswahl für die EIC Förderung sind die Bereitstellung einer innovativen und strategisch relevanten Technologie für Europa, ein hervorragendes Scale-up-Potential, eine gut durchdachte Kommerzialisierung-Strategie und ein Beitrag für die Erreichung der Sustainable Development Goals. Wirtschaftlichkeit, Innovativität und Nachhaltigkeit müssen Hand in Hand gehen.

Bitte geben Sie uns einen kurzen Ausblick, wie sich Ihr Unternehmen weiterentwickeln könnte, gerade in dieser herausfordernden Zeit.
Aktuell befinden wir uns in der Kommerzialisierungsphase. Wir sind dabei, das Upscaling unserer Produktionsprozesse auf ein industrielles Level abzuschließen, Partnerschaften mit großen Unternehmen in Europa, den USA und Asien zu vereinbaren und die Markteinführung unseres ersten Produkts vorzubereiten. Die Herausforderungen an die Agrar- und Lebensmittelindustrie waren selten höher: steigende Energiekosten, Verknappung von Ressourcen, klimatische Veränderungen. Wir können dabei helfen, auf all das eine Antwort zu finden. Daher halten wir unsere Arbeit für wichtiger denn je.
Zudem wollen wir unser Team weiterhin so stark wachsen lassen wie bisher. Für nahezu jeden Bereich in unserem Unternehmen suchen wir weitere versierte Experten aus aller Welt. Aktuell arbeiten bei Mushlabs 50 Mitarbeiter aus über 20 Ländern.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Big Data und die Datafizierung der Welt

von Klaus Wiegerling

Ethische Grundprobleme im Umgang mit großen Datenmengen

Die moderne Informatik entstand aus einer Zusammenführung mathematischer und ingenieurswissenschaftlicher Interessen, was sich im Namen der Disziplin artikuliert, der sowohl den Zusammenhang von Information und Mathematik als auch von Information und Automation zum Ausdruck bringt. Von ihren Anfängen an ist sie durch vier Charakteristika gekennzeichnet:

a) Datafizierung
b) Digitalisierung
c) Formalisierung
d) Automatisierung

Datafizierung meint, dass die physikalische Außen-, die soziale Mit- und die psychische Innenwelt in Symbole bzw. berechenbare Zahlenwerte übertragen werden können, was zum Teil über sensorische Erfassungsapparaturen geschieht.

Digitalisierung meint, dass alle im Computer verfügbaren Daten miteinander verknüpft bzw. Datensätze durch Berechnungsvorgänge einer Analyse unterzogen werden können. Digitalisierung bedeutet der kalkulierende Umgang mit Daten.

Formalisierung meint, dass alle Weltverhältnisse auf eine formale Ebene übertragen werden können und dort zum Zwecke des Verstehens oder der Steuerung dieser Verhältnisse einem Kalkül unterworfen werden. Der informatische Informationsbegriff ist ein inhaltlich unbestimmter statistischer Begriff. Inhalte spielen nur vor dem Input und nach dem Output, nicht in der ‚Black Box‘ des Rechners, in der die Berechnungen stattfinden, eine Rolle.

Automatisierung meint, dass informatische Systeme den Menschen in allen Bereichen des Lebens entlasten und ihm neue Handlungsmöglichkeiten gewähren können. Arbeits- und Organisationsprozesse sollen erleichtert und verbessert werden. Aus der Automatisierung erwächst die Idee einer autonomen Technik, die uns ohne ausdrückliche Bedienung begleitet.

Zum Inhalt dieses Beitrags
Big Data: Vision, Einbettung und Genese
Artikulation vs. Desartikulation
Widerständigkeitsverlust
Transformation der Wissenschaft
Entlastung vs. Entmündigung
Entethisierung und technische Autonomie
Wandel des menschlichen Selbstverständnisses
Maßstäbe der Beurteilung

Big Data: Vision, Einbettung und Genese

Moderne Big-Data-Technologien basieren auf unterschiedlichen informatischen Ideen. Diese werden z.B. unter Begriffen wie Ubiquitous Computing oder AmbientIntelligence diskutiert. Die Idee des Ubiquitous Computing wurde 1991 von Mark Weiser eingeführt. Er bediente sich eines Konzeptes der mittelalterlichen Metaphysik. Der lateinische Begriff ‚ubiquitas‘ (Allgegenwärtigkeit) ist ein Attribut Gottes, der allein überall und gleichzeitig wirken kann. Das Konzept wurde mit perspektivischen Verschiebungen auch unter anderen Schlagworten (Pervasive Computing, Internet der Dinge) diskutiert. Es betont, dass die gesamte Mesosphäre [1] eine informatische Ausstattung erfahren soll, die uns jederzeit dienstfertig zur Verfügung steht. ‚AmbientIntelligence‘ betont die Vertraulichkeit von Informationen; der englische Begriff ‚intelligence‘ wird auch im Kontext geheimer, vertraulicher Tätigkeiten gebraucht: nicht jedes Datum steht jedem zur Verfügung.

Die unter Weisers Idee gefassten Konzepte zeichnen sich durch folgende Merkmale aus: weitgehendes Verschwinden von Hardwarekomponenten und der Mensch-System-Schnittstelle; Adaptivität und Smartness; Selbstorganisiertheit und Kontextwahrnehmung; informatische Aufladung der Mesosphäre; ubiquitäre Nutzbarkeit sowie die handlungsrelevante Verknüpfung lokaler und globaler Informationen.

Big Data erweitert die Idee der ubiquitären Nutzung von Systemtechnologien dahingehend, dass mit einem ständig wachsenden Datenmeer in einer Weise umgegangen werden soll, dass neue Welterkenntnisse in automatisierten Verfahren generiert werden – etwa wenn in der Medizin neue Relationen von Vitaldaten erkannt werden. Mit Big Data wird sowohl ein Erkenntnisanspruch als auch ein pragmatischer Anspruch verbunden. Letzterer artikuliert sich z.B. in der Idee eines maschinellen Lernens, das selbständig Probleme zu lösen vermag.

Mit Big Data wird sowohl ein Erkenntnisanspruch als auch ein pragmatischer Anspruch verbunden. Letzterer artikuliert sich z.B. in der Idee eines maschinellen Lernens, das selbständig Probleme zu lösen vermag.

Prof. Dr. Klaus Wiegerling

Mit Hilfe von Big-Data-Algorithmen soll eine datengetriebene Wissenschaft etabliert werden, die sogar die Kulturwissenschaften auf eine neue Exaktheits- und Präzisionsebene hievt, und neue Objektivitätsansprüche bis hin zur Idee einer automatisierten Wissenschaft erhebt, die sich subjektiver Ingredienzen menschlicher Akteure entledigt. Die Idee eines maschinellen Lernens, das auf dem Konzept neuronaler Netze aus den 1980er Jahren basiert, treibt die Vision einer automatisierten Wissenschaft an.

Schauen wir auf Probleme bei der Analyse und Nutzung großer Datenmengen, die v.a. aufgrund von Geltungsansprüchen zu ethischen Konflikten führen können.

Artikulation vs. Desartikulation

Mit Big Data ist eine ‚Massenideologie‘ verbunden, die daraus resultiert, dass man glaubt a) Daten wie einen unbehandelten Rohstoff behandeln und b) mit mehr Daten zwangsläufig zu präziseren Ergebnissen und letztlich einem digitalen Double wirklicher Verhältnisse gelangen zu können.

In den 1990er Jahren wurde die Rede von der Informationsgesellschaft durch die von der Wissensgesellschaft abgelöst. Während man erstere als eine Gesellschaft des Sammelns von Informationen als bewertete Daten sah, verstand man unter Wissensgesellschaft eine Gesellschaft, die Informationen zum Zweck der Anwendung des Wissens hierarchisiert und relationiert. Die aktuelle Rede von der Datengesellschaft unterbietet die von der Informationsgesellschaft, insofern es jetzt um das Sammeln unbewerteter Daten geht. Diese Rede gründet jedoch in einem Missverständnis. Daten sind Ergebnis eines Sammelprozesses, der gerahmt ist, zum einen durch die Intention der Datensammler, zum anderen durch die daran ausgerichtete Sensorik. Überall wo Daten erhoben werden, findet ein Selektionsprozess statt. Daten werden als relevant innerhalb eines Erfassungsbereichs gesammelt und artikuliert oder als irrelevant desartikuliert. Wie bei einem Richtmikrofon werden Störgeräusche quasi herausgefiltert. Wenn ein Unternehmen Datensätze, die für seine Zwecke nicht mehr nutzbar sind, veräußert, kauft das daran interessierte Unternehmen keinen Kessel Buntes, sondern Daten, deren Rahmung für es von Interesse ist. Der Wert einer Datensammlung ergibt sich aus der Sammelintention und der damit verbundenen Rahmung.

In allen Datenerfassungsprozessen spielt die Artikulation und Desartikulation von Daten eine entscheidende Rolle, was auch für Erkenntnisprozesse gilt. Erkenntnis ist Ausdruck von Artikulationen und Desartikulationen. Deshalb ist es auch falsch anzunehmen, dass ein ‚mehr‘ an Daten automatisch zu besseren Einsichten oder gar zu einem Double der Weltverhältnisse führt. Man kann die Welt nicht verdoppeln, sie ist sowohl im Mikrobereich als auch im Makrobereich unendlich differenzier- bzw. relationierbar. Jeder Zugriff auf Daten ist ein perspektivischer. Sammelprozess wie Erkenntnis sind an Intentionen gebunden. Die Bewertung von Sachverhalten und die damit einhergehende Einrichtung der Datenerfassungssysteme gehen jedem Sammelprozess voraus.

Widerständigkeitsverlust

Das grundlegendste Problem ergibt sich aus dem Versuch große Datenmengen zu nutzen, um uns mit Hilfe ihrer permanenten Analyse und selbständig agierender Systeme von der Widerständigkeit der Welt zu befreien. Fortgeschrittene Informationstechnologien sollen uns quasi in ein Schlaraffenland führen, in dem uns die gebratenen Tauben zum Mund fliegen.

Wirklichkeit ist an die Erfahrung von Widerständigkeit gebunden, die unserem Form- bzw. Konstruktionswillen widerstreitet und auch keinem Kalkül unterworfen werden kann. Dilthey brachte den im 17. Jahrhundert beginnenden Widerständigkeitsdiskurs auf den Punkt als er Wirklichkeit als Widerstand gegen unseren Formwillen fasste. Der Diskurs, der v.a. am Übergang vom 19. auf das 20. Jh. über die Frage nach der Wirklichkeit der Außenwelt geführt wurde, kann jedoch nicht auf eine physikalische bzw. physiologische Dimensionen beschränkt werden, sondern muss auch soziale, psychologische oder ideelle bzw. logische Dimensionen einschließen. Soziale Widerständigkeit artikuliert sich z.B. in Institutionen, psychische in Handlungsblockaden und ideelle oder logische in axiomatischen Bedingungen, gegen die man nicht verstoßen kann, ohne die Theorie selbst ad absurdum zu führen.

Mit dem Widerstandsverlust geht ein Wirklichkeitsverlust einher. Wenn Technologien uns die Widerständigkeit einer Sache nicht mehr wahrnehmen lassen, können wir sie auch nicht mehr kontrollieren. War die gut sitzende Brille, die ich als Medium nicht mehr spüre, das Ideal einer integrierten Technik, so ist dieses Ideal im Zeitalter der informatischen Durchdringung der Welt zum Problem geworden. Wenn Technologie uns die Widerstandserfahrung nimmt, werden der Manipulation Tür und Tor geöffnet.

Der Glaube, dass aufgrund der Verarbeitung großer Datenmengen zuletzt auch das Ereignishafte und Singuläre, also das Historische, vorhersagbar wird, ist ein Missverständnis. Jede wissenschaftliche Analyse führt nur zu einer Typologie, nicht zum Singulären oder Ereignishaften.

Wir können auch nur mit endlich vielen Daten rechnen. Sachverhalte sind aber in unendlich vielen Perspektiven und Relationen fassbar. Wir kommen nie zur Sache an sich. Diese lässt sich nie vollständig in einem Kalkül erfassen. Was einem Kalkül unterworfen werden kann, ist, was aus einem perspektivischen Zugriff auf die Sache an Daten geliefert wird. Der Zugriff aber ist Ergebnis einer vorgängigen Bewertung der Sache.

Transformation der Wissenschaft

Werfen wir einen Blick auf die Auswirkungen von Big-Data-Technologien auf die Entwicklung von Wissenschaften. Es gibt eine Tendenz Wissenschaft als datengetriebene Tätigkeit zu etablieren. Man glaubt so die chronische Unschärfe der Geisteswissenschaft beseitigen und sie als ‚Digital Humanities‘ in eine ‚exakte‘ Wissenschaft transformieren zu können, deren Ergebnisse ähnlich wie in den Naturwissenschaften nachvollzogen werden können. Die Idee der Datengetriebenheit impliziert noch eine weitere Intention: Wissenschaft soll im Sinne einer automatisierten Wissensgenerierung betreiben werden, die Ergebnisse liefert, die von subjektiven Einsprengseln gereinigt sind. Vergessen wird dabei, dass sich Daten aus perspektivischen Zugriffen zu einem bestimmten Raum- und Zeitpunkt auf die Welt ergeben.

Für die aufgrund von Quelleninterpretationen zu ihren Ergebnissen gelangenden Geisteswissenschaften gilt freilich, dass man mit Hilfe von große Datenmassen verarbeitenden Informationssystemen die Quellenrezeption verbessern kann, etwa indem man Wortschatzanalysen macht oder Textabgleiche vornimmt. Das Ergebnis kommt aber letztlich durch die auslegende Positionierung des Wissenschaftlers zustande. Er muss die Relevanz der Quelle für seine Zeit nachweisen und seine eigene Position v.a. gegenüber seinen Fachkollegen begründen. Dies tut er mit den genutzten Quellen aufgrund einer bestimmten Bewertung, also Hierarchisierung und Relationierung von Daten. Wie aber sollen wir uns eine historische Positionierung einer Systemtechnologie vorstellen, wie ihr Selbstverständnis als historische Entität? Es gibt in der ‚Sozialen Robotik‘ Überlegungen robotische Systeme mit einer eigenen Geschichte auszustatten, indem das an einem bestimmten Ort und zu einer bestimmten Zeit Daten erfassende und interagierende System seine spezifischen ‚Erfahrungen‘ in abrufbarer Weise speichert. Das ‚individualistisch‘ konzipierte System wäre dann zwar an bestimmte Handlungssituationen und Handlungspartner adaptiert, seine Ergebnisse und Aktionen wären dann aber nicht mehr so angelegt, dass sie das Situative auf ein Allgemeines transzendieren. Allgemeingültige Befunde würden nicht mehr notwendigerweise geliefert werden. Dies mag in Alltagssituationen nützlich sein, nicht aber brauchbar in wissenschaftlichen Kontexten oder Krisen.

Die Idee einer automatisierten Wissenschaft konterkariert, was Wissenschaft auszeichnet, nämlich die ständige Kritik an bestehenden Ergebnissen. Zum einen fehlt bei einer automatisierten Wissensgenerierung der Adressat der Kritik, zum anderen ist schwer vorstellbar, wie das Ergebnis eines Systems durch ein anderes System kritisiert und bewertet werden soll. Jede Bewertung setzt voraus, dass der Bewertende eigene Intentionen artikuliert und verfolgt. Wie aber soll ein System, das unser Werkzeug ist, zu einer eigenen Intention gelangen? Und wenn es diese Intention verfolgte, wie könnte es zu einer historischen und kritischen Einschätzung von Befunden gelangen? Und warum sollte es uns nicht die Unterstützung versagen, wenn die eigenen Intentionen mit den unsrigen nicht übereinstimmen?

Moderne IuK-Technologien lassen sich zum einen als Schlaraffenlandtechnologien beschreiben. Die ganze Welt soll smart und problemlos handhabbar werden, soll sich unseren Wünschen adaptieren und alles zu unserem Besten regeln.

Entlastung vs. Entmündigung

Überlastung ist eine Grundbefindlichkeit in einer hochkomplexen modernen Informationsgesellschaft. Wie Suchmaschinen uns die schnelle Nutzung des Datenmeers Internet ermöglichen, so sollen uns Big-Data-Technologien im beruflichen und privaten Alltag schnelle Unterstützung gewähren.

Der Entlastung korrespondiert ein Entmündigungspotential. Moderne IuK-Technologien lassen sich zum einen als Schlaraffenlandtechnologien beschreiben. Die ganze Welt soll smart und problemlos handhabbar werden, soll sich unseren Wünschen adaptieren und alles zu unserem Besten regeln. Wünsche sollen mit anderen bzw. allgemeinen Interessen einmoderiert werden und zwar möglichst so, dass wir davon nichts merken.

Zum anderen lassen sich fortgeschrittene IuK-Technologien als Zauberlehrlingstechnologien beschreiben, die sich unserer Kontrolle entziehen. Eine Technologie, die selbständig für uns Dinge erledigen soll, kann schon deshalb nicht mehr vollkommen kontrolliert werden, weil eine totale Kontrolle die Entlastungsfunktion konterkarieren würde. So entlasten uns moderne Systemtechnologien, nehmen uns zugleich aber auch Entscheidungen ab, womit sie zumindest potentiell unsere Autonomie gefährden. Zwar laufen nicht alle Entlastungsformen, wie im Falle eines ABS-Systems, unseren Intentionen zuwider, es gibt aber welche, die Entmündigungen gleichkommen, wenn sie dazu beitragen, dass wir unser Leben nicht mehr führen. Exemplarisch lässt sich dies an Pflegesystemen zeigen, die eine Möglichkeit des Ausstiegs aus der Systemunterstützung nicht mehr anzeigen – mit der Begründung, dass dies für Nutznießer, Pflegekräfte, Angehörige und die Gesellschaft so am besten sei.

Entethisierung und technische Autonomie

Die Idee technischer Autonomie widerstreitet der Autonomie des Nutzers. Von echter Autonomie zu sprechen verbietet sich hier schon deshalb, weil sie keine eigenen Intentionen verfolgt. Würde sie das tun, wäre sie nicht unser Werkzeug. Ein System trifft im eigentlichen Sinne auch keine Entscheidung, weil es im Sinne Peter Janichs weder Folgenverantwortlichkeit noch Zwecksetzungsautonomie kennt. Ein System rechnet und ‚entscheidet‘ sich für das Richtige oder Wahrscheinliche. Von Systementscheidung bei Scoringverfahren lässt sich nur sprechen, insofern wir die ‚Entscheidung‘, die aus einem Rechenergebnis erfolgt, als solche anerkennen. Die Gründe für die Entscheidung liegen aber bei denen, die das System einrichten oder nutzen. Prinzipiell lässt sich sagen, dass je größer die ‚Autonomie‘ einer Systemtechnologie ist, desto mehr Einbußen unsere eigene Autonomie erleidet. Wenn aber Verantwortlichkeit des Handlungssubjekts, Bestimmung der Wirklichkeit, in der gehandelt werden soll, und Wahl die Voraussetzung für einen ethischen Diskurs sind, so zeigt sich, dass technische Autonomie zu ethischen Konflikten führen kann, wenn sie uns ethische Probleme nicht erkennen lässt, sie umschifft oder verbirgt.


Über den Autor

Prof. Dr. Klaus Wiegerling
war bis Ende 2019 am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT Karlsruhe tätig, seit 2020 in Pension. Er lehrt an der TU Kaiserslautern, der TU Darmstadt und der HDM Stuttgart.
E-Mail: wiegerlingklaus@aol.com


Wandel des menschlichen Selbstverständnisses

So kann es infolge der Nutzung auf Big-Data-Algorithmen beruhender, vermeintlich autonom agierender Systemtechnologien zu Verschiebungen des menschlichen bzw. gesellschaftlichen Selbstverständnisses kommen. Wenn der Mensch nur noch als Datensatz gesehen wird, der in ein digitales Double gebannt werden kann, wird er zur berechenbaren Größe. Dass ein Datendouble unerreichbar bleibt, gründet in der Widerständigkeit und damit Wirklichkeit unserer Existenz, die sich einem Kalkül entzieht. Unser Menschenbild, das auf der antiken Logostradition, der christlichen Tradition der Gottesebenbildlichkeit und der Tradition der Aufklärung basiert, artikuliert sich v.a. in drei Momenten: der Würde als Ausdruck der unverhandelbaren Einzigartigkeit des Individuums, der Autonomie als Ausdruck der Fähigkeit die Dinge des eigenen Lebens zu entscheiden und es selbständig zu führen, und schließlich die auf die Gesellschaft verweisende Subsidiaritätsidee als Ausdruck einer Absicherung gegenüber gesellschaftlicher Bevormundung einerseits und eines Beteiligungsgebots andererseits.

Das Selbstverständnis wandelt sich dahingehend, dass sich der Mensch zunehmend als eine berechenbare Entität begreift. Mediziner beklagen, dass Patienten immer öfter eine instantane Gesundung erwarten. Der Arzt soll medikamentös oder durch minimalinvasive Eingriffe den Schalter umlegen und so Gesundheit wieder herstellen. Sogar in seiner historischen Kontingenz glaubt man den Menschen zum berechenbaren Objekt machen, also vollkommen versachlichen zu können. Die Rede einer auf Comte zurückgehenden ‚social physics‘ illustriert diese Tendenz. Gesellschaftliche Verhältnisse geraten unter die Walze eines ‚social engineerings‘, das Gesellschaft als gestalt- und steuerbare Masse begreift. Systemvorgaben werden als überlegener Vernunftausdruck gesehen. Infolge der zunehmenden Aufrüstung der Menschen mit intelligenten Implantaten und Prothesen begibt man sich auf den Weg ihn nicht nur physiologisch einem Kalkül zu unterwerfen. Die vom Menschen hervorgebrachten Artefakte scheinen ihn überflügelt zu haben. Das sich im Wandel befindliche Menschenbild hat Auswirkungen auf unseren Alltag, etwa wenn Krankheit als Präventionsversäumnis mit Schuld gekoppelt oder eigene Willensentscheidungen als gesellschaftliche Störgrößen wahrgenommen werden.

Die Maßstäbe einer ethischen Beurteilung von Big-Data-Technologien sind dieselben, die an alle fortgeschrittenen Informationstechnologien anzulegen sind.

Maßstäbe der Beurteilung

Die Maßstäbe einer ethischen Beurteilung von Big-Data-Technologien sind dieselben, die an alle fortgeschrittenen Informationstechnologien anzulegen sind. Immer geht es dabei um die Frage, ob durch die Nutzung einer Technologie die Bedingungen eines ethischen Diskurses oder die Leitwerte unseres Selbstverständnisses Würde, Autonomie und Subsidiarität gefährdet, in ihrer Realisierung erschwert oder gar verunmöglicht werden.

Zu den Bedingungen des ethischen Diskurses gehört, dass es ein handelndes, also verantwortliches, Zwecke setzendes und zur Mittelwahl befähigtes Wesen gibt. Ein ethischer Diskurs ist nur möglich, wenn die Identität des Handlungssubjekts gewahrt, die Wirklichkeit, in der gehandelt werden soll, bestimmbar und es für das Handlungssubjekt eine zu verantwortende Wahl gibt.

In normativer Hinsicht ist zu fragen, ob die Würde und Autonomie des Handlungssubjekts gefährdet und die Möglichkeit einer subsidiären Gesellschaftsorganisation aufgehoben wird. Würde kann gefährdet sein, wenn der Mensch durch technische Anwendungen nicht mehr in seiner Einzigartigkeit gesehen wird, Autonomie, wenn es zu einem Widerstreit zwischen der Autonomie des Menschen und der von ihm hervorgebrachten Artefakte kommt, und Subsidiarität, wenn menschliches Handeln durch systemische Regelfunktionen und Automatismen ersetzt wird.

Fußnoten

[1] Die Mesosphäre ist die Sphäre, in der wir unmittelbar agieren können, ohne mediale Hilfsmittel, ohne Werkzeuge, sozusagen die natürliche Lebenssphäre (die freilich nicht mehr so natürlich ist). Wir können diese Sphäre sinnlich erfassen und in ihr quasi körperlich wirken. Davon unterscheidet man die Makrosphäre, etwa das Gebiet der Astrophysik und die Mikrosphäre, etwa das Gebiet der Atomphysik oder Mikrobiologie, in der man ohne Hilfsmittel weder etwas wahrnehmen, noch in ihr agieren kann. Der Begriff spielt insbesondere in der Anthropologie eine Rolle.

Vertiefende und weiterführende Literatur

Wiegerling, Klaus / Nerurkar, Michael / Wadephul, Christian (2020) (Hrsg.): Datafizierung und Big Data: Ethische, anthropologische und wissenschaftstheoretische Perspektiven, Springer VS Wiesbaden.

Wiegerling, K.: Umfassende IT-Systeme. In: Heesen, J.: Informations- und Medienethik, (Metzler) Stuttgart/Weimar 2016. S. 217-226.

Ders.: Daten, Informationen, Wissen. In: Rechtshandbuch Legal Tech (Hg. Stephan Breidenbach/ Florian Glatz). München. CH Beck 2018, S. 20-25.

Ders.: Ethische und anthropologische Aspekte der Anwendung von Big-Data-Technologien (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th.: Big Data und Gesellschaft. Eine multidisziplinäre Annäherung. Wiesbaden (Springer) 2018. S. 1- 74.

Ders.: Wissenschaft (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th. (Hg.): Big Data – Gesellschaftliche Herausforderungen und rechtliche Lösungen. (C.H.Beck) München 2019. S. 401-449.

Ders.: Ethische Fragen zu Big Data und Datafizierung in der Medizin. In: Manzeschke, A./ Niederlag, W.:Ethische Perspektiven auf Medizin- und Informationstechnik. Berlin 2020 (de Gruyter).

Dieser Beitrag stammt aus dem Kompendium Digitale Transformation
Kompendium Digitale Transformation von Matthias Schmidt wird unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedinungen 4.0 International lizenziert, sofern nichts anderes angegeben ist.

Zwischen Anspruch und Wirklichkeit: Das kann 5G     

 

Autor: Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland

Dem neuesten Mobilfunkstandard 5G werden Wunderkräfte zugesprochen. Er soll die Funklöcher in Deutschland stopfen, das Smartphone neu erfinden, die Industrie revolutionieren und sogar die Welt retten. Oder anders formuliert, für mehr Nachhaltigkeit, eine saubere Umwelt und soziale Gerechtigkeit sorgen. Nur: Viele Erwartungen an 5G sind überzogen, einige Vorstellungen sogar schlichtweg falsch. Fakt ist, der jüngste Mobilfunkstandard wird durch seine zuverlässige Abdeckung und die Möglichkeit, sehr viele Geräte zu unterstützen, die Einführung von Internet-of-Things-Services in vielen Industriezweigen massiv vorantreiben.

Er wird auch dazu beitragen, unternehmenskritische Anwendungen zu ermöglichen, bei denen eine Millisekunde Verzögerung teuer wird oder sogar die Sicherheit von Menschen gefährden kann. Und er kann helfen, die Umweltbelastung zu reduzieren: In der Landwirtschaft beispielsweise werden Pestizide normalerweise nicht nur auf befallenen Stellen aufgebracht, sondern das komplette Feld wird besprüht. Werden künftig autonome Landwirtschaftsmaschinen, Sensoren, GPS-Kameratechnik, Drohnen und eben 5G eingesetzt, lassen sich Änderungen von Pflanzengesundheit, Bodenqualität und Feuchtigkeit genau erkennen und bei Bedarf die exakte Menge an Pestiziden, Wasser oder Dünger ausbringen.

Schlüsseltechnologie für die Digitalisierung

Dieses Beispiel zeigt deutlich, dass 5G nur ein Puzzleteil in dem kompletten Maßnahmenkatalog ist. Ohne Künstliche Intelligenz, Big Data und Edge Computing beispielsweise fehlen die notwendigen intelligenten Algorithmen und Daten können nicht direkt vor Ort verarbeitet und ausgewertet werden. Zudem: Technologie bleibt Technologie. Wir Menschen treiben Veränderungen voran, indem wir unser Handeln überdenken und innovative Einsatzszenarien schaffen. Nun mag 5G keine Wunder vollbringen, trotzdem ist der Mobilfunkstandard eine entscheidende Schlüsseltechnologie für die Digitalisierung von Wirtschaft und Gesellschaft. Digitalisierung wiederum wird uns – verantwortungsvoll umgesetzt – dabei helfen, neue Konzepte in der Mobilität, im Gesundheitswesen, für die Städte der Zukunft und in vielen anderen Bereichen zu realisieren und damit unseren Nachhaltigkeitszielen näher zu bringen.


„Jetzt kommt es darauf an, nicht weiter auf der Bremse zu stehen, sondern den Wirtschaftsstandort Deutschland mit Innovationen zu stärken.“

Kai Grunwitz

Für mich lautet die Frage nicht: Kann 5G unsere Welt retten? Sondern vielmehr: Können wir es uns leisten, erst einmal abzuwarten und Investitionen in Geschäftsmodelle auf Basis des Mobilfunkstandards nach hinten zu schieben? Ich denke nein. Wir laufen längst Gefahr, den internationalen Anschluss zu verlieren und damit die Möglichkeit, etwas zu bewegen. Der Innovationsstandort Deutschland steht bei Zukunftstechnologien massiv unter Druck, betroffen hiervon sind speziell zwei der deutschen Exportmotoren: Industrie und Mobilität.

Dabei sind unsere Rahmenbedingungen eigentlich perfekt. Die Regierung hat mit extra reservierten Frequenzen für Unternehmen die Möglichkeit geschaffen, eigene Campusnetze mit all ihren Vorteilen umzusetzen. Natürlich lassen sich die Ausgaben für 5G-Anwendungen nicht aus der Porto-Tasche zahlen, mit dem richtigen Anwendungsszenario rechnen sie sich langfristig. Warum auch nicht über As-a-Service-Modelle nachdenken? Das heißt, Unternehmen erwerben lediglich eine Bandbreite im 5G-Netz – und zwar privat auf dem Campus –, anstatt es selber zu betreiben.

Bislang dominieren technische Themen und Bandbreitenaspekte die Diskussion rund um 5G. Davon müssen wir weg und hin zu einem Verständnis darüber, welche innovativen Anwendungsfälle und Möglichkeiten durch die Nutzung der jüngsten Mobilfunkgeneration und künftig sogar durch 6G möglich sind. Vieles klingt heute noch nach Science-Fiction, wird aber innerhalb der nächsten Jahre Realität werden und die Wirtschaft, die Gesellschaft und unser Leben verändern. Jetzt kommt es darauf an, nicht weiter auf der Bremse zu stehen, sondern den Wirtschaftsstandort Deutschland mit Innovationen zu stärken.

https://hello.global.ntt/de-de/

Über den Autor:

https://www.trendreport.de/kai-grunwitz/

Umsatz- und Gewinnsicherung in unsicheren Zeiten

Vier Möglichkeiten, wie digitale Unternehmen in volatilen Märkten Werte freisetzen können

von Carsten Pingel, VP Commercial Strategy & Execution bei Valtech

Es ist kein Geheimnis, dass sich die Marktbedingungen in den letzten Monaten erheblich verändert haben. Die hohe Inflation, die Auswirkungen des Krieges in der Ukraine und mehrere andere Faktoren wirken sich spürbar aus und führen zu den niedrigsten Wachstumsraten seit vielen Jahren.

Diese Entwicklungen stellen digitale Führungskräfte von heute vor neue Herausforderungen. Sie müssen sich einige schwierige Fragen stellen und genau definieren, worauf sie sich konzentrieren sollten – Kanäle, Kund:innen oder Produkte. Die Lösung in einer solchen Situation besteht darin, zu vermeiden, sich in umfassende strategische Änderungen zu stürzen. Stattdessen sollten Führungskräfte die Situation ganz genau analysieren, bevor sie ihre Bemühungen auf die Bereiche konzentrieren, die zu einer Freisetzung von Werten führen können und sowohl kurz- als auch langfristig Vorteile bieten.

Mit anderen Worten: Sie müssen ihre internen Abläufe kritisch hinterfragen und ihre Prioritäten und Aktivitäten neu ausrichten. Für die meisten wird die Antwort ein verstärkter Fokus auf Umsatz- und Gewinnsicherung sein – was im Allgemeinen bedeutet, Wege zu finden, um Kosten und Misswirtschaft zu reduzieren und gleichzeitig den Gewinn zu steigern.

Aber wie genau können digitale Unternehmen diese Ziele in Zeiten der Krise und Unsicherheit erreichen?

Werte in volatilen Märkten freisetzen

Wir glauben, dass es vier Gruppen von Aktivitäten gibt, die sich auf wichtige Geschäftstreiber konzentrieren und die Unternehmen priorisieren sollten, um Innovationen voranzutreiben und Werte in volatilen Märkten freizusetzen.




Unser Autor

Carsten Pingel
VP Commercial Strategy & Execution bei Valtech


https://www.valtech.com/de-de/


1. Investieren Sie in Kernerlebnisse und Kund:innen

Anstatt Kund:innen an einen wirtschaftlichen Abschwung zu verlieren, bieten Sie ihnen einen Mehrwert, der ihre Loyalität erhöht. Jedes digitale Unternehmen kann dies erreichen, indem es seinen Kund:innen zuhört und sich auf die Dinge konzentriert, die sie von der Konkurrenz abheben – beides ist in Zeiten der Volatilität von entscheidender Bedeutung.

Der erste Schritt sollte darin bestehen, bestehende Kundensegmentierungen neu zu bewerten und den Bedarf ihrer Zielkund:innen wieder genau zu verstehen. Diesen Ansatz verfolgte eine weltweit führende Uhrenmanufaktur und Luxusmarke. Durch die Erfassung von Erkenntnissen über wichtige Kundencluster aus Website-Besuchen und Umfragen, sowie die Identifizierung von Clustern für Personalisierungszwecke auf der Grundlage nicht identifizierbarer Daten, konnte das Unternehmen ein tieferes Verständnis seiner Kund:innen entwickeln. Somit ist es jetzt in der Lage, gezieltere Werbung einzusetzen und personalisiertere Erfahrungen auf der Grundlage von nicht persönlich identifizierbaren Informationen zu schaffen.

Denken Sie daran, dass die besten Kund:innen – d. h. diejenigen, die den höchsten Wert für jedes Unternehmen bieten – diejenigen sind, die immer wiederkommen. Deshalb ist es so wichtig, in die bestmögliche Erfahrung für diese Top-Kund:innen zu investieren. Jedes Unternehmen, das Kundeninteraktionen optimieren kann, um ein erstklassiges Nutzererlebnis zu bieten, wird mit Folgegeschäften belohnt – was kurzfristig einen Mehrwert schafft und das Geschäft zukunftssicher macht.

Damit verbunden ist die Reduzierung der Kundenabwanderung. Kein Unternehmen kann es sich leisten, während eines wirtschaftlichen Abschwungs bestehende Kund:innen zu verlieren. Unternehmen sollten daher überlegen, ob ihre Strategie primär auf die erste Konversion ausgerichtet sein sollte oder wirklich dahingehend optimiert, Kund:innen auf Dauer zu binden. Im ersten Fall wird die Herausforderung, ein sinkendes Interaktionsvolumen in Profit umzuwandeln, noch schwieriger.

2. Stellen Sie Marketingprioritäten in Frage

In herausfordernden Zeiten sollte der Fokus aus Marketingsicht darauf liegen, zu analysieren, wie digitale Unternehmen ihr Budget ausgeben, um sicherzustellen, dass die Ausgaben allgemeine Unternehmensprioritäten unterstützen. Dies beginnt mit der Optimierung des Akquisitionstrichters und einer detaillierteren Herangehensweise an bezahltes, digitales Marketing. Dies wird digitalen Unternehmen dabei helfen, Wachstumspotenziale und Bereiche zu identifizieren, die verbessert werden könnten.

Wenn beispielsweise Nachfrage und Lead-Generierung Schlüsselaktivitäten sind, konzentrieren Sie sich darauf, die Taktiken zu identifizieren, die sich als am effektivsten erweisen. Unternehmen sollten bereit sein, verschiedene Ansätze zu testen und diejenigen zu optimieren, die am besten funktionieren. Je mehr Granularität und Sichtbarkeit Unternehmen hinsichtlich der Qualität ihrer Leads und der Customer Journey haben, desto mehr Möglichkeiten haben sie, um ihre Erkenntnisse anzuwenden und den ROI weiter zu verbessern.

Die Optimierung des Marketing-Mix kann ein effektiver Weg sein, um die Qualität der Online-Session zu steigern und gleichzeitig die Kosten zu senken. Dies kann durch die Nutzung von Data-Science-Fähigkeiten erreicht werden, z. B. durch die Einrichtung sich selbst generierender Reports mit Empfehlungen zu Marketingausgaben und erwartetem Uplift. Diese Reports können dann als Teil der Marketingstrategie an die jeweiligen gebotsfähigen Medienabteilungen gesendet werden.

Natürlich kommen Marketingbudgets in schwierigen Zeiten immer auf den Prüfstand. Aus diesem Grund ist es wichtig, sich ein klares Bild von den Auswirkungen der Ausgaben auf das Endergebnis zu machen. Wo haben die Ausgaben die größte Wirkung? Was sind die wertvollsten Akquisitionskanäle? Sich die Zeit zu nehmen, um zu verstehen, ob die Marketingausgaben die Zielkunden tatsächlich erreichen, ist ein wichtiger erster Schritt zur Optimierung des Betriebs.

3. Etablieren Sie Daten als Schlüsselfaktor

Eine datengesteuerte Denkweise hilft Unternehmen, selbst in Zeiten der wirtschaftlichen Rezession mit maximaler Effizienz zu arbeiten. Dies ist die Grundlage für ein Verständnis der Marktsituation. Wenn ein externer Schock eintritt, müssen digitale Führungskräfte ihre Daten und Analysen verdoppeln, um zu verstehen, was passiert und warum.

Aus analytischer Sicht kann die Beherrschung dieser Disziplin neue Kunden- und Markteinblicke liefern und zuvor verborgene Werte aufdecken. Dies ist nur mit einer datengetriebenen Denkweise möglich, bei der Verhaltensdaten von Kunden und Website-Besuchern verwendet werden, um Hypothesen zu testen und Innovationen zu unterstützen.

Beispielsweise haben wir kürzlich an einem interessanten Datenprojekt mit einem globalen B2B-Hersteller und Lösungsanbieter für die Bau- und Infrastrukturbranche gearbeitet. Um den Start seines E-Commerce-Geschäfts in mehr als 20 Märkten zu unterstützen, haben wir alle relevanten Datenquellen (Traffic-Quellen, Webverhalten, Finanzsysteme usw.) verbunden, um die richtigen Berichte und Erkenntnisse zu liefern. Das ermöglichte es den globalen Teams des Unternehmens und den lokalen Märkten, ihre Abläufe auf der Grundlage von Fakten und relevanten datengestützten Erkenntnissen zu optimieren.

Und diese Denkweise sollte auf die gesamte Customer Journey angewendet werden. Mit Daten als Kernstück ihrer Geschäftstätigkeit, werden Unternehmen in der Lage sein, Möglichkeiten aufzudecken, um zusätzliche Einnahmen zu erzielen und Conversions zu maximieren, indem sie Best Practices anwenden und Prozesse zum Testen, Messen und Lernen einrichten. Dies gilt sowohl für marginale Gewinne als auch für größere Wachstumschancen, die beide dazu beitragen, die Konkurrenz zu übertreffen.

4. Überdenken Sie interne Arbeitsweisen

Bei den letzten Aktivitäten geht es darum, Unternehmen in hocheffiziente Maschinen zu verwandeln. Wenn sich beispielsweise die Marktbedingungen ändern und Budgets oder Ressourcen begrenzt sind, ist es wichtig, die Bemühungen auf die Bereiche zu konzentrieren, die die größte Wirkung erzielen.

Dies beinhaltet auch ein wichtiges operatives Element. Indem Ineffizienzen im Arbeitsablauf identifiziert werden und Unternehmen sich die Zeit nehmen, Prozesse zu verbessern oder anzupassen – sowie interne Strukturen und Hierarchien neu zu bewerten – sind sie bestens gerüstet, um jeden Sturm zu überstehen.

Die dänische Einzelhandelsmarke Coop ist ein perfektes Beispiel für ein Unternehmen, das seine interne Vorgehensweise angepasst hat, als es mit einem Rückgang der Online-Marktnachfrage konfrontiert wurde. Es konzentrierte seine Ressourcen und sein Personal auf funktionsübergreifende Gruppen mit dem Ziel, die kommerzielle Exzellenz in drei Schlüsselbereichen voranzutreiben: Preisgestaltung, Marketing und Sortiment. Diese organisatorische Änderung half Coop, die Verkaufsleistung zu optimieren und wichtige Erkenntnisse zu gewinnen, die nun als Teil einer stärkeren operativen Aufstellung angewendet wurden.

Letztendlich ist es nicht einfach zu verstehen, wie man in Zeiten der Unsicherheit reagieren sollte. Aber es gibt viele Schritte, die digitale Unternehmen gehen können, um selbst in den schwierigsten Zeiten erfolgreich zu sein. Indem sie sich auf diese vier Bereiche konzentrieren, können sie neue Möglichkeiten nutzen und Werte freisetzen, die zuvor nicht möglich erschienen.