Steuerung internationaler Unternehmen in turbulenten Zeiten

Gastautorin Verena Maas ist Marketing Managerin bei Board Deutschland

Das Jahr 2020 hat ein noch nie dagewesenes Maß an sozialen, politischen und wirtschaftlichen Turbulenzen mit sich gebracht. Für die Management-Ebene in Unternehmen bedeutete dies, dass sie schneller denn je reagieren, Entscheidungen fällen und Lösungen liefern mussten. Dabei sind den Unternehmen und vor allem den verantwortlichen Führungskräften durchaus die Risiken der Entscheidungen bewusst, denn sie können das Geschäft von morgen entweder beleben oder gefährden. Je volatiler die Märkte und je internationaler die Unternehmen aufgestellt sind, desto schwieriger ist es, die richtigen Entscheidungen zu treffen. Deshalb brauchen die Verantwortlichen die bestmöglichen Informationen, auf denen sie ihre Entscheidungen abstützen können. Unternehmen, die ihre Daten aktuell und verfügbar haben und die das Know-How und die Technologie besitzen, die Daten effizient zu analysieren und die Ergebnisse zu nutzen, haben hier einen deutlichen Wettbewerbsvorteil.

Entscheidungen auf unterschiedlichen Ebenen

Es lohnt sich, die Arten von Entscheidungen mal näher anzuschauen und ihre Auswirkungen, aber auch ihr Zustandekommen, zu betrachten. Auf der obersten Ebene stehen strategische Entscheidungen. Dies sind Entscheidungen, die langfristige und substanzielle Auswirkungen auf ein Unternehmen haben. Dabei handelt es sich z. B. um Jahresbudgets, Übernahmen von anderen Unternehmen, den Verkauf von Unternehmensteilen oder Vermögenswerten, oder die Eröffnung neuer Geschäftszweige. Dies sind typische Entscheidungen für die oberste Managementebene. Obwohl hier in die finale Entscheidung in der Regel nur wenige Personen eingebunden sind, gibt es in der Vorbereitung der Entscheidung eine große Anzahl von Mitarbeitern, die Daten und Fakten zusammentragen und einzelne Aspekte beurteilen.

Die zweite Ebene bilden taktische Entscheidungen. Diese beschäftigen sich mit der Umsetzung der Unternehmensstrategie und haben mittel- bis langfristige Auswirkungen auf das Unternehmen. Dazu gehören Vertriebs- und Marketingstrategie, Größe und Struktur der Belegschaft oder auch große Einkaufsentscheidungen. Hier sind für die Entscheidungsfindung neben dem Top-Management in der Regel die Abteilungsleiter der betroffenen Bereiche eng eingebunden.

Schließlich gibt es die Ebene der operativen Entscheidungen. Hier fallen die Entscheidungen über die alltägliche Bereitstellung der Produkte und Dienstleistungen des Unternehmens. Diese Entscheidungen sind von kurzfristiger Natur, haben aber massiven Einfluss auf das Tagesgeschäft und die Leistungsfähigkeit des Unternehmens. Hier geht es häufig um Zuweisung von Tätigkeiten und die Sicherstellung notwendiger Ressourcen.

Vor allem die strategischen und taktischen Entscheidungen haben bei internationalen Unternehmen globale Auswirkungen. Fraglich ist allerdings, ob und wie diese Auswirkungen in den Ländern und Regionen bei der Entscheidungsfindung berücksichtigt werden. Wie muss sich ein Unternehmen aufstellen, um die globale Tragweite der Entscheidungen richtig einzuschätzen? Wie kann sichergestellt werden, dass alle Daten und Fakten, die relevant für eine Entscheidung sind, zuverlässig und zeitgerecht zur Verfügung stehen?

Technologischer Fortschritt als Treiber datenbasierter Entscheidungsfindung

Nahezu jede Aktivität in einem Unternehmen führt heute zu neuen Daten – und doch scheinen viele Unternehmen diese nicht für ihre Entscheidungsfindung zu nutzen. Bei einer kürzlich durchgeführten Umfrage von Board in Großbritannien gaben nur etwas mehr als die Hälfte (54 Prozent) der Befragten an, dass sie Geschäftsentscheidungen auf der Grundlage von Daten und Erkenntnissen treffen. 45 Prozent der Manager gaben zu, dass sie Entscheidungen meistens aus dem Bauch heraus treffen – etwas, das in einem turbulenten und schwer einzuschätzenden Markt durchaus zum Problem werden kann.

Doch welche Werkzeuge helfen dabei, fundierte Entscheidungen auf Basis valider Daten zu treffen? Fragt man in den Unternehmen nach, dann sind immer noch Tabellenkalkulationen die Hauptquelle für Informationen. Dies, obwohl sich die meisten Unternehmen bewusst sind, dass die Zahlen in Tabellenkalkulationen nicht immer fehlerfrei und zuverlässig sind. Zu komplex ist das Handling der verschiedenen Tabellenblätter, zu fehleranfällig das Zusammenführen verschiedener Tabellen und zu gering die Möglichkeiten, Änderungen und Eingaben zu protokollieren, um den Prozess sicher durchzuführen.

Mit der Zusammenführung unterschiedlicher Daten können Unternehmen zum Beispiel aus dem Handel automatisiert bessere Entscheidungen treffen.

Dabei gibt es heutzutage Technologien, die Zuverlässigkeit und Agilität in Planung, Analyse und Reporting bringen und die zudem so benutzerfreundlich sind, dass sie breite Akzeptanz bei den Mitarbeitern finden. Nicht nur in der Zentrale oder im Finanzwesen, sondern breit gefächert über Länder und Abteilungen hinweg. Wenn alle Verantwortlichen auf die gleichen, akkuraten Zahlen zugreifen können und Analysen schnell, problembezogen und ohne tiefgehende IT-Kenntnisse durchgeführt werden können, dann wird die Entscheidungsfindung deutlich fundierter und in der Folge erfolgreicher für die Unternehmen.

Die Zusammenführung unterschiedlicher Daten und die Vereinheitlichung von Business Intelligence (BI), Planung und Predictive Analytics in einer einzigen Umgebung schafft einen vollständig integrierten Ansatz für eine zuverlässige Entscheidungsfindung. Sie erzeugt eine ganzheitliche Sicht auf das Unternehmen und verbindet Strategie, Finanzen und Betrieb miteinander. Gleichzeitig bekommen die Entscheidungsträger die historischen und zukunftsorientierten Informationen, die sie für die Entscheidungsfindung benötigen.

Künstliche Intelligenz vereinfacht und beschleunigt die Analysen

Zunehmend wird Künstliche Intelligenz (KI) als Teil einer Entscheidungsfindungsplattform eingesetzt, um die datengesteuerten Ergebnisse, Simulationen und prädiktiven Modellierungsfunktionen zu unterstützen. Dank KI können Unternehmen viele grundlegende Aufgaben automatisieren und immense Datenmengen in viel kürzerer Zeit als je zuvor verarbeiten – und so bessere und genauere Ergebnisse für die Entscheidungsfindung erzielen. KI macht auch komplexe Daten leichter verständlich und auf mehr Arten verfügbar, bis hinunter zur granularsten Ebene. So bietet sie neue Möglichkeiten, Daten zu untersuchen und Erkenntnisse zu gewinnen. Damit unterstützt KI die mit der Auswertung befassten Mitarbeiter und beschleunigt den Prozess.

Mit Hilfe dieser Erkenntnisse sind die Entscheidungsträger in der Lage, bessere Entscheidungen zu treffen. Sie stützen sich ab auf große Mengen valider Daten, während ein Bauchgefühl immer nur auf einer begrenzten Menge von Informationen beruht.

Moderne Unternehmen als Vorreiter

Entscheidungen, die wichtig sind für die weitere Entwicklung von Unternehmen und die großen Einfluss darauf haben, wie erfolgreich Unternehmen in der Zukunft am Markt agieren, stehen für Manager in allen Unternehmen auf der Tagesordnung. Einige Unternehmen setzen bereits auf zeitgemäße Tools, um diese Entscheidungen bestmöglich vorzubereiten und zu unterstützen.

Puma ist eines der Unternehmen, das mit Hilfe von Board ein durchgängiges digitales Transformationsprojekt durchgeführt hat. Puma stand vor der Herausforderung, auf Trends und Nachfrageveränderungen schnell zu reagieren. Als weltweit tätiges Unternehmen mit einer langen Firmenhistorie ist Puma in vielen Ländern präsent. Jedes Land hat sein eigenes Geschäftsmodell und seine eigenen Prozesse. Diese Struktur hat zu einer Vielzahl von ERP-Systemen, Tabellenkalkulationen und anderen fragmentierten Werkzeugen geführt, deren Ergebnisse in der Zentrale zusammengefasst werden müssen. Die mangelnde Integration der Systeme führte zu Effizienzeinbußen entlang der Lieferkette. Mit der Planungslösung von Board hat Puma die Forecast-Qualität und Geschwindigkeit spürbar erhöht und ist in der Lage, Angebot und Nachfrage kontinuierlich genau auszutarieren. Es verbessert zudem die internationale Zusammenarbeit und die Effizienz von der Zielsetzung bis hin zur Ausführung.

Datenbasierte Entscheidungen für eine erfolgreiche Zukunft

Effiziente Entscheidungsfindung setzt voraus, dass Unternehmen durch eine echte Integration von interaktivem Reporting, Planung, Forecasting und Predictive Analytics die Steuerung übernehmen. Neue Technologien sind der Schlüssel, um Unternehmen einen vollständigen Überblick über die Performance des gesamten Unternehmens zu verschaffen. Sie ermöglichen es Entscheidungsträgern, alle wesentlichen Informationen von KPIs bis hin zu operativen Abläufen zu berücksichtigen und generieren sofortige Einblicke. Das ermöglicht dem Management schnelle, zuverlässige und zukunftssichere Entscheidungen

Weitere Informationen unter:
www.board.com/de

Finanzbildung trifft auf Digitale Bildung


An der MLP School of Financial Education wird erstmals in Kooperation mit der BG3000 ein Training der neuen Generation angeboten, das Finanzbildung und Digitale Bildung ganzheitlich abdeckt. Um die Digitale Transformation erfolgreich zu meistern, benötigen Young Professionals und Unternehmen ein kombiniertes Wissen aus beiden Bereichen – von zukunftsweisenden Finanzprodukten und Anlageformen im Business-Kontext über IT-Sicherheit bis hin zu digitalen Marketing- und Service-Strategien. Wir sprachen darüber mit der Geschäftsführerin Simone Stein-Lücke von BG3000 und dem Vorstandsmitglied der MLP Finanzberatung SE Jan Berg.

Warum benötigen Nachwuchskräfte in Unternehmen ein kombiniertes Wissen aus den Bereichen Finanzbildung und Digitalbildung?
Jan Berg: Beide Themenbereiche vereint, dass sie – mehr denn je – von großer Bedeutung sind, aber leider weder in Schule noch im Studium systematisch angeboten und erschlossen werden. Diese Lücke schließen wir mit unserem Angebot. Neben der fachlichen Seite sind beide Themen auch wichtig für die Weiterentwicklung von Persönlichkeiten. Wir bringen die beiden Sphären gemeinsam mit BG3000 in einem motivierenden Seminarkonzept zusammen.
Simone Stein-Lücke: Finanzbildung und Digitale Bildung sind ein winning team für Young Professionals, weil sie sich mit dem gebündelten Knowhow einen Vorsprung auf dem Arbeitsmarkt der Zukunft sichern können. Bei beiden Themen geht es darum, die enormen Risiken zu minimieren und die großen Chancen zu nutzen. Digital Natives sind meist digital naiv. Sie kommen in aller Regel naturbelassen aus den Schulen in die Betriebe. Es fehlt das Verständnis für die Grundlagen von IT, Algorithmen, dem Internet als Wirtschaftsraum, den Herausforderungen der sozialen Medien – vom Nutzungsverhalten bis hin zum Datenschutz. Wir wollen nicht weiter im Stillstand verharren und darauf warten, dass die Digitalisierung vom Himmel fällt, sondern Unternehmen motivieren, selbst den ersten Schritt zu gehen.

Welche Finanzbildungsinhalte vermittelt das neue Young Professional Training von MLP und BG3000?
Jan Berg: Im Mittelpunkt steht das Thema „Behavioral Finance“, vereinfacht gesagt geht es also darum zu erschließen, wie Anlageentscheidungen zustande kommen und welche Fehler häufig gemacht werden. Menschen wissen nicht immer alles und handeln effizient und rational, sondern menschliche Verhaltensweisen beeinflussen unser Handeln stark – gerade auch bei Finanzentscheidungen. Die Teilnehmer entwickeln also die notwendige Expertise, um das eigene Verhalten einzuordnen und Fehlentscheidungen zu reduzieren.

Welche Themen stehen im Bereich Digitalbildung auf der Agenda?
Simone Stein-Lücke: Wir sensibilisieren die jungen Talente für Datenschutz, IT-Sicherheit, Urheberrecht, Fake News und Hate Speech, Social Media Policy und nicht zuletzt für das Thema Digitale Gesundheit. Und wir inspirieren die Young Professionals für die Gestaltung von Videos, Fotos oder Text-Beiträgen. Im Fokus unserer Workshops stehen die Unternehmenswebsite und Social Media Kanäle wie Instagram oder Youtube. Mit unserem neuen Young Professional Training können sich Digital Natives zu verantwortungsvollen digitalen Vorreitern und Markenbotschaftern des Unternehmens entwickeln.

Wann und in welcher Form geht das neue Young Professional Training an den Start?
Simone Stein-Lücke: An der eintägigen Pilotveranstaltung am 15. November nehmen 24 junge Talente teil. Keynote-Speaker sind Jan Berg, Vorstand der MLP SE, und Stephanie zu Guttenberg, Pionierin für Internet-Aufklärung in Deutschland und Mitgesellschafterin der BG3000. Im ersten Workshop-Modul geht es um das Thema „Behavioral Finance: Wie unser Verhalten Finanzentscheidungen beeinflusst“. Das zweite Modul widmet sich der Fragestellung „Digital Native oder Digital Naiv?“ Young Professionals werden für digitale Risiken sensibilisiert und für Chancen inspiriert – von Internetsicherheit bis hin zu professionellen Posts für die Social Media Kanäle des Unternehmens. In einem nächsten Schritt werden wir das neue Format auch als Leadership Training für Führungskräfte und Unternehmer*innen anbieten, die sich in Richtung Zukunft positionieren und absichern wollen. Das Training ist aktives Risikomanagement im Finanzbereich und im Digitalen.Wir sind davon überzeugt, dass wir sehr relevante Themen für unsere Zielgruppen ansprechen und planen für 2022 mehrere Angebote über das Jahr verteilt.

Wer kann sich anmelden?
Jan Berg: Wir sprechen mit unserem neuen Angebot Unternehmen an. Sie haben die Möglichkeit, ihre Mitarbeiter mit dem Fokus auf Young Talents bei uns anzumelden – entweder über die Website der MLP School of Financial Education oder über BG3000.

Weitere Informationen unter:
www.bg3000.de
https://mlp-se.de/sofe/

Klimadaten und Investmentprozesse einfach integrieren

Dies ist ein Gastbeitrag von Naciye Atalay, Prof. Dr. Rüdiger Hahn und Dario Foese unter Mitwirkung der Universitäten Hamburg und Kassel sowie der Radboud University und des WWF. Die Autoren gehen der Frage nach, warum sich die Finanzbranche bei der Integration von Klimadaten in Investmentprozesse weiterhin so schwer tut. In einem Pilotprojekt zeigen die Autoren Alternativen auf.

Nachteilige Auswirkungen des Klimawandels auf unternehmerische Tätigkeiten sind bereits heute in Form von physischen Risiken, Reputationsrisiken, regulatorischen Risiken und so weiter absehbar. Entsprechend erfordern solche Risiken bereits heute eine Berücksichtigung in der Unternehmensstrategie.

Tools, wie Investoren eine zielgerichtete Klimastrategie enwickeln und berücksichtigen, sind bereits vorhanden: Die Task Force on Climate-related Disclosures (TCFD) gibt zum Beispiel Empfehlungen, wie Klimarisiken und Chancen von Banken und Finanzmarktdienstleistern in Geschäftsprozessen berücksichtigt werden können. Eine solche Integration erfordert auch, dass Klimakennzahlen von Wertpapieren und Krediten erfasst werden – was jedoch noch nicht gängige Praxis in der Branche ist. Viele Asset Manager und Banken beschränken sich lediglich darauf, die regulatorischen Mindestanforderungen im Rahmen des Reportings oder des Risikomanagements umzusetzen.

Um ein Verständnis von Gründen für die unzureichende Nutzung von Klimadaten in Investmentprozessen zu erhalten, wurden im Rahmen eines vom BMBF geförderten Forschungsprojekts 50 Tiefeninterviews mit Expert*innen aus Finanzwirtschaft und Unternehmen durchgeführt, um Beweggründe, Motivation und Hürden im Umgang mit Klimadaten in Investmentprozessen zu erforschen. Präsentiert werden im Folgenden fünf Konfliktfelder, die eine umfangreiche Klimadatenintegration hemmen.


Unternehmensbezogene Information über die ESG-Performance und zu klimarelevanten Themen tragen zum Abbau von Informationsasymmetrien bei und sind daher für die Informationseffizienz und damit Funktionsfähigkeit der Kapitalmärkte wichtig.
Eine verpflichtende unternehmensbezogene Offenlegung von Treibhausgasemissionen führt im Vergleich zu freiwilliger Offenlegung zu signifikant stärkerer Emissionsminderung betroffener Unternehmen.
Unternehmensbezogene Treibhausgasemissionen gehen in die Unternehmensbewertung ein, wobei Unternehmen mit besonders hohen Emissionen niedrigere Marktwerte aufweisen.
Aus dem Policy-Brief: „Verpflichtende klimabezogene Unternehmensberichterstattung als Mittel zur Reduzierung von CO2-Emissionen“ des CRed-Projektes.

Interne Prioritäten: Der Klimawandel ist zwar ein wichtiges Thema in der Finanzbranche, jedoch wird aktuell die Umsetzung einer Klimastrategie nicht priorisiert.

Klimaaspekte werden noch nicht branchenübergreifend in Investmentprozesse integriert. Doch warum sind Investor*innen noch unentschlossen, wenn es darum geht, materielle Emissionen in ihren Entscheidungen zu berücksichtigen? Zum einen fehlt vielen Investor*innen nach eigener Aussage das Know-How darüber, welche Klimadaten relevant sind, wie Emissionsgrenzen gezogen, Daten erfasst oder interpretiert werden. Es besteht die Herausforderung, materielle, vergleichbare und zuverlässige Emissionsdaten zu erhalten. Zum anderen ist der Prozess des Datenmanagements zeitintensiv und komplex. Der Erwerb von Klimadaten über externe Ratingagenturen ist möglich und üblich, aber mit Kosten verbunden. Zudem legen die Expertengespräche nahe, dass aktuell schlichtweg die Bereitschaft fehlt, interne Ressourcen – sowohl personelle als auch finanzielle – zu mobilisieren, um Klimainformationen umfassend im Research und bei der Auswahl der einzelnen Investments zu berücksichtigen. Dies steht im Widerspruch zu der betonten Dringlichkeit des Klimawandels – denn die Interviewpartner*innen lassen keinen Zweifel daran, dass der Klimawandel eine wichtige Herausforderung der Finanzbranche darstellt.

Investmentzeithorizont: Der Investmenthorizont ist kurzfristig, sodass die langfristig zu erwartenden Auswirkungen nicht in heutigen Entscheidungen berücksichtigt werden.

Ein maßgeblicher Faktor, der die Entscheidung zu mehr Klimadatenintegration beeinflusst, ist der Investmentzeithorizont. Denn der mitunter recht lange Zeithorizont von Nachhaltigkeitsrisiken kollidiert mit der eher kurzfristig renditeorientierten Perspektive der konventionellen Finanzmarktakteure. So werden kurz- oder mittelfristige Risiken und Veränderungen effizient und schnell im Rahmen des Asset Managements eingepreist. Langfristige Unsicherheiten werden hingegen weniger stark berücksichtigt. Klima- beziehungsweise allgemein Umweltrisiken manifestieren sich oftmals erst, wenn Investitionen und Projekte bereits abgeschlossen sind. Erschwerend kommt hinzu, dass vorhandene Tools wie Szenarioanalysen und Stresstests methodische Herausforderungen und Datenlücken aufweisen, sodass die Anfälligkeit von Investitionen für physische und transitorische Risiken schwer vorherzusagen ist.

Datenverarbeitung: Die Datenbeschaffung und Verarbeitung ist komplex und geht zulasten von Transparenz und Vergleichbarkeit.

Damit Investor*innen Umweltaspekte in ihren Investmententschiedungen berücksichtigen können, benötigen sie Daten, die über die traditionelle Bonitätseinschätzung hinausgehen. Die Beschaffung von Informationen zur Nachhaltigkeitsperformance von Unternehmen ist in aller Regel wesentlich aufwendiger als die Nutzung finanzieller Kennzahlen. Quantitative und qualitative Daten zur Nachhaltigkeitsperformance können Corporate Social Responsibility (CSR)-Berichten  entnommen werden. Anders als für Geschäftsberichte sind für diese Berichte jedoch keine unabhängige Prüfung oder einheitliche Bilanzierung vorgeschrieben. Die Berechnungsmethoden der verschiedenen Klimaprotokolle, die von Unternehmen für die Offenlegung ihrer Klimadaten genutzt werden können, geben keine spezifischen und verbindlichen Regeln vor, wie Emissionen kalkuliert und Emissionsgrenzen gezogen werden sollen. Dies verleitet unter Umständen Unternehmen dazu, Kennzahlen und Informationen zu beschönigen und für Investoren bleiben Bemessungsgrundlagen und Abgrenzungen unklar.

Somit ist es eine Herausforderung für Analysten, unternehmerische Klimadaten auszuwerten und miteinander zu vergleichen. Ein Großteil der Finanzdienstleister nutzt das breite Angebot verschiedener Ratingagenturen und erwirbt die notwendigen Klimainformationen in Form von Ratings. Nachhaltigkeitsratingagenturen sammeln relevante Nachhaltigkeitsdaten und Leistungsindikatoren und werten sie mit Blick auf die unterschiedlichen Erhebungs- und Bilanzierungsmethoden aus. Die aus unternehmerischen CSR-Berichten, durch Fragebögen, direkten Gesprächen mit Unternehmen und öffentlich zugänglichen Informationen erlangten Daten fließen in hauseigene ESG (also Environmental, Social & Governance)-Ratingprodukte ein. Die Ergebnisse können je nach Datenquelle und Bewertungsmethodik der Agenturen teilweise erheblich voneinander abweichen. Für das Investmentfondsmanagement erscheint dieser Vorgang oftmals undurchsichtig – vor allem bei fehlenden Fachkenntnissen im Klima- und Umweltbereich. Der Zugang zu unbearbeiteten und vergleichbaren Primärdaten erleichtert es dem Asset Management, Unternehmen auf ihre Nachhaltigkeitsgesichtspunkte zu bewerten – vorausgesetzt, dass ein Grundverständnis für Klimakennzahlen vorhanden ist. Wie die Interviews jedoch verdeutlichen, fehlt vielfach noch die Expertise sowie die nötigen Ressourcen, um sich dem Thema anzunehmen. Daher greift der Großteil der Investor*innen auf Ratingprodukte zurück, wobei Datennutzer*innen auch eigene Informationen hinzuziehen und die Daten re-interpretieren, um so eine Informationsbasis für Investmententscheidungen zu schaffen, die den eigenen Nachhaltigkeitsansprüchen genügen – oft jedoch zulasten von Transparenz und Vergleichbarkeit.


Anreize für klimaresiliente Investitionen schaffenKurz- und langfristige Perspektiven annähern: Datenbasis stärken
• Regulatorische Impulse setzen und Anreize schaffen
• Negative und positive Externalitäten in die Bepreisung einbeziehen, z.B. durch Ausweitung des Zertifikatehandels oder Einführung eines CO2-Preises 
• Angemessene Informationsbasis schaffen, um ein besseres Verständnis für langfristige Klimarisiken zu erreichen
• Ausweitung der Berichtspflicht im Rahmen der CSR-Berichtserstattung
Standardisierte Erhebungs- und BerichtsmethodenSzenario-Analysen und Klimastrategien
• Klare Datenverarbeitung, Transparenz und Vergleichbarkeit gewährleisten
• Standardisierte Bilanzierungsregeln und Berichtsformate in allen Klimaberichten
• Größerer Fokus auf vorausschauende Klimainformationsformate
• Szenario-Analysen und klimabezogene strategische Positionierungen nach TCFD Vorgaben können einen einheiltichen Standard schaffen
Handlungsempfehlungen

Datenformat: Den Investoren liegen vorwiegend historische Kennzahlen vor, die jedoch nicht ausreichen, um die Zukunftsfähigkeit von Investitionen zu bewerten.

Gerade um die Zukunftsfähigkeit von Unternehmen und Projekten zu bewerten, benötigen Analyst*innen Informationen über Klimastrategien und Szenarioanalysen. Mit Szenarioanalysen lassen sich anhand von komplexeren Modellen Investitionserfolge und Unternehmensstrategien hinsichtlich verschiedener Klimaprognosen evaluieren. Dies ist notwendig, damit Unternehmen die Risiken und Chancen zukünftiger Klimaentwicklungen verstehen und das Geschäftsmodell auf Resilienz prüfen können.

Immer mehr börsennotierte Unternehmen geben Einblick in ihre Klimazielsetzung und unternehmerischen Emissionsreduktionsziele. Durch die Formulierung der Strategien werden Ambitionen sicht- und messbar und bieten Investor*innen eine gute Datengrundlage, um zu ergründen, ob Unternehmen für ein mögliches Investment infrage kommen.

Auch wenn es mittlerweile zum Standardrepertoire großer Unternehmen gehört, unternehmenseigene Klimastrategien zu entwickeln, gibt es insbesondere für kleine und mittelständische Unternehmen noch Aufholbedarf. Erste Modelle werden zwar für unternehmensinterne Zwecke entwickelt und genutzt, jedoch nicht umfangreich an externe Stakeholder kommuniziert. Zum Bedauern der Investor*innen, denn Klimaszenarioanalysen und die Zielsetzungen bezüglich der Emissionsreduktion sind Informationen, die nicht nur über den Status Quo berichten, sondern auch erahnen lassen, in welcher Tiefe sich Unternehmen mit der eigenen Klimabilanz auseinandersetzten. Die ausschließliche Betrachtung von historischen Kennzahlen zur Klimaperformance ist für eine angemessene und zukuntsorientierte Bewertung nicht ausreichend.

Fehlendes Angebot und fehlende Nachfrage wird sowohl auf Unternehmens- als auch Investorenseite beklagt.

Dass aktuell noch zu wenig Klimadaten in Investmentprozessen berücksichtigt werden, führen Investor*innen auf mehrere Faktoren zurück: Unternehmen würden aktuell noch nicht die Daten in Form und Umfang bereitstellen, die für eine klimabezogene Analyse gebraucht sind. Darüber hinaus sei der Wunsch der Anleger*innen nach Investmentprodukten mit Klimabezug einfach noch zu gering – selbst wenn sich immer mehr Kund*innen mit den ESG-Aspekten ihrer Anlagen beschäftigen. Ähnlich sieht es aus der Unternehmensperspektive aus: Hier sei weder die Nachfrage der Investor*innen nach Klimadaten groß genug, noch würden Unternehmen im ausreichenden Ausmaß nach Produkten fragen, die eine umfangreiche Klimadatenerhebung voraussetzen. Erschwerend kommt hinzu, dass ein Großteil der Unternehmen aktuell noch nicht verpflichtend über Nachhaltigkeitsaspekte berichten müssen. Vor diesem Hitergrund überarbeitet die Europäische Kommission aktuell die CSR-Berichtsrichtlinie. Es ist davon auszugehen, dass die endgültige Verabschiedung des Gesetzes im kommenden Jahr erfolgt. Auch für Investoren ist in diesem Zuge von einer Verschärfung der Berichtspflichten auszugehen. In der Tat bereiten sich viele Finanzdienstleister auf die kommenden regulatorischen Pflichten im Rahmen der Offenlegungsverordnung vor. Dies schlägt sich bisher jedoch selten in realen Änderungen in Investmentprozessen nieder, da hier weiterhin vielerorts noch keine Klimadaten berücksichtigt werden. Besonders konventionelle Asset Manager und Asset Owner agieren bei der klimaverträglichen Ausgestaltung ihrer Investments zurückhaltend. So bleibt unklar, ob die zaghafte Berücksichtigung von Klimadaten in Investmentprozessen am fehlenden Angebot unternehmerischer Klimadaten scheitert, an den noch zu lockeren Regulierungsvorhaben oder an der fehlenden Nachfrage der Finanzmarktakteure nach Klimainformationen – es bleibt ein Henne-Ei-Problem.


Das Projekt CRed „Klimaberichterstattung als Instrument zur CO2-Reduktion“ wird im Rahmen der Forschung für Nachhaltige Entwicklung (FONA) des Bundesministeriums für Bildung und Forschung (BMBF) gefördert. Das dreijährige Projekt wird gemeinsam von der Heinrich-Heine-Universität Düsseldorf (Projektkoordination), dem Forum Nachhaltige Geldanlagen, der Universität Hamburg, der Universität Kassel, dem WWF Deutschland und der Radboud University (Nijmegen, Niederlande) durchgeführt. Es untersucht den Beitrag von Klimaberichterstattung zur CO2-Reduktion und erarbeitet Empfehlungen zur Verbesserung von Klimaberichterstattung, um eine CO2-neutrale Wirtschaft zu fördern.


Die Autoren:

  • Naciye Atalay, Forum Nachhaltige Geldanlagen
  • Prof. Dr. Rüdiger Hahn, Heinrich-Heine-Universität Düsseldorf
  • Dario Foese, Heinrich-Heine-Universität Düsseldorf

Digital, intelligent, nachhaltig: Die Trends im Einkauf


Immer mehr Unternehmen packen die digitale Transformation ihrer Beschaffungsprozesse an. Was dafür spricht und welche Entwicklungen künftig im Einkauf an Einfluss gewinnen, erklärt Florian Böhme, Direktor Amazon Business DACH-/CEE Region.

Die Pandemie hat gezeigt, wie wichtig heutzutage die Digitalisierung von Geschäftsprozessen für Unternehmen ist. Das gilt auch für den Einkauf. Viele Firmen und Organisationen managen ihn bereits mithilfe digitaler Lösungen. Das belegen Zahlen von Amazon Business: Bereits 25 der 30 DAX-Konzerne in Deutschland, 54 der 60 MDAX- sowie 39 der 70 SDAX-Unternehmen arbeiten mit Amazon Business zusammen und profitieren von vereinfachten Beschaffungsprozessen. Auch 74 der Top-100-Unternehmen des Deutschen Mittelstands (DDW Ranking), Großunternehmen sowie öffentliche Einrichtungen in 96 der 100 größten deutschen Städte nutzen den Online-Einkauf.

Ob mittelständisches Unternehmen, Konzern, Kommune oder Verein: Die Digitalisierung des Einkaufs lohnt sich in jedem Fall. Ist sie vollzogen, arbeiten Unternehmen und Organisationen schneller, agiler und effizienter. Das Einkaufsbarometer Mittelstand 2021 belegt: Die Prozesskostenoptimierung ist für Mittelständler der wichtigste Treiber für die Digitalisierung im Einkauf, gefolgt von Kostensenkung und Automatisierung. Neue intelligente Lösungen wie künstliche Intelligenz und maschinelles Lernen werden zudem künftig dazu beitragen, dass Prozesse im Einkauf durch verstärkte Personalisierung und Automatisierung noch reibungsloser funktionieren.

Integrierte Suche beschleunigt den Einkauf

58 Prozent der größeren und 28 Prozent der kleineren Unternehmen nutzen laut Einkaufsbarometer Mittelstand bereits Procurement-Systeme. Optimieren lassen sich diese mithilfe zusätzlicher digitaler Beschaffungslösungen. Neben Infrastruktur, Personal oder Dienstleistungen stellt Amazon Business seinen Verkaufspartner:innen bewährte Tools wie etwa die integrierte Suche zur Verfügung. Sie bietet ihnen das gleiche Einkaufserlebnis, wie sie es von Amazon als Privatperson kennen – und lässt sich einfach in mehr als hundert Enterprise-Ressource-Planning (EPR)-Systeme integrieren.

Die Vorteile für Unternehmen und Organisationen liegen auf der Hand: Sie meistern Produktsuche und Kostenmanagement in Echtzeit, sparen kostbare Zeitressourcen und senken ihre Betriebskosten, während sie zeitgleich auf hunderte Millionen von Produkten zugreifen können. Außerdem bietet die integrierte Suche etwa die Möglichkeit, den Zugriff auf bestimmte Produktkategorien einzuschränken. Insbesondere im internationalen Kontext kann dies ein großes Plus sein, wie es beispielsweise bei der Weber Maschinenbau GmbH der Fall ist. Das weltweit agierende Unternehmen ist in der Lage, mithilfe der Suchlösung seinen Tochterfirmen ein länderspezifisches Produktangebot in vielen Sprachen zu machen. Eine Möglichkeit der Internationalisierung, die sich auch für kleinere Unternehmen lohnt, die Wert auf eine kostengünstige Lösung legen.

Elektronische Rechnungsumstellung schafft Transparenz

Eine weitere zukunftsweisende Entwicklung im Einkauf ist die elektronische Rechnungsstellung. Jedes dritte Unternehmen (33 Prozent) in Deutschland erstellt Rechnungen noch immer überwiegend oder ausschließlich in Papierform, so eine Umfrage des Digitalverbandes Bitkom. Doch die Trendwende kündigt sich an: Mittelständler nutzen zunehmend Datenaustauschprogramme wie Electronic Data Interchange (EDI) für den parpierlosen Beleg-Austausch mit ihren Lieferant:innen und treiben damit wie auch Amazon Business die digitale Transformation in diesem Bereich voran.

Besonders bei sich wiederholenden Geschäftsvorgängen mit hohem Belegvolumen rechnet sich die Umstellung auf E-Rechnungen. Ihre wahren Vorteile liegen jedoch in der automatisierten Verarbeitung. Sie hilft Unternehmen dabei, Fehler im Versand zu minimieren, sorgt für eine präzise Rechnungsverarbeitung und -archivierung und schafft Transparenz über alle Rechnungsprozesse hinweg. Von diesen Vorzügen profitiert auch die Lumare GmbH: In Zusammenarbeit mit Amazon Business führte der Online-Händler fortschrittliche B2B-Intelligence-Lösungen und automatisierte Rechnungen ein. Seitdem kann das Unternehmen das Erlebnis für seine Geschäftskund:innen kontinuierlich verfolgen und verbessern.

Ein weiterer Anreiz für Unternehmen, die digitale Transformation ihrer Rechnungsstellung anzugehen: Im B2G-Bereich ist seit November 2020 die E-Rechnung bereits Pflicht. Öffentliche Auftraggeber auf Bundesebene dürfen nur noch Rechnungen in elektronischen Formaten entgegennehmen, die der europäischen Norm EN 16931-1 entsprechen.

Single-Kreditor-Modell sichert volle Ausgabenkontrolle

Für mehr Transparenz in Beschaffungsprozessen sorgt auch das Single-Kreditor-Modell: Ein einziger Rechnungssteller wickelt alle Transaktionen der Händler:innen und Lieferant:innen ab, etwa auf einer integrierten digitalen Plattform. Diese erleichtert die elektronische Rechnungsstellung erheblich, indem sie Prozesse vereinheitlicht – etwa Versandkosten oder konsolidierte Monatsrechnungen. Das Modell ermöglicht es zudem, alle Ausgaben zu überprüfen. Mit Amazon Business können Unternehmen ihre
E-Rechnungen an einem Ort bündeln, während detaillierte Bestellinformationen auf der Kreditkartenabrechnung dem zentralen Einkauf die Kontrolle über die Ausgaben verschaffen – selbst, wenn sie dezentral an unterschiedlichen Standorten getätigt worden sind.

Nachhaltigkeit als Megatrend im Einkauf

Noch ein Trend, der sich ankündigt: Nachhaltigkeit im Einkauf. Die Studie „Zukunft des Einkaufs“ der Unternehmensberatung Inverto fand heraus: 72 Prozent der befragten Fach- und Führungskräfte meinen, dass der Trend zu mehr Nachhaltigkeit und Corporate Social Responsibility relevant für ihre Beschaffungsorganisation ist. Dass effizientes Ressourcenmanagement zum entscheidenden Wettbewerbsfaktor werden kann, zeigte sich in der Corona-Pandemie. Digitale Lösungen wurden für viele zum Rettungsanker. Ein Beispiel: Seit der Zusammenarbeit mit Amazon Business bezieht Diebold Nixdorf nur die Produkte, bei denen Amazon der Rechnungssteller ist. Das neue Tail-Spend-Management ermöglicht dem Unternehmen mehr Transparenz und spart Zeit, weil der komplizierte dezentrale Einkauf entfällt. Und als die Lieferant:innen des Unternehmens während der Corona-Pandemie Lieferschwierigkeiten – etwa bei Desinfektionsspendern – hatten, wurde der Bedarf Compliance-konform über Amazon Business gedeckt.

„Climate Pledge Friendly“ für klimabewusste Einkäufer

Die Aufgabe von Einkaufsverantwortlichen muss es also sein, digitalen und grünen Handel gemeinsam zu denken – vom umweltfreundlichen Versand über vielfältigere Vertriebspartner bis zur Unterstützung lokaler Unternehmen. Amazon hat sich entschieden, in Sachen Klimaschutz eine Führungsrolle einzunehmen und 2019 den Climate Pledge mit ins Leben gerufen. Damit verpflichtet sich Amazon, bis zum Jahr 2040 in allen Geschäftsbereichen CO2-neutral zu sein – 10 Jahre vor dem Ziel des Pariser Klimaabkommens. Mercedes-Benz hat sich dem Climate Pledge angeschlossen und liefert mehr als 1.800 Elektrofahrzeuge für Amazons Lieferflotte in Europa.

Ein konkreter Schritt, den Einkauf in Richtung Nachhaltigkeit zu steuern, ist die Zertifizierung „Climate Pledge Friendly“ von Amazon. Damit unterstützt Amazon Business Einkaufsverantwortliche dabei, Produkte nachhaltiger zu beschaffen. Ein Konzept, das nachhaltige Beschaffungsprozesse weltweit fördert. Und dem weitere folgen werden. Denn fest steht: Der Einkauf der Zukunft ist grün, intelligent und digital. Und wird für Unternehmen und Organisationen künftig zum entscheidenden Wettbewerbsfaktor. Je früher die digitale Transformation der Beschaffungsprozesse angegangen wird, desto besser die Chancen für die Zukunft.

Florian Böhme (41), verantwortet seit Dezember 2016 Amazon Business, der Service für Geschäftskunden auf Amazon.de. Der studierte Kaufmann mit MBA-Abschluss an der Open University Business School kam im Jahr 2008 zu Amazon und hatte im Unternehmen bereits unterschiedliche Positionen inne, darunter in den Bereichen Elektrogeräte und Media. Seine berufliche Karriere begann Florian Böhme beim Handelsunternehmen Karstadt sowie in unterschiedlichen Vertriebs- und Marketingpositionen bei Whirlpool.

Im Oktober fand die Amazon Business Exchange 2022, die Beschaffungskonferenz von Amazon Business virtuell statt. Interessierte können die Vorträge on demand anschauen: https://business.amazon.de/de/mehr-entdecken/veranstaltungen/abx-2021

2021 State of Ransomware Report:

Eine Studie von ThycoticCentrify zeigt, dass die Mehrheit der Unternehmen bereits einen Ransomware-Angriff erlebt hat / 93 Prozent der Befragten stellen ein spezielles Budget zur Bekämpfung der wachsenden Bedrohung bereit.

München, den 19. Oktober 2021 – ThycoticCentrify, ein führender Anbieter von Cloud-Identitätssicherheitslösungen, entstanden aus dem Zusammenschluss zweier Marktführer für Privileged Access Management (PAM) Thycotic und Centrify, zeigt in einer neuen Studie, dass Ransomware zu einer bevorzugten Methode für Cyberangriffe geworden ist: Fast zwei von drei befragten Unternehmen (64 %) gaben an, in den letzten 12 Monaten Opfer eines Ransomware-Angriffs geworden zu sein.


2021 State of Ransomware Report: 83 Prozent der Opfer zahlen für die Wiederherstellung ihrer Daten.


Die Studie mit dem Titel „2021 State of Ransomware Survey & Report: Preventing and Mitigating the Skyrocketing Costs and Impacts of Ransomware Attacks“ basiert auf den Antworten von 300 US-amerikanischen IT-Entscheidungsträgern. Der Report deckt auf, dass mehr als vier von fünf (83 %) Opfern von Ransomware-Angriffen keine andere Wahl sahen, als Lösegeld zu zahlen, um ihre Daten wiederherzustellen. 

Der Report beleuchtet, wie Unternehmen auf die wachsende Bedrohung durch Ransomware-Angriffe reagieren:

> 72 Prozent haben ihre Budgets für Cybersicherheit aufgrund von Ransomware-Bedrohungen erhöht

> 93 Prozent stellen ein spezielles Budget zur Bekämpfung von Ransomware-Bedrohungen bereit

> 50 Prozent geben an, dass sie durch einen Angriff Umsatzeinbußen und Rufschädigung erlitten haben

> 42 Prozent bestätigen, dass sie infolge eines Angriffs Kunden verloren haben

„Unsere Studie zeigt, dass Ransomware eine Bedrohung für Unternehmen jeder Größe und jeder Sicherheitsstufe darstellt“, erklärt Art Gilliland, CEO von ThycoticCentrify. „Die erste Verteidigungslinie sollten Lösungen sein, die den privilegierten Zugang sichern, einschließlich Multi-Faktor-Authentifizierung (MFA) und andere Methoden zur Durchsetzung von Zero Trust, um Möchtegern-Cyberkriminelle in Schach zu halten und mögliche Schäden zu begrenzen.“

Der Bericht enthält drei Hauptaussagen mit Empfehlungen und Ressourcen, um den Schaden eines Angriffs zu begrenzen:

  • Da so viele Unternehmen Opfer von Ransomware-Angriffen geworden sind, ist es wichtiger denn je, dass Unternehmen einen Plan für die Reaktion auf einen Vorfall erstellen. Auf diese Weise können sie vermeiden, dass sie sich in die wachsende Liste derjenigen einreihen, die das Lösegeld gezahlt haben.
  • Während die Budgets für Netzwerk- und Cloud-Sicherheitslösungen erhöht werden, müssen Unternehmen auch die Anforderungen zur Verhinderung von Exploit-Eskalation mit PAM-Sicherheit verstehen und priorisieren.
  • Die Verhinderung von Ransomware-Angriffen durch grundlegende Cybersecurity-Hygiene wie regelmäßige Backups, rechtzeitige Patches, MFA und Passwortschutz ist unerlässlich. PAM-Richtlinien zur Durchsetzung eines Least-Privilege-Ansatzes ermöglichen es den Sicherheitsteams jedoch, den Angriffspunkt zu identifizieren, zu verstehen, was passiert ist, bei der Behebung zu helfen und letztendlich wiederhergestellte Daten zu schützen

Ein kostenloses Exemplar des vollständigen 14-seitigen Berichts kann hier kostenlos heruntergeladen werden.

Über den 2021 State of Ransomware Survey & Report:

Der Bericht basiert auf den Antworten von 300 IT-Entscheidungsträgern in den USA auf eine Umfrage, die im Juli 2021 von Censuswide, einem globalen Forschungsunternehmen, durchgeführt wurde.

Weitere Informationen unter https://thycotic.com/

Pressekontakte:

Thycotic DACH

Claudia Göppel, Director Marketing EMEA

+49 177 211 8878

claudia.goeppel@Thycotic.com

PR-Agentur: Weissenbach PR

Udo Schwickal

T: +49 89 54 55 82 01

thycotic@weissenbach-pr.de

Web: www.weissenbach-pr.de

Aufmacherbild / Quelle / Lizenz
Image by Elchinator from Pixabay

Multi-Unternehmens-Management

Dies ist ein Gastbeitrag von Dr. Robert Scholderer, der sich der Frage annimmt, wie man mit Services und „Umbrella Management“ in Zeiten verschwimmender Organisationsformen und Aufgaben in den Unternehmen mehr erreichen kann.

Die digitale Transformation sorgt für zahlreiche Herausforderungen, auch auf inhaltlicher Ebene in der Unternehmensorganisation. Eine Abgrenzung in die klassischen Abteilungen macht immer weniger Sinn. Nicht zuletzt immer digitalere Geschäftsmodelle verlangen nach einer „agileren Organisation“, in der die klassischen Zuständigkeiten mehr und mehr verschwinden.

Die Unternehmensausrichtung konnte man früher auf zwei Punkte reduzieren: Entweder fällt die Entscheidung für die Rolle „Spezialist“ oder „Generalist“. Genau dieses „Oder“ gibt es nun nicht mehr. Vielmehr sind Spezialisten mit einem klaren Profil gefragt, die mit Generalisten-Leistungen auch an Kundenprojekte angrenzende Themen lösen können. Genau hier gibt es unterschiedliche Lösungsmodelle, die entsprechende Herausforderungen an das Unternehmens-Management stellen. Dieser Artikel soll zeigen, wie Generalunternehmen und Nischenanbieter zusammenwachsen bzw. sich auf dem Markt behaupten können.

Häufig, und weil eben kostenlos in der Initialphase, bekannte Modelle sind Partnerschaften, Projektverträge oder Kooperationsvereinbarungen. Man sucht sich einen Partner am Markt, der über Fähigkeiten verfügt, die man selbst nicht hat. Dadurch, dass diese Möglichkeiten günstig sind, gibt es sie in zahlreicher Form. Ihr Wirkungsradius ist genau abgegrenzt, dennoch bleiben sie ein beliebtes Mittel, um auf dem Markt größere Projekte abzuwickeln. Wer über diese kostenlosen Möglichkeiten hinausgeht und die kostenintensiven Bereiche in Erwägung zieht, kommt zur Gründung von Schwester- oder Tochtergesellschaften, macht Assetdeals und geht Beteiligungen ein. Alle Modelle ob kostenlose oder kostenintensiv halten mehrere Herausforderungen breit. Dadurch, dass die kostenintensiven zur Effizienzsteigerung ein größeres Potential tragen, werden diese im Weiteren hier verfolgt, denn die Vermischung von Strukturen findet hier am stärksten statt.

Die nächsten Abschnitte zeigen neuralgische Punkte auf, die durch das Verschwimmen von Unternehmensgrenzen viel intensiver gesteuert werden müssen.

Marketing & Vertrieb

Dr. Robert Scholderer

Das Marketing ist meist isoliert auf ein Unternehmen und dessen Schwerpunkt ausgelegt. Durch andere allokierte Gesellschaften oder Zukäufe müssen die zentralen Themen viel stärker geregelt werden. Das Kundenmanagement rückt mit der folgenden Frage in den Fokus? Haben alle Gesellschaften den gleichen Stand, welche Aktionen, Arbeiten, Lösungen oder Projekte bei dem Kunden stattfindet. Natürlich erwarten Kunden eine Haus-interne Abstimmung. Für das Business Development sind solche Informationen absolut relevant. Das Kundenmanagement umfasst ebenfalls auch den Gebietsschutz. Mit jeder Gesell- oder Partnerschaft gibt es andere Vertriebs- und Provisionsmodelle. Diese Themen benötigen plötzlich ein Management und sorgen für zusätzlichen Mehraufwand. Die Mehraufwände erstrecken sich auch in das Markenmanagement und die Markensicherung. Mit jeder Gesellschaft, jedem Logo, jedem Produktname steigt der Aufwand diese zu sichern.

Infrastruktur

Nehmen mehrere Unternehmen an der Wertschöpfungskette teil, so werden auch mehr technische Ressourcen benötigt, die man sich dann aufteilt. Bis man eine kontinuierliche Verrechnung und auch Ressourcenverwaltung hat bedarf es einiges an Aufwand. Zum Einsatz kommen Systeme (z.B. CMDB) mit denen man nachvollziehen kann,

  • welche Ressource liegt wo,
  • wer hat auf welche Ressourcen Zugriff und
  • wem gehört welche HW bzw. SW.

Zu diesen Ressourcen zählen neben den bekannten Themen wie Notebooks ergänzend Lizenzen, Domain Management, Accounts auf externen Plattformen etc. Je mehr Ressourcen geteilt werden, umso größer wird der Aufwand dies zu dokumentieren. Die Bedeutung dieser Tätigkeit zeigt sich, wenn eine Gesellschaft oder ein Mitarbeiter den Verbund verlässt. Dann müssen Zugänge gesperrt werden. Wer dann nicht weiß, wo Zugriffe möglich sind, der ist seitens der Unternehmenssicherheit einem hohen Risiko ausgesetzt.

Personal-Projekt-Management

Beim Personal-Projekt-Management wird hier ein Ressourcen-Management für Projekte bzw. Aufgabenbereiche verstanden. Agile Rahmenwerke wie SCRUM oder andere ermöglichen es, dass Mitarbeiter einer Gesellschaft mit anderen darüber verbunden sind und entsprechende Rollen im Rahmenwerk parallel zu den eigentlichen operativen Rollen einnehmen. Damit sind die Unternehmens-Strukturen immer weniger transparent und dies hat Auswirkungen für das Personal-Management. Folgende Punkte treten noch stärker als bei einzelnen Gesellschaften hervor:

  • Wer ist in welchem Projekt tätig
  • Wer ist über- oder unterfordert
  • Wer hat den Skill und kann unterstützen

Eigentlich kann nur ein übergreifendes Personal-Projekt-Management dieses Problem lösen. Dadurch, dass es aber Weisungsbefugnisse gibt, kann dies nicht lückenlos umgesetzt werden. Somit muss man sich entscheiden, ob man Lücken in Kauf nimmt oder ob z. B. Prokuristen zum Einsatz kommen, die diesen Umstand kompensieren können.

Der angrenzende Bereich Personalverwaltung, die den Mitarbeiter-Bedarf bei Löhnen, Urlauben, Weiterbildungen etc. steuern, liefert dem Personal-Projekt-Management zu und muss sich selbst auch einer komplexeren Verwaltung stellen.

Produkt-Management

Das Produkt-Management hat im Multi-Unternehmen-Management eine besondere Rolle. Die produzierten Produkte werden in unterschiedlichen Kombinationen erstellt. Dahinter verbirgt sich immer ein sogenannter Produktlifecycle. Anhand zweier Beispiele soll aufgezeigt werden, um wieviel komplexer der Produktlifecycle wird:

Beispiel 1 Softwareprodukt: Für die Herstellung des Softwareprodukts sind folgende Punkte zu klären:

  • Wer hält das Anforderungsmanagement
  • Wer programmiert
  • Wer wirkt ggf. inhaltlich mit
  • Wer assistiert
  • Wer übernimmt die Vermarktung

Beispiel 2 Veranstaltungen: Die Umsetzung eines z.B. internationalen Kongresses bedarf es folgender Klärung dieser Unternehmens-übergreifenden Punkte

  • Wer macht das Kongressmanagement
  • Wer implementiert die Technik
  • Wer supportet bei Problemen
  • Wer betreibt die Technik
  • Wer tritt als Veranstalter auf
  • Wer vermarktet die Veranstaltung
  • Wer wirkt inhaltlich mit

Die beiden Beispiele zeigen, dass jeder Bereich im Produktlifecycle aufgeteilt wird, um am Ende den gewünschten erfolgreichen Wertbeitrag (Veranstaltung, SW-Produkt) zu erhalten.

Legal

Ein im operativen Umfeld wenig sichtbarer Bereich ist der vertragliche Teil. Je mehr die Unternehmensgrenzen verschwimmen, umso diffiziler müssen Regelungen ausgearbeitet werden. Dies beginnt vom Datenschutz bis zum Kundenvertrag, der mehrere Mitwirkende bei der Wertschöpfung inkludiert. Folgende Punkte sind zu beachten, da hier ein Mehraufwand entsteht:

  • DSGVO: Übergreifender Datenschutz zwischen allen Gesellschaften
  • Haftung-AGB: Wer ist in der Haftung etc.
  • Lizenzübertragbarkeit: Einkauf bei Fa. X und genutzt von Fa. Y
  • Vertragshandling von Kundenprodukten

Die Herausforderung steckt in der Durchgängigkeit der juristischen Passagen, die dann auch noch über alle Leistungsträger hinweg implementiert werden müssen.

Controlling

Mit jedem Beitragenden in der Wertschöpfungskette wird die Verrechnung schwieriger. Die Anzahl von Protagonisten steigt und erfordert eine genaue Abrechnung. Die bereits oben genannten Punkte kumulieren sich in der Verrechnung. Von der Provision bis zur Arbeitsstunde und einer eingekauften Lizenz sind viele Aspekte zu berücksichtigen.

Zwischenfazit

Eine wie bisher geartete Trennung in „Ressorts“ wird immer schwieriger. Natürlich gibt es die klassischen Bereiche wie oben gezeigt. Aber wie in diesem Artikel diskutiert erhalten die klassischen Bereiche neue Steuerungsthemen und werden innerhalb ihres Bereichs immer stärker segmentiert, da sie z.B. über ein Outsourcing ergänzt werden.

Wie kann vor diesem Hintergrund eine Organisation, die all diesen Anforderungen Rechnung trägt, eine integrierte Lösung aussehen?

Lösung 1: Servicekopplung

Ein Verbund muss zukünftig in Services denken. Die Kopplung von Services ist deutlich einfacher als die oben gezeigte detaillierte Einzelbetrachtung. Über den Mechanismus „Service“ werden die Mehrwerte, Einsatzzwecke und auch Einsatzorte klar. Insbesondere sind die Qualität in Form von Kennzahlen und die Aufgabenteilung via Zuständigkeitsmatrizen konkret beschrieben.

Lösung 2: Umbrella-Management

Trotz der Vereinfachung über die Servicekopplung verbleiben einzelne Bereiche wie z.B. inkl. Legal und Controlling, die sich zwar als spezifische Service abbilden lassen, dabei leider im Wagen bleiben. Abhilfe schafft ein Umbrella-Management, das alle Aspekte im Blick behält. Dieses Umbrella-Management wird umgesetzt über z.B. Prokuristen, die in mehreren Gesellschaften als Handlungsbevollmächtigte eingesetzt werden.

Abschließend betrachtet sind die beiden Lösungswege ein Erfolgsgarant, um sich auf dem Markt zu behaupten. Während die Services am Markt ausgerichtet und unterschiedlich gebündelt / gekoppelt werden, stellt das Umbrella-Management einen geordneten Betrieb sicher. Genau diese Kombination ermöglicht ein effektives Wirtschaften und einen nachhaltigen Betriebsaufbau. Die Scholderer GmbH und deren angrenzenden Unternehmen hat dieses Konzept selbst implementiert und berät andere Unternehmen, wie diese Methodik erfolgreich angewendet werden kann.

Autor: Robert Scholderer
Robert Scholderer ist Gründer und Geschäftsführer studierte Mathematik und Informatik in München, promovierte in Karlsruhe und habilitierte sich an der TU Ilmenau, wo er auch als Dozent tätig ist. Seit Januar 2021 ist er Vorsitzender des IT Management Service Forums (ITSMF) in Österreich. Er ist Autor der Fach-Bestseller „IT-Servicekatalog“ und „Management von Service Level Agreements“, seine Seminare und Vorträge haben mehr als 1.000 Teilnehmer besucht.

Digitale Souveränität – Anwendungsmodernisierung auf Basis von Open Source

Autor: Volker Krause*

Der Autor Volker Krause ist Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur bei Atos.

Die öffentliche Verwaltung steht vor wachsendenden Herausforderungen, um effizienter und effektiver zu arbeiten. Das Ziel ist es, den Bürgerinnen und Bürgern sowie Unternehmen durch medienbruchfreie Prozesse innovative IT-Lösungen und IT-Services unter Berücksichtigung hoher Sicherheitsanforderungen bereitzustellen.

Um bei der Beschaffung und dem Einsatz von IT-Lösungen flexibler zu agieren, brauchen die Behörden einen unabhängigen Handlungsspielraum. Der Einsatz von Open-Source-Software in der öffentlichen Verwaltung ist ein wichtiger Schritt zu mehr digitaler Souveränität. Dadurch kann die Transformation von Verwaltungsprozessen hin zu digitalen Diensten unterstützt werden. Die Schnelligkeit und Agilität bei der Einführung neuer digitaler Dienste ist entscheidend, um den Nutzern der öffentlichen Verwaltungen bestmögliche Angebote zu bieten und die Mitarbeiterinnen und Mitarbeiter zu entlasten. Die Nutzung von State-of-the-Art-Systemen und -Technologieplattformen schafft eine hohe Flexibilität und Skalierbarkeit für aktuelle und zukünftige Anforderungen sowie eine Kostenreduzierung durch Effizienzsteigerung, unter anderem durch einen verringerten Arbeitsaufwand.

Volker Krause, Atos, Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur: „Gemeinsam mit unseren Experten, der Open-Source-Community und unseren Partnern helfen wir unseren Kunden bei der Modernisierung ihrer Anwendungen.“

Modernisierung des Handelsregisters durch den vermehrten Einsatz von Open-Source-Technologie

Als einheitliches Fachverfahren für alle 16 Bundesländer und mit EU-weiter Registerverknüpfung ist ein modularer serviceorientierter Ansatz notwendig. Der Aufbau einer übergreifenden Governance wird durch eine plattformunabhängige Anwendungssoftware erreicht.

Ein wesentlicher Bestandteil für die Anwendungsmodernisierung ist der Einsatz einer Kubernetes-basierten Container-Technologie. Die Nutzung einer Container-Plattform (beispielsweise Red Hat OpenShift) bietet Anwendern die Freiheit, sich mithilfe von Containerisierung zwischen verschiedenen Technologien zu bewegen, eine moderne Anwendungsentwicklung mit DevOps umzusetzen und Workloads überall laufen zu lassen. Darüber hinaus bieten die Open-Source-Subskription-Modelle Einsparpotenziale. Sie verbinden den Community-Gedanken mit professioneller Enterprise-Software. Außerdem werden die Flexibilität und Reaktionsfähigkeit bei der Umsetzung neuer Anforderungen in der Anwendungsentwicklung erhöht.

Die erfolgreiche Modernisierung des Handelsregisters erfordert umfassende architektonische Entscheidungen beim Einsatz von Open-Source-Komponenten:

  • In der Business-Schicht sind Java-Schnittstellen für jeden Service definiert und können eine oder mehrere Implementierungen aufweisen. Die Orchestrierung von Services erfolgt in der Laufzeit.
  • Das Angular-Framework wird zur optimalen Browserunterstützung sowie zur Nutzung von modularen und leichtgewichtigen Codes eingesetzt.
  • Die Handelsregister-Lösung interagiert mit verschiedenen Systemen unter Verwendung verschiedener Technologien (zum Beispiel SOAP- oder REST-Dienste). Über Property-Dateien oder JNDI kann die Laufzeitkonfiguration auf einfache Weise geändert werden.
  • Eine separate Security-Schicht ist für die Kommunikation mit der Benutzerrechteverwaltung verantwortlich. Dies ermöglicht einen einfachen Wechsel der zugrunde liegenden Autorisierung- und Authentifizierungsmechanismen, ohne die Server- oder Clientanwendung ändern zu müssen, zum Beispiel ein Wechsel zwischen SAFE, Active Directory oder LDAP.
  • Die feinkörnige REST-API zu den Servermodulen ermöglicht es, den durch das User-Interface orchestrierten Geschäftsablauf einfach zu ändern.
  • Durch die Verwendung einer Message Queue (RabbitMQ) ist die Anwendung nicht direkt von Nachbarsystemen abhängig. Damit kann die Anwendung ihren Teil des Anwendungsfalls jederzeit erfolgreich ausführen.
  • Als Such-Engine wird Elasticsearch eingesetzt. Dies verbessert die Suchperformance signifikant, und aufwändige Suchen beeinflussen nicht das Antwortverhalten der SQL-Datenbank.
  • Innerhalb der Fach- und Basismodule wird eine Rekombinierbarkeit durch den API-First-Ansatz ermöglicht. Dies wird durch den Einsatz des Tools Swagger erreicht. Dadurch wird eine saubere Trennung zwischen Front- und Backend erreicht, und Backend-Funktionalitäten stehen mehreren Frontend-Kontexten zur Verfügung.

Als Partner von Red Hat liefert Atos über die gesamte Wertschöpfungskette hinweg – von der Konzeption über die Implementierung bis hin zum Betrieb von Open-Source-Lösungen. Durch die Nutzung von Open Source werden Abhängigkeiten von einzelnen großen Herstellern reduziert – das stärkt die digitale Souveränität.

* Der Autor Volker Krause ist Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur bei Atos.

Digitaler Briefkasten – ein Schlüssel zu mehr Nachhaltigkeit

Spätestens seit der Pandemie und dem Arbeiten aus dem Homeoffice ist das Thema der digitalen Eingangspost ein allgegenwärtiger Trend. Dabei hat es auch das Potenzial für mehr Nachhaltigkeit im Sinne der Umwelt und der Menschen. Wie Unternehmen diese Möglichkeiten mithilfe eines digitalen Briefkastens ausschöpfen können, erklärt Alexander Schneekloth, Geschäftsführer des Digitalisierungs-Enablers Caya.

Ein digitaler Postkasten ist eine Lösung, um Briefe elektronisch zu empfangen und zur Verfügung zu stellen. Er wurde vor allem im zurückliegenden Jahr publik, als sich in vielen Unternehmen und Organisationen die Sendungen stapelten, da sie nicht immer sofort an die für sie zuständigen Mitarbeiter verteilt werden konnten, weil diese von zu Hause aus arbeiteten. Damit verbunden war eine längere Dauer der Beantwortung von Anfragen und anderen an Papierdokumente gebundenen Prozessen. Dass dies einen erheblichen Umfang hatte und noch immer hat, zeigen Zahlen der Bundesnetzagentur. Ihnen zufolge betrug die Sendungsmenge an Briefen 13,6 Milliarden im Jahre 2019. Dementsprechend gehen enorme Belastungen für die Umwelt damit einher. Denn allein der Versand eines Briefes verursacht im Durchschnitt 20 Gramm Kohlendioxid (CO2). Hinzu kommt der Verbrauch von Holz, Wasser und Energie für die Herstellung des Materials.

Digitalisierung mit Konsequenz

Werden Schreiben über einen digitalen Postkasten zugestellt, lassen sich viele dieser Punkte vermeiden. Wichtig ist auch, die Dokumente im weiteren Verlauf der Bearbeitung nicht auszudrucken, sondern konsequent digital zu handhaben – von ihrer Speicherung bis hin zum Archivieren und Teilen. Dabei hilft ein Dokumentenmanagementsystem wie die CAYA Document Cloud. Darin können die Unterlagen übersichtlich verwaltet werden. Integrierte, intuitiv bedienbare Werkzeuge wie ein PDF-Editor ermöglichen etwa das Hinzufügen von Anmerkungen, digitales Unterschreiben, das Bezahlen von Rechnungen aus der Anwendung heraus und das Übertragen von Dokumenten an andere Lösungen.

In Anbetracht dieses zweiten Aspekts ist auch Digitalisierung analoger Briefpost vorteilhaft für die Umwelt. Diese Dokumente wurden zwar nach ihrer meist elektronischen Erstellung ausgedruckt sowie physisch transportiert, jedoch lassen sich spätere papiergebundene Prozesse umgehen. Dafür können Unternehmen einen Postdigitalisierungsanbieter beauftragen und die Briefe an ein Scanzentrum weiterleiten oder umrouten lassen. Dort werden die Dokumente in einem hochautomatisierten Verfahren digitalisiert und in der Regel tagesaktuell über das Internet zur Verfügung gestellt. Fortschrittliche Anbieter verwenden dafür ein Dokumentenmanagementsystem. Relevante Informationen wie der Empfänger sowie auch der Inhalt des Briefes können mithilfe von optischer Zeichenerkennung (OCR) und künstlicher Intelligenz ausgelesen werden, sodass automatisch eine Zuordnung der Dokumente erfolgen kann und Dokumente dank Volltextsuche durchsuchbar sind. Durch das Weiterleiten der Unterlagen in andere Anwendungen stehen sie dort unmittelbar zur weiteren elektronischen Bearbeitung zur Verfügung. Tätigkeiten wie das Kopieren und manuelle Erfassen von Informationen sind nicht erforderlich. Fehlerquellen, etwa durch Abtippen von Informationen, werden reduziert. Gescannte Unterlagen, die nicht im Original benötigt werden, werden fachgerecht recycelt, sodass sie dem Wertstoffkreislauf wieder zugeführt werden. Das wirkt sich deutlich vorteilhafter auf die CO2-Bilanz aus als das klassische Abheften und letztliche Entsorgen im Hausmüll.

Auf Nummer sicher gehen

Wichtig ist, bei der Auswahl eines geeigneten Partners darauf zu achten, dass dieser in Deutschland ansässig ist, die Dokumente vor Ort verarbeitet und die Informationen in deutschen Rechenzentren speichert. Auf diese Weise können Unternehmen sichergehen, dass die Briefe den Dienstleister ohne große Verzögerung erreichen, dieser die hohen Anforderungen an die Datensicherheit erfüllt und dass sie außerdem bei Fragen einen Ansprechpartner vor Ort haben, der die Landessprache beherrscht. Verantwortungsvolle Anbieter achten darauf, dass sie umweltbewusst arbeiten.



Abschied von langweiliger Arbeit

Ein weiterer positiver Effekt: Mitarbeiter werden von monotonen Routinetätigkeiten entlastet. Dazu zählt das lautstarke, nervtötende Schreddern von Dokumenten. Das Suchen in Ordnern wird passé und das Schlangestehen in der Postfiliale, oft bis vor die Tür, seltener. Nicht zuletzt können Mitarbeiter ortsunabhängig agieren. Kollaborative Bearbeitungsmöglichkeiten führen zeitraubendes Kopieren oder Scannen ad absurdum. Gleichzeitig kann das Dokumentenmanagementsystem als Single Point of Truth dienen, sodass alle mit der gleichen Dokumentenversion arbeiten und es keine Missverständnisse bezüglich veralteter Informationen gibt. Nicht zuletzt verkürzt sich die Durchlaufzeit, etwa von Rechnungen, wodurch Unternehmen in die Lage versetzt werden, Entscheidungen zu treffen, die auf aktuellsten Informationen basieren. Sprich: Sie können schneller und qualitativ besser agieren, die Arbeit wird angenehmer und menschlicher – wichtige Aspekte in Bezug auf die zunehmend bedeutender werdende Corporate Social Responsibility (CSR).

Mit Mitarbeitern, die solche Vorteile erfahren haben, ist es anschließend leichter, die Nachhaltigkeit des eigenen Unternehmens oder der Organisation noch weiter voranzubringen. Kleine Tricks wie die Reduktion von Papierkörben in Büros können dabei zusätzlich unterstützen, wie ein Ansatz der London School of Economics gezeigt hat. Denn häufig geschehen Handlungen wie das Wegwerfen von Papier unbewusst. Sind Papierkörbe schwerer zugänglich, wird der halb vollgeschriebene Zettel vor dem Zerknüllen und Entsorgen eher ein weiteres Mal verwendet. Darüber hinaus können der Kauf von Recyclingpapier statt weißem Papier und das Einführen von digitalen Notizlösungen, wie Goodnotes, Notion oder reMarkable, sowie digitalen Whiteboards/Flipcharts, wie Lucidspark, Microsoft Whiteboard, Google Jamboard oder Prezi, und Schulungen helfen, den Papierverbrauch weiter zu reduzieren. Bewährt hat sich, wenn versierte, ausgewählte Mitarbeiter als Fürsprecher für digitale Prozesse fungieren und ihre Kollegen unterstützen.

Ein Türöffner zum Büro 4.0

Hat sich ein ausgeprägtes Nachhaltigkeitsbewusstsein entwickelt, können sich alle gemeinsam auf die Suche nach weiteren Möglichkeiten begeben, um Energie zu sparen, das Klima zu schützen und die Arbeitsbedingungen noch weiter zu verbessern. Kooperationen mit Lösungsanbietern wie ClimatePartner helfen, die eigene CO2-Bilanz zu ermitteln und anschließend eine Klimaschutzstrategie sowie verursachte CO2-Emissionen auszugleichen. Ganzheitlich aufgestellte Postdigitalisierer übernehmen auch das Digitalisieren von Papierarchiven und stellen dieses revisionssicher elektronisch bereit, sodass dieses in die aktuellen Prozesse integriert werden kann. Dadurch lassen sich viele Abläufe noch stärker automatisieren, was wiederum eine moderne Arbeitsphilosophie des Digitalzeitalters, die dem Büro 4.0 zugrunde liegt, weiter stärkt. Dieses steht für digitales Arbeiten, gestützt durch automatisierte Prozesse und künstliche Intelligenz, damit sich Menschen auf das Wichtigste konzentrieren können: Kreativität, grundlegende Entscheidungen und das Geschäft.

Die Herleitung verdeutlicht: Ein digitaler Briefkasten ist nicht nur ein Instrument, um Post elektronisch zu empfangen. Vielmehr eröffnet er Möglichkeiten, um zeitgemäß und umweltfreundlich zu arbeiten. Er kann einen hervorragenden Einstieg bilden, um Mitarbeiter für die Vorteile des Büros 4.0 zu sensibilisieren, die Papiernutzung Schritt für Schritt zu senken und wirkliche Nachhaltigkeit zu etablieren. Es gilt einzig, sich ein Herz zu fassen und die bestehenden Chancen zu nutzen.

Autor Alexander Schneekloth:
Alexander Schneekloth ist Gründer und Geschäftsführer von Caya. Caya ist ein führender Digitalisierungs-Enabler für kleine und mittelständische Unternehmen. Dazu digitalisiert Caya die tägliche Briefpost seiner Kunden und bietet mit der Document Cloud ein smartes Dokumenten-Management-System an. Mehr als 20.000 Kunden profitieren bereits insbesondere von Effizienzsteigerungen, einem einfachen, ortsunabhängigen Zugriff auf ihre Dokumente sowie einer revisionssicheren Ablage.

www.getcaya.com

Smarte Algorithmen für Produktion und Lieferketten

So rüsten sich Unternehmen für eine nicht planbare Zukunft

Von Matthias Berlit*

Unvorhersehbare Ereignisse haben zuletzt wiederholt die Lieferketten von Unternehmen unterbrochen und fein abgestimmte Produktionsplanungen durcheinandergebracht. Mathematische Modelle können solche Ereignisse zwar nicht vorhersagen, wohl aber ihre Auswirkungen abmildern, indem sie Unternehmen bei schnellen und bestmöglichen Reaktionen unterstützen. Gleichzeitig helfen sie bei der Planung in einer immer komplexeren und volatileren Welt.

Schon das Fehlen eines einzigen Bauteils vermag eine ganze Branche auszubremsen, wie die deutsche Automobilindustrie derzeit erfahren muss. In ihren Fahrzeugen überwachen und steuern mehr und mehr Computerchips die einzelnen Komponenten und Funktionen, doch weil auch andere Branchen einen hohen Chipbedarf haben, sind die wichtigen Bauteile seit Monaten knapp. Die großen Fahrzeughersteller mussten bereits ihre Produktion herunterfahren und sogar teilweise stoppen – im Frühjahr schickten sie Mitarbeiter in Kurzarbeit und im Sommer früher in die Betriebsferien. Ihre Kunden müssen sich auf längere Lieferzeiten einstellen oder Abstriche bei der Ausstattung ihres Wunschautos machen.

Verschärft wurde die Chipkrise in der ersten Jahreshälfte noch von einem heftigen Wintersturm im texanischen Austin und einem Corona-Ausbruch im malaysischen Malakka, die die Produktion bei wichtigen Halbleiterherstellern lahmlegten. Solche unvorhersehbaren Ereignisse, zu denen auch die Blockade des Suezkanals durch das Containerschiff „Ever Given“ und die Staus an großen südostasiatischen Containerhäfen zählen, haben zuletzt immer wieder die Lieferketten deutscher Unternehmen auf die Probe gestellt. Viele von ihnen überdenken deshalb nun ihre Sourcing-Strategien und versuchen, sich durch zusätzliche und regionale Lieferanten unabhängiger von einzelnen Zulieferern, Umweltereignissen und geopolitischen Auseinandersetzungen zu machen.


„Moderne Planungstools nutzen mathematische Modelle, um Ressourcen und Prozesse tagesaktuell oder in Echtzeit zu optimieren.“


* Matthias Berlit ist Geschäftsführer des Aachener Optimierungsspezialisten INFORM GmbH

Allerdings garantieren auch neue Sourcing-Strategien keine dauerhaft sichere Versorgung mit Rohstoffen und Bauteilen, denn hierzulande können unvorhersehbare Ereignisse ebenfalls die Lieferketten unterbrechen. Das hat in den vergangenen Monaten die Corona-Pandemie überdeutlich gezeigt, und das zeigen ganz aktuell auch die Hochwasser in verschiedenen Regionen Deutschlands sowie die Streiks im Güterverkehr der Deutschen Bahn. Letztlich leben wir längst in einer sogenannten VUKA-Welt – einer Welt, die volatil, unsicher, komplex und ambivalent ist und auf die sich Unternehmen einstellen müssen.

Komplexe Prozesse erfordern digitale Lösungen

Viele, vor allem technische Produkte bestehen aus hunderten oder gar tausenden Einzelteilen. Hersteller fertigen sie in aufeinander aufbauenden Produktionsschritten, noch dazu häufig in unterschiedlichen Varianten. Die Materialdisposition, Kapazitätsplanung, Transport- und Produktionssteuerung ist entsprechend komplex, und bereits kleine Ungenauigkeiten in der Planung oder geringfügige Abweichungen etwa durch fehlende Teile führen zu erheblichen Verzögerungen und hohen Kosten. Die Planungs- und Steuerungsprozesse lassen sich jedoch ausgezeichnet in mathematischen Modellen abbilden, die vorhandene Ressourcen und verfügbare Kapazitäten optimal aufeinander abstimmen und dabei alle Abhängigkeiten und Termine berücksichtigen.

Moderne Planungstools nutzen mathematische Modelle, um Ressourcen und Prozesse tagesaktuell oder in Echtzeit zu optimieren, Aufträge bei Bedarf neu zu priorisieren und bei sich ändernden Anforderungen innerhalb kürzester Zeit verschiedene Handlungsszenarien durchzuspielen. Mit ihrer Hilfe lasten Unternehmen ihre Maschinen und Anlagen besser aus, erhöhen ihre Termintreue und nutzen vorhandene Bestände bestmöglich, statt zusätzliche Sicherheitsbestände aufzubauen, die Kapital binden. Sie fällen schnellere und bessere Entscheidungen, tun sich mit der Automatisierung leichter und gestalten ihre Prozesse deutlich resilienter.  


Der Mensch würde intuitiv anders planen als ein Algorithmus. Nach seiner Planung wäre Auftrag B zwar wie gewünscht vor Auftrag C fertiggestellt – beide aber nicht innerhalb der Frist. Der Algorithmus empfiehlt daher, Auftrag B zurückzustellen, damit wenigsten Auftrag C termingerecht fertig wird.

(Quelle: INFORM)


Zwar können auch die Algorithmen keine Ereignisse wie eine Pandemie oder einen Brand bei einem Zulieferer vorhersagen, dafür treten diese zu singulär und zu plötzlich auf. Doch sie unterstützen Unternehmen bei einer schnellen und optimalen Reaktion und helfen dadurch, die Auswirkungen abzuschwächen. Die Algorithmen berechnen für die jeweilige Situation die besten Szenarien, um beispielsweise mit den noch verfügbaren Lagerbeständen möglichst viele oder strategisch wichtige Aufträge fertigzustellen.

Algorithmus schlägt Mensch

Häufig unterschätzen Unternehmen die Bedeutung digitaler Planungstools oder wissen schlicht zu wenig über deren Leistungsfähigkeit. Stattdessen setzen sie auf zeitraubende und abstimmungsintensive manuelle Verfahren oder bestenfalls Excel und verschenken enorme Chancen. Weder Erfahrung noch Bauchgefühl können mit mathematischen Modellen mithalten, denn das komplexe Prozessgeflecht mit begrenzten Ressourcen und Kapazitäten und zahlreichen Abhängigkeiten vermögen Menschen kaum zu überblicken und richtig zu bewerten. Das zeigt sich beispielhaft in der Produktionsplanung, wenn Fristen knapp bemessen sind und Menschen intuitiv wichtige Aufträge höher priorisieren. Ein modernes Planungstool würde dagegen vorschlagen, einzelne Aufträge gezielt zurückzustellen, um insgesamt mehr Aufträge termingerecht abzuschließen.

Auch ein von INFORM entwickeltes und auf Machine Learning basierendes Prognoseverfahren für die Wiederbeschaffungszeiten von Waren verdeutlicht, welches Potenzial in Algorithmen steckt. Seine Prognosen sind bis zu 70 Prozent genauer als die häufig unpräzisen internen Stammdaten im ERP-System oder die oft unzuverlässigen Angaben der Lieferanten selbst. Mit den verlässlicheren Informationen planen Unternehmen nicht nur genauer und halten zugesagte Termine besser ein, sondern sparen sich auch teure Sicherheits- und Überbestände sowie kurzfristige Notkäufe zu höheren Preisen. 

In seine Analysen bezieht das Prognoseverfahren neben historischen Daten wie die zugesagten und tatsächlichen Liefertermine früherer Bestellungen auch lieferantenbezogene Informationen wie Bestellfrequenzen und Bestellmengen ein. Dazu kommen saisonale Daten wie feiertagsbedingte Abweichungen und händlerspezifische Eigenschaften. Zu diesen zählen beispielsweise die Unternehmensgröße und die Größe der Fahrzeugflotte. Aus diesen Daten lernt der Algorithmus, eine präzise Wiederbeschaffungszeit vorherzusagen, sodass Unternehmen rechtzeitig nachbestellen können. Dabei erkennt und berücksichtigt der Algorithmus auch Eigenheiten von Lieferanten, etwa wenn diese regelmäßig mehrere kleine Bestellungen zusammenfassen, um ihre Transportkapazitäten besser auszulasten, was zu Verzögerungen bei einzelnen Bestellpositionen führen kann.

Flexible Arbeitszeiten auch für Schichtbetriebe

Ihre Stärken konnten moderne Planungslösungen während der Pandemie allerdings nicht nur bei der Planung von Einkauf, Logistik und Produktion unter Beweis stellen. In der Personaleinsatzplanung unterstützten sie Unternehmen überdies bei der Reduzierung von unnötigen Personenkontakten und halfen so, das Risiko von Ansteckungen und damit von Betriebsschließungen zu minimieren. Zum Beispiel durch Schichten mit fester Besetzung, die Kontakte zu stetig wechselnden Kollegen verhindern, oder durch gestaffelte Anfangs- und Pausenzeiten, mit denen sich größere Mitarbeiteransammlungen an Werkstoren, in Umkleiden und in Kantinen vermeiden lassen.

Über die Pandemie hinaus erlaubt es spezialisierte Software für die Personaleinsatzplanung den Unternehmen, schneller und besser auf Mitarbeiterausfälle zu reagieren und stärker die Wünsche der Mitarbeiter zu berücksichtigen. Bislang erstreckten sich flexible Arbeitszeitmodelle meist nicht bis in die Fertigungshallen – dort überwiegen nach wie vor starre Arbeitszeit- und Schichtsysteme, die mithilfe von Algorithmen allerdings deutlich flexibler gestaltet werden könnten, was zur Mitarbeitermotivation und zur Attraktivität von Arbeitsplätzen in der Produktion beiträgt.

https://www.inform-software.de/

Aufmacherbild / Quelle / Lizenz
Photo by Barthelemy de Mazenod on Unsplash

Experten im eigenen Unternehmen finden

Der Fachkräftemangel ist ein ernstes Problem. Stetig suchen Unternehmen nach den besten Mitarbeitern und generieren große Aufwände für das Recruiting. Möglicherweise lässt sich das Problem auch intern lösen, wie Gastautor Daniel Fallmann in seinem Beitrag beschreibt.

Daniel Fallmann schreibt über die größten Experten, die Unternehmen haben – und wie man sie findet… Die eigenen Mitarbeiter.

Mitarbeiter zählen zu den größten Wissensträgern im Unternehmen, doch meist sind die Kompetenzen und Erfahrungen nur den Kollegen oder Vorgesetzten im engeren Umfeld bekannt. Durch den anhaltenden Fachkräftemangel gilt es aber die Experten zu einem Thema im gesamten Unternehmen ausfindig zu machen, um das Know-how zu bündeln und Best Practices zu teilen. Denn kurzfristig extern Personal mit der gerade benötigten Expertise zu finden, gestaltet sich immer schwieriger. Es ist daher für Unternehmen umso wichtiger, die bereits vorhandenen Ressourcen optimal einzusetzen.

Das KfW-ifo-Fachkräftebarometer vom Juni 2021 zeigt, dass in Deutschland gerade in wichtigen Dienstleistungsbereichen wie Architektur- und Ingenieurbüros, Rechts- und Steuerberatung und Dienstleistungen der Informationstechnik zwischen 30 und 50 % der Unternehmen vom Fachkräftemangel betroffen sind. Daher wird ein koordinierter Umgang mit den Kompetenzen der eigenen Mitarbeiter sowohl bei der Personalauswahl als auch bei der Personalentwicklung und im Personaleinsatz zum kritischen Erfolgsfaktor. Die Informationen über Kenntnisse der Mitarbeiter sind aber nicht für jeden zugänglich. Erfahrungen aus früheren Arbeitsverhältnissen, zusätzliche Qualifikationen oder Fähigkeiten, die nicht direkt mit dem derzeitigen Beruf zu tun haben, sind lediglich in Lebensläufen oder den Personaldokumenten erfasst.

Genau hier bringt der Einsatz von intelligenten Wissensmanagementlösungen, sogenannte Insight Engines, einen großen Vorteil. Sie analysieren und verknüpfen die im Unternehmen vorhandenen Daten und stellen mittels Methoden künstlicher Intelligenz Zusammenhänge – beispielweise zwischen Personen und Sachverhalten – her. Mit einer einfachen Suchabfrage lassen sich so die bereits im Unternehmen vorhandenen Experten zu einem bestimmten Thema rasch finden und in umfassenden 360-Grad-Sichten darstellen.

Insight Engines einsetzen

Die Einführung von Insight Engines ist ohne ein aufwendiges IT-Projekt möglich und wird erfahrungsgemäß von Fachabteilungen angestoßen. Mittels sogenannter Konnektoren werden sämtliche Unternehmensdatenquellen wie beispielsweise HR-Systeme, Cloud-Services, Intranet, Datenbanken, Archive oder Fachanwendungen angebunden.

Die Insight Engine analysiert, im Rahmen der individuellen Berechtigungen der Anwender, die Daten aus den unterschiedlichen Datenquellen und interpretiert etwaige Zusammenhänge. Bei einer Recherche nach einer bestimmten Qualifikation ist sie in der Lage genau jene Personen zu extrahieren, die die konkreten Anforderungen erfüllen. Das kann jemand sein der bereits an einem bestimmten Projekt beteiligt war, ein Mitarbeiter, der durch seinen Werdegang Hintergrundwissen mitbringt, oder Experten, die durch Fortbildungen entsprechende Kompetenzen erlangt haben. Oder ganz naheliegend auch einfach jene Kollegen die laufendend zu den gefragten Qualifikationen Dokumente erfassen oder anpassen. Zusätzlich stellt die Lösung kontextrelevante Zusatzinformationen wie Auslandsaufenthalte und Publikationen zur Verfügung. Alle Ergebnisse stehen den Anwendern im Rahmen der Zugriffsrechte in einem personalisierten Dashboard bereit.

Abbildung 1: Expertensuche

Anfragen der Anwender mit künstlicher Intelligenz verstehen

Um sowohl die Anfragen der Anwender als auch die Inhalte der Dokumente zu verstehen und die benötigten Informationen aus der Datenmenge zu extrahieren, nutzen Insight Engines Technologien aus dem Bereich der Spracherkennung. Durch Natural Language Processing (NLP) und Natural Language Understanding (NLU) ist die Lösung in der Lage Anfragen in natürlicher Sprache zu verstehen, richtig zu interpretieren und korrekt auf Fragen mit „wer“, „wie“, „wo“, „was“ zu antworten.

Die Frage „Welcher meiner Mitarbeiter spricht Spanisch?“ liefert somit auch direkt die Antwort „Erika Mustermann“. Das System erkennt dabei automatisch das Fragewort, wonach konkret gesucht wird – in diesem Fall eine Person und kein Gegenstand – und extrahiert nur jene Information, die tatsächlich angefragt wurde, anstatt einer Trefferliste.

Neuronale Netze (Deep Learning) sorgen dafür, dass die Insight Engine von ihren Anwendern lernt, um dem Informationsbedarf noch exakter nachkommen zu können. Auf Basis der individuellen Arbeitsweise, dem Such- und Klickverhalten sowie vorangegangener Suchabfragen sind sie in der Lage, die Relevanz der einzelnen Treffer zu errechnen. Anhand bestimmter Parameter – zum Beispiel wie oft eine Information aufgerufen und bearbeitet wurde – berechnen sie die Relevanz der Treffer bezogen auf die Fragestellung. Bei nachfolgenden Suchabfragen stellen sie den Anwendern, die „relevanter“ eingestuften Informationen vorrangig zur Verfügung.

Abbildung 2: KI-basiertes Relevanzmodell

Fazit

Insight Engines unterstützen sowohl die HR-Abteilung als auch die Fachabteilungen bei der Suche nach den benötigten Experten. Dadurch verringern sie den Druck für jede Leistung externes Know-how zuzukaufen, da sich in vielen Fällen die Wissensträger bereits im Unternehmen befinden.

Autor:

Daniel Fallmann gründete 2005 Mindbreeze und lebt täglich als CEO den Qualitäts- und Innovationsanspruch vor. Zusammen mit seinem Team legte er bereits in den ersten Jahren den Grundstein für die hoch skalierbare und intelligente Mindbreeze InSpire Appliance. Seine Leidenschaft für Enterprise Search und Machine Learning in einem Big Data Umfeld fasziniert nicht nur die Mitarbeiter, sondern auch die Mindbreeze Kunden.

Weitere Informationen unter:
www.mindbreeze.com

New Work: Gute Noten für die IT und mehr Freude an der Arbeit

Eine internationale Matrix42-Studie zu Remote-Work-Modellen

Ein Großteil der Unternehmen fühlt sich mit Blick auf die technologischen Voraussetzungen für Remote-Work-Modelle gewappnet. Das belegt eine aktuelle Studie des Digital Workspace-Anbieters Matrix42. In Zusammenarbeit mit dem Marktforschungs-Institut YouGov befragte das Unternehmen dafür rund 4.000 Führungskräfte, IT-Professionals und Mitarbeiter ohne Führungsverantwortung in Deutschland, Frankreich, Italien, Spanien, dem Vereinigten Königreich und den USA. Das Ergebnis: Die Zukunft der Arbeit ist hybrid – doch es gibt auch noch einige Hindernisse zu überwinden.

Im Business-Alltag nimmt Remote Work mittlerweile – auch pandemiebedingt – eine große Rolle ein. Die Hälfte aller Studienteilnehmer befürwortet das Arbeitsmodell. Eine Geschäftswelt mit vollkommener Fernarbeit wird sich aber dennoch vermutlich nicht durchsetzen. Denn die optimalen Voraussetzungen für Remote Work sind noch nicht überall geschaffen. Vor allem im internationalen Vergleich zeichnen sich hier Unterschiede ab. Während über die Hälfte der Studienteilnehmer in Spanien, Frankreich, dem Vereinigten Königreich und den USA von dem neuen Arbeitsmodell sehr überzeugt sind, sehen das in Deutschland nur 33 Prozent so.


Remote Work kommt gut an – doch es gibt auch Skepsis


Skepsis gibt es vor allem aufgrund mangelhafter technologischer Voraussetzungen, um neue Arbeitsmodelle tragfähig auf- und umzusetzen. Vor allem Deutsche, Spanier und Italiener sehen hier noch Defizite. Auch der eingeschränkte persönliche Austausch unter Kolleginnen und Kollegen wird als Hürde für mobile und Homeoffice-Möglichkeiten wahrgenommen.

Immerhin 67 Prozent aller Befragten fürchten ein Verschwimmen von Beruflichem und Privatem, sollte es nur noch Remote Work geben. Gerade IT-Professionals sehen Remote Work auch mit einem kritischen Blick: Mehr als die Hälfte der befragten IT-Profis erwartet zum Beispiel Mehrarbeit in der eigenen Unit (62 Prozent).

Bessere Work-Life-Balance und flexiblere Arbeitszeiten

Große Zustimmung zeigt sich alles in Allem für hybride Arbeitsmodelle. Und zwar nicht nur in Bezug auf das Arbeitsaufkommen in IT-Abteilungen oder mit Blick auf die Work-Life-Balance. Auch aus Unternehmenssicht spricht laut der neuen Matrix42-Studie vieles für hybride Lösungen:
  Zwei Drittel der IT-Professionals berichten von einer Verbesserung der Work-Life-Balance. In der Gesamtauswertung unter allen Befragten stimmt mit 47 Prozent fast die Hälfte zu.

Vor allem in Deutschland (77 Prozent) und im Vereinigten Königreich (78 Prozent) freuen sich die Befragten über wegfallende Arbeitswege, von denen sie profitieren, wenn die Office-Präsenz nicht mehr das Maß aller Dinge ist.

Insgesamt 18 Prozent sind insgesamt bereit, einen weiter entfernten Arbeitsplatz anzunehmen, wenn es Homeoffice-Möglichkeiten gibt. 55 Prozent geben an, Familie und Beruf besser in Einklang bringen zu können, wenn sie remote arbeiten können und die entsprechende Ausstattung zur Verfügung haben.

Gutes Equipment – gutes Mitarbeitererlebnis

Oliver Bendig, CEO von Matrix42

„Hybrides Arbeiten hat nicht nur große Auswirkungen auf die Mitarbeiter, sondern auch auf die IT-Abteilungen. Support-Prozesse sind zum Beispiel komplexer, durch Fernwartung und Chatbot-Funktionen aber oft auch schneller geworden, da Laufwege zum physischen Helpdesk oder zum Mitarbeiter-Schreibtisch entfallen.

IT-Spezialisten kommt in neuen Arbeitsmodellen deshalb eine größere Bedeutung zu. Für erfolgreiches hybrides Arbeiten sind das Vorantreiben der IT-Abteilungen und die Workspace-Modernisierung heutzutage einfach unerlässlich“, so Oliver Bendig, CEO von Matrix42. „Unter anderem weist Gartner in diesem Zusammenhang auf die Besonderheiten des IT-Supports in hybriden und Remote-Umgebungen hin.“

Dass hier schon einiges angestoßen wurde, bestätigt die Studie. Über 40 Prozent der IT-Professionals berichten davon, aktiv an Homeoffice-Lösungen zu arbeiten. Dazu zählen unter anderem die Einführung digitaler Prozesse und neue Compliance-Regularien. Ein willkommener Nebeneffekt ist für viele Befragten die Verbesserung der eigenen IT-Kenntnisse durch die Einführung von Remote Work. Das bestätigt auch fast die Hälfte der IT-Professionals.

In puncto Mitarbeiterzufriedenheit gibt dieser Trend zudem Anlass zur Zuversicht: 69 Prozent der IT-Spezialisten berichten, dass IT-Lösungen zur Unterstützung von New-Work-Modellen gut angenommen würden und die Mitarbeiterinnen und Mitarbeiter gern damit arbeiteten.

Über die Studie

Matrix42 befragte im Mai 2021 in Zusammenarbeit mit dem Markt- und Meinungsforschungs-Institut YouGov rund 4.000 Führungskräfte, IT-Professionals und Mitarbeiter ohne Führungsverantwortung in Deutschland, Frankreich, Italien, Spanien, dem Vereinigten Königreich und den USA zum Thema Remote Work.

Den vollständigen Studienbericht können Sie hier lesen.

www.matrix42.com

PRESSEKONTAKT
Matrix42
Gisela Dauer
Senior Communication Manager
Tel: +49 69 66773-8378
Mobile: + 49 172 274 11 51
Fax: +49 69 66773-8380
gisela.dauer@matrix42.com

Maisberger GmbH

Sabine Tritschler
Claudius-Keller-Straße 3c
D-81669 München
Tel: +49 (0)89 419599-72
matrix42@maisberger.com
www.maisberger.de

Dies ist eine Pressemitteilung von Matrix42

Aufmacherbild/ Quelle / Lizenz
 Image by Peggy und Marco Lachmann-Anke from Pixabay

Personalisierte Einkaufserlebnisse beflügeln den Umsatz

Eine umfassende Digital Experience Platform (DXP) kombiniert Daten, Analysen, Künstliche Intelligenz und Marketing-Automatisierung. Damit können Unternehmen in sämtlichen Phasen der Customer Journey Interessierte in Echtzeit mit personalisierten Inhalten versorgen – und das auf allen Kanälen.

Von Jeroen Happel, Business Consultant bei Macaw

Jeroen Happel, der Autor dieses Beitrags, ist als Businessconsultant beim internationalen Digital-Dienstleister Macaw beschäftigt (Quelle: Macaw).

Kundinnen und Kunden nehmen heute nicht mehr auf linearem Wege Kontakt zu Unternehmen auf. Im Gegenteil: Sie informieren sich auf der Firmen-Webseite, nutzen E-Mail, kommentieren in den sozialen Medien oder verwenden eine App. Die Schwierigkeit für Firmen liegt also darin, diese unterschiedlichen Kanäle und Touchpoints zu synchronisieren, um den Interessierten ein einheitliches Erlebnis zu bieten. Ziel ist eine bestmögliche Customer Journey mit einer abgestimmten, personalisierten Ansprache, um die Kundschaft von den eigenen Produkten und Leistungen zu überzeugen und sie wieder abzuholen, wenn sie mit dem Gedanken spielen, zur Konkurrenz zu wechseln. Genau hier setzt eine Digital Experience Platform an.

Mit einer Digital Experience Platform das Erlebnis der Kundschaft steuern

Bei einer DXP steht die Orchestrierung einer integrierten, nahtlosen und relevanten digitalen Journey über alle Kanäle hinweg im Vordergrund. Dazu bündelt die Plattform alle Kontaktpunkte, angefangen von Webseiten und Newsletter über Portale und Apps bis hin zu E-Commerce-Plattformen. Sämtliche an diesen verschiedenen Touchpoints generierten Interaktionsdaten speichert die DXP-Lösung in einer einzigen Datenbank. Technische Silos gehören somit der Vergangenheit an.

Gleichzeitig ist eine DXP in der Lage, alle gesammelten Daten über das Verhalten der Kundschaft mit externen Quellen etwa aus dem CRM oder ERP, aber auch anderen Backoffice-Systemen zu kombinieren. Eine moderne DXP-Lösung auf Basis von KI legt zudem nicht nur die nächsten Aktionsschritte fest, sondern führt sie auch automatisch durch: Dazu werden die notwendigen A/B- und Content-Tests für die Conversion-Optimierung durchgeführt, Inhalte und Angebote komplett personalisiert und an Interessierte ausgespielt. Das Ziel besteht darin, zu verstehen, wie Menschen in einem bestimmten Kanal mit Inhalten interagieren, um bei der nächsten Interaktion auf einem anderen Kanal ein noch besseres Erlebnis zu bieten.

Eine DXP-Lösung bietet eine Rundumsicht auf die Kundschaft

Eine Digital Experience Platform bietet eine 360-Grad-Sicht auf die Interessierten. Sie schafft damit die Voraussetzung, um auch in immer digitaleren Zeiten wettbewerbsfähig zu bleiben. Außerdem entlastet sie die Mitarbeitenden, indem sie operative Aufgaben und Entscheidungen zur Ansprache automatisiert. Und sie löst die Herausforderung vor der Unternehmen stehen, wenn sie Tausende von Interessierten an multiplen Kontaktpunkten und in unterschiedlichen Sprachen weltweit erreichen müssen. Spätestens hier funktionieren keine Einzellösungen mehr, sondern einzig das Zusammenspiel vieler Komponenten. Um Inhalte dynamisch zu personalisieren, hilft die integrierte KI. Manuelle Prozesse sind hierfür ungeeignet.

Vier Schlüsselkomponenten zeichnen eine gute DXP aus

Dank des sogenannten Headless-Verfahrens müssen Inhalte nur einmal erstellt und können dann über alle Kontaktpunkte ausgespielt werden. Layout-Vorgaben, die ansonsten bei klassischen Content- und Channel-Management-Systemen die Produktivität ausbremsen, gehören damit der Vergangenheit an. Ein Headless-Vorgehen stellt Erlebnisse auf jedem digitalen Gerät, in allen Kanälen und an allen Touchpoints bereit – und das völlig nahtlos. Der nächste Punkt ist eine API-First-Architektur: Unternehmen können so ihre DXP in alle kritischen Geschäftssysteme wie PIM (Product Information Management) oder ERP sowie in externe Tools integrieren. Der Einsatz von Microservices wiederum stellt sicher, dass Firmen modular auf neue technische Anforderungen reagieren können, indem komplexe Systeme in kleinere, überschaubare Teile aufgeteilt werden. Zu guter Letzt sollte die DXP über ein umfangreiches Set an Tools verfügen, das alle Workflows für Content, Daten und Transaktionen abbildet.

Auswahlkriterien für eine DXP-Lösung

Der Erfolg eines DXP-Projekts hängt von drei Punkten ab: Menschen, Prozesse und Technologie. Eine DXP liefert ausschließlich dann das gewünschte Geschäftsergebnis, wenn die Plattform nahtlos in das digitale Ökosystem des Unternehmens integriert werden kann. Sie muss außerdem zukunftssicher sein und sämtliche Compliance-Anforderungen unterstützen sowie ein optimales Erlebnis für die Kundschaft bieten. Nur eine intuitiv bedienbare Lösung garantiert eine maximale Akzeptanz. Trotzdem ist eine Schulung der Mitarbeitenden sinnvoll, um sie mit den spezifischen Anwendungsfällen vertraut zu machen. Genauso wichtig ist die Auswahl des passenden Digital-Dienstleistenden. Er erarbeitet gemeinsam mit dem Unternehmen die Strategie und das visuelle Design, um das Kundenerlebnis zu optimieren.

Studien belegen, dass sich Teile der Kundschaft für ein anderes Unternehmen entscheiden, wenn sie mit der Omnichannel-Kommunikation ihres bisherigen Anbieters unzufrieden sind. Unternehmen mit einer schlechten digitalen Interaktion verlieren somit Teile der bisherigen Kundschaft und gewinnen weniger Neuinteressierte. Sich heute allein auf die Bekanntheit seiner Marke zu verlassen, kann geschäftlich zu einem hohen Risiko werden, wenn man bei der digitalen Experience versagt. Das Motto muss deshalb lauten: Delivering the next best experience. Grundlage dafür ist eine moderne Digital Experience Platform.

Weitere Informationen unter:
www.macaw.net

Automotive Ethernet Mit Vollgas in die Zukunft

Dies ist ein Gastbeitrag von Thomas Zirngibl, M.Sc., Teamleiter Cockpit Elektronik bei ARRK Engineering                                                                                                                          

Hoch- und vollautomatisierte Fahrsysteme sind längst keine Fiktion mehr, sondern stellen vielmehr die Zukunftsperspektive der Automobilindustrie dar. Dabei ist es insbesondere für fahr- und sicherheitsrelevante Komponenten wie Motorsteuergeräte, Spurhalteassistenten und Anzeigesysteme essentiell, große Datenmengen sowohl schnell als auch absolut zuverlässig zu übertragen. Denn Anzeige- oder Kommunikationsausfälle – etwa bei Navigationssystemen, Einparkhilfen oder auch Kontrollleuchten – können zu gefährlichen Situationen für den Fahrer bis hin zu Unfällen mit mehreren Beteiligten führen. Bereits heute nutzen Automobilhersteller deshalb Highspeed-Datenübermittlung via Automotive Ethernet, um einzelne Steuergeräte untereinander sowie mit dem Systemverbund als Ganzem zu vernetzen. Im Zuge der zunehmenden Hochintegration rückt auch der zukünftige Einsatz von Automotive Ethernet als Hauptbussystem in greifbare Nähe. Um dieser wachsenden Komplexität aus sicherheitstechnischem Blickwinkel gerecht zu bleiben, reichen jedoch die bisherigen Testmethoden nicht mehr aus, da sie sich lediglich auf einzelne Systemkomponenten konzentrieren und eine systemische Überprüfung außer Acht lassen. Um dieser Schwachstelle entgegenzuwirken, müssen die Testing-Strategien für Automotive Ethernet zukünftig in der Lage sein, die immer komplexer werdenden Wechselwirkungen zwischen den einzelnen Protokollen und Steuergeräten zu erfassen.

Thomas Zirngibl, M.Sc., Teamleiter Cockpit Elektronik bei ARRK Engineering

Insbesondere mit Blick auf autonomes Fahren und die zukünftigen Netzwerkarchitekturen im Fahrzeug zählt das seit vielen Jahren im Consumer-Bereich etablierte Ethernet zu den zukunftssicheren und vielversprechenden Technologien. Die Vorteile dieser Art der Vernetzung liegen in der Übertragung hoher (10GBase-T1, Standardisiert seit 2020), aber auch geringer Datenraten (10Base-T1S, Standardisiert seit 2019), in der skalierbaren Ausfallsicherheit und Zuverlässigkeit sowie in der Möglichkeit, über WLAN und 5G mit der Umwelt zu interagieren, wie es bei der sogenannten C2X-Communication („Car to X“) der Fall ist. All diese Aspekte betreffen sowohl sicherheitsrelevante als auch komfortorientierte Bereiche des Fahrens. Seit der Gründung der OPEN Alliance im Jahr 2011 nimmt die Integration von Automotive Ethernet zunächst in Teilsystemen von Kamera-/Sensorsystemen, aber auch im Infotainment-Bereich verstärkt zu (anfangs BroadR-Reach, ab 2014 100Base-T1, erste Transceiver ICs von Broadcom).

Damit die zunehmende Anzahl der Steuergeräte für assistiertes und autonomes Fahren im Zuge dieser Entwicklung in einem überschaubaren Rahmen bleibt, ist ebenfalls ein steigender Integrationsgrad der Systeme im Fahrzeug notwendig, sodass weniger ECUs (Electronic Control Units) insgesamt mehr Funktionen erfüllen. Ziel der Hochintegration ist es, Kosten und Gewicht einzusparen, was in der Folge jedoch zu einem proportionalen Anstieg der Softwarekomplexität im System führt. Im gleichen Zuge nimmt auch die Anzahl der Automotive Ethernet Protokolle zu, um den stetig steigenden Softwareanforderungen gerecht zu werden. „Damit die zuverlässige Funktion der über Automotive Ethernet vernetzten Systeme – vor allem der hochautomatisierten Fahrsysteme – weiterhin gewährleistet werden kann, ist es deshalb unerlässlich, auch die Testmethodik an die wachsenden Komplexitäten zu adaptieren“, so Harald Faltheiner, Entwicklungsingenieur Hardware und Systemengineering bei der ARRK Engineering GmbH. „Denn mit der wachsenden Vernetzung erhöhen sich auch die Wechselwirkungen zwischen Hardware- und Softwareschichten, denen bisher schlichtweg zu wenig Aufmerksamkeit gewidmet wird.“

Der Schritt vom Consumer zum Automotive Ethernet

Im Laufe der vergangenen zehn Jahre setzte sich Automotive Ethernet als Kommunikationssystem in Fahrzeugkomponenten immer mehr durch. In der entsprechenden Testentwicklung wird bislang das bereits seit Mitte der 1980er Jahre für Netzwerkprotokolle standardisierte ISO/OSI-Referenzmodell als Basis herangezogen, das die einzelnen Verarbeitungsschritte in der Signalkette sieben logischen, nach oben hin abstrakter werdenden Schichten (Physical, Data Link, Network, Transport, Session, Presentation und Application) zuordnet, um sie voneinander isoliert ins Auge zu fassen. Das seit der Entwicklung der Internetprotokollfamilie maßgebende TCP/IP-Referenzmodell unterteilt das System mit Network, Internet, Transport und Application dagegen in lediglich vier aufeinander aufbauende Schichten, die ebenso jeweils abschnittsweise gedacht werden. „Diese Scheuklappen-Betrachtung der einzelnen Layer wird der zunehmenden Protokolldichte aber nicht mehr gerecht“, erläutert Faltheiner. „Es werden zwangsläufig Wechselwirkungen übersehen, vor allem zwischen der untersten physikalischen Ebene und den höheren, anwendungsorientierten Softwareschichten.“

Diese Diskrepanz ist unter anderem darauf zurückzuführen, dass sich die seit den 1970er Jahren entwickelten Ethernet-Systeme in den Consumer- und Business-Segmenten in erster Linie im Bereich des Physical-Layers von Automotive Ethernet unterscheiden. Denn während für den Einsatz in der Automobilbranche viele bereits etablierte Standardprotokolle, wie beispielsweise TCP/IP, UDP und die IPvx Protokolle, einfach übernommen oder entsprechend angepasst werden konnten, stellt die Automobilindustrie hardwareseitig deutlich höhere Anforderungen an die Vernetzungstechnologie, die Standard Ethernet mit seinen geschirmten Twisted-Pair-Kabeln nicht erfüllen kann. Automotive Ethernet muss einem hohen Temperaturbereich – typischerweise bis zu AEC-Q Grade 1 (-40 °C bis +125 °C) – sowie extremen mechanischen Belastungen widerstehen, strenge EMV-Grenzwerte einhalten, einen möglichst geringen Stromverbrauch im Standby-Modus aufweisen und zudem kosten- sowie gewichtseffizient sein. Diese und weitere Voraussetzungen konnten in den vergangenen zehn Jahren durch eine Vielzahl von Maßnahmen mit Anpassungen der Hardware und Software erreicht werden.

Beherrschung der Systemkomplexität durch mehrdimensionales Testing

Speziell für den Einsatz in der Automobilbranche wurden das service-orientierte Ethernetprotokoll SOME/IP zur Interprozesskommunikation für Client-Server-Anwendungen eingeführt, ebenso wie das DoIP-Protokoll, das zu Diagnosezwecken eingesetzt wird. Beide operieren auf den obersten drei Layern. Ebenfalls im Bereich der höheren Schichten ist AVB/TSN besonders relevant für Automotive Ethernet, da es eine latenzarme Übertragung von Audio- und Videodaten ermöglicht. Durch Erweiterung des TSN Standards kamen Protokolle für geringe Latenz (802.1Qbv, 802.1Qbu, 802.1Qch), hohe Zuverlässigkeit (802.1Qca, 802.1Qci, 802.1CB) sowie zur Konfiguration und Synchronisierung von Netzwerken (802.1AS, 802.1Qcc) im Fahrzeug hinzu. Zusätzlich gewährleistet IPSec Zugriffskontrolle, Datenintegrität, Authentifizierung und Vertraulichkeit. Jedes dieser Protokolle ist für sich bereits sehr komplex, weshalb der Fokus in den bisherigen Testverfahren – wie sie beispielsweise vom TC8 der OPEN Alliance definiert werden – auf der jeweiligen Überprüfung und dem Verständnis im Detail liegt. Da alle Datenpakete letztendlich über die physikalische Ebene transportiert werden, lässt diese Vorgehensweise das eng verflochtene Zusammenspiel der Protokolle auf Hard- und Softwareebene jedoch völlig außer Acht.

„Damit diese bestehenden und mit der steigenden Komplexität immer größer werdenden Lücken im Testing von Fahrzeugnetzwerken eingedämmt werden können, hat ARRK Engineering eine Testmethodik entwickelt, die das gesamte System aus einem umfänglichen Blickwinkel heraus erfasst“, erklärt Faltheiner. Den ersten Schritt dieses Lösungsansatzes stellt die Einführung einer Wechselwirkungsanalyse dar; gleichermaßen in bereits bestehenden sowie neuen Tests. So sollen Steuergeräte nicht nur isoliert, wie es bei den Lieferanten oder Herstellern üblich ist, sondern auch auf ihre Funktionalität im Systemverbund hin getestet werden. Dabei gehen die Spezialisten von ARRK Engineering grundsätzlich davon aus, dass es Protokolle gibt, die in Interaktion miteinander zu Fehlverhalten führen können. Zweitens wird das System gezielt ausgelastet, sodass die Wahrscheinlichkeit des Auftretens ungewollter Wechselwirkungen zwischen den Steuergeräten und den Protokollen steigt. Dabei ist es essentiell, mehrere Parameter – wie etwa die Summe der ausgeführten Funktionen, die Spannung, die Anzahl der Protokolle oder das Timing – zeitgleich anzuwenden beziehungsweise zu verändern sowie jeden Schritt im Ablauf des Testverfahrens detailgenau aufzuzeichnen und zu verfolgen. Denn nur so können einerseits angemessene Kriterien festgelegt werden, nach denen ein Test als „failed“ oder „passed“ bewertet wird. Andererseits wird auf diese Weise sichergestellt, dass ein bestimmtes Fehlverhalten, wie beispielsweise der Ausfall eines Anzeigesystems, innerhalb des Systemkomplexes auch auf einen konkreten Auslöser zurückgeführt werden kann.

Normalerweise sind Steuerungssysteme im Auto mehr oder weniger separate Einheiten, die von unterschiedlichen Zulieferern mit unterschiedlichen Softwareprotokollen entwickelt werden. Im autonomen Fahren müssen diese fehlerfrei miteinander kommuniziern. In der Praxis passieren aber durch die Vielzahl und die unterschiedlichen Implementationen Fehler. Die Ingenieure von AKKA Europe wollen diese durch integriertes Testen angehen.

Automotive Ethernet als Vernetzungssystem der Zukunft

Während heutzutage in den meisten Fällen noch eine Systemarchitektur mit Domänen und einem zentralen Gateway verwendet wird und innerhalb der Automotive Ethernet lediglich als Teilsystem implementiert werden kann, rückt im Zuge der Hochintegration bereits die sogenannte zonenbasierte Architektur (siehe Abbildung oben) in greifbare Nähe. Durch dieses flexible und skalierbare Konzept kann die Vernetzung im Kern über Ethernet-Switches erfolgen, welche die gesamten Signale weiterleiten. Automotive Ethernet ist für die zonenbasierte Architektur eine adäquate Vernetzungstechnologie. Prinzipiell besteht die Möglichkeit, im Rahmen der immer stärker automatisierten Fahrsysteme früher oder später Automotive Ethernet als Systembus zu etablieren. „In diesem Zusammenhang können wir davon ausgehen, dass die Veröffentlichungsrate neuer Protokolle für Automotive Ethernet weiterhin ansteigen wird“, bemerkt Faltheiner. „Deshalb ist es besonders wichtig, die entsprechende Testbarkeit bereits parallel zur Protokollentwicklung zu berücksichtigen und beides – Protokoll und Testspezifikationen – zeitgleich herauszubringen.“ Um diesem ständigen Weiterentwicklungsbedarf zu begegnen, achten die Ingenieure von ARRK Engineering bei ihrer umfassenden Testmethodik ausdrücklich auf deren Zukunftsfähigkeit, sodass die Strategien und Konzepte leicht auf die Berücksichtigung neuer Protokolle angepasst und erweitert werden können.

Weitere Informationen unter:
www.arrkeurope.com

Künstliche Intelligenz realistisch einsetzen

Wir sprachen mit Professor Dr. Götz Andreas Kemmner. Er gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Er plädiert im Interview für eine realistische Sicht auf künstliche Intelligenz.

Herr Prof. Kemmner, heute hört man viel von Künstlicher Intelligenz, kurz KI, die Unternehmen unbedingt einsetzen müssten, um erfolgreich zu bleiben. Warum benötigt man überhaupt KI?
KI ist heute ein Buzzword und darf in keiner Marketingaussage fehlen. Die Praktiker irritiert das jedoch viel mehr, als dass es ihnen hilft, an der richtigen Stelle KI einzusetzen. KI-Methoden können in der Tat in vielen Stellen weiterhelfen, an denen wir mit klassischen Methoden nicht weiterkommen. Das bedeutet aber umgekehrt nicht, dass alles mit KI besser wird.

Wird KI also überschätzt?
Sie kann nicht alles lösen. Lassen Sie mich das konkret machen, auch wenn es ein wenig schwarz-weiß gemalt ist: Im Grunde setzt man Software für zwei Aufgabengruppen ein. Man bildet Prozesse, also Arbeitsabläufe ab, oder man berechnet bestimmte Zahlenwerte. Wenn Sie eine eMail versenden, ist dies ein Arbeitsablauf, bei dem eine Information von A nach B gesendet wird. Wenn mit dem ERP-System eine Bedarfsprognose erstellt wird, wird eine Berechnung durchgeführt. Die Prognoseergebnisse werden bereitgestellt, damit die Disposition über die Nachbevorratung von Material entscheiden kann. Dies stellt dann einen weiteren Prozessschritt dar. Welche Menge an Material zu welcher Zeit nachbestellt werden sollte, erfordert wiederum eine Berechnung, die auf den zuvor ermittelten Planbedarfen aufsetzt.


Sowohl bei Berechnungs- wie bei Prozessschritten gibt es dann Konstellationen, bei denen KI weiterhelfen kann. Es gibt aber auch solche, bei denen KI nicht benötigt wird. Schauen wir uns als Beispiel einmal Berechnungsaufgaben an: Wenn Sie die Länge der längsten Seite eines rechtwinkligen Dreiecks berechnen wollen und die Längen der beiden kürzeren Seiten kennen, verwenden Sie eine genaue Formel, mit der Sie ein präzises Ergebnis bekommen und alles ist gut. Hier benötigen Sie keine KI.
Wenn Sie Fertigungsaufträge mit mehreren Arbeitsschritten auf Produktionsanlagen einplanen wollen, gibt es solche einfachen Formeln nicht mehr. Sie müssen vielmehr zahlreiche Restriktionen berücksichtigen. Wenn Sie alle Restriktionen kennen und beschreiben, lässt sich die Lösung dann zwar theoretisch errechnen, praktisch aber nicht, da unsere Computer noch immer nicht schnell genug rechnen und vermutlich noch für lange Zeit nicht so schnell wie notwendig rechnen können werden. Hierfür haben nun Mathematiker und Informatiker clevere Tricks entwickelt, wie man diese Herausforderung trotzdem lösen kann. KI kann hier helfen, die Lösungen noch effizienter zu erarbeiten.
Drittes Beispiel: Sie wollen aus der historischen monatlichen Verkaufszeitreihe eines Artikels ermitteln, wie dieser Artikel in Zukunft monatlich voraussichtlich nachgefragt werden wird. Sie könnten dafür einfach einen Mittelwert berechnen und eine Wahrscheinlichkeit, wie stark die Nachfrage um den Mittelwert schwankt. Sie verwenden dann zwar konkrete Formeln, aber eigentlich berücksichtigen Sie nur die Mengen und Schwankungen der Vergangenheit, um daraus die zukünftige Nachfrage zu ermitteln. Welche Einflussgrößen zu den Nachfrageschwankungen in der Vergangenheit geführt hatten, wissen und berücksichtigen Sie nicht. Sicherlich können Sie sich viele Einflussgrößen vorstellen, die in der Vergangenheit dazu beitrugen, die Nachfrage zu steigern oder zu senken. Zum Beispiel Preisaktionen von Wettbewerbern oder die Konjunktursituation oder eine Pandemie. Die verschiedenen Einflüsse wirken dabei aber auch gegeneinander. Hier wird es praktisch unmöglich, die statistischen Zusammenhänge zu messen und zu erkennen. Auch und gerade hier kann KI weiterhelfen.

Was kann die KI denn besser als klassische Berechnungen und Statistiken?
Methoden der künstlichen Intelligenz sind, wiederum etwas vereinfacht ausgedrückt, Algorithmen, die entweder Zusammenhänge zwischen verschiedenen Größen erkennen, die vorher nicht bekannt waren – das ist z.B. relevant bei Prognosen oder Bilderkennung. Zudem gibt es KI-Lösungen die Ergebnisse schneller liefern als klassische mathematische Ansätze.
Der Nachteil aller KI-Ansätze der ersten Kategorie ist, dass sie nicht zwischen Korrelation und Kausalität unterscheiden können. Ob zwei Effekte zufällig synchron laufen oder aufgrund realer Zusammenhänge, erkennen die mir bekannten heutige KI-Methoden noch nicht.
Die meisten können darüber hinaus nicht darlegen, auf welchem Weg oder warum sie zu einem bestimmten Ergebnis gekommen sind. Die KI simuliert hier in gewisser Weise nur das menschliche Bauchgefühl, wobei sie aber – im Gegensatz zum Menschen – dabei nicht durch Emotionen beeinflusst wird und damit unter gleichen Voraussetzungen auch zu gleichen Antworten kommen sollte – zumindest theoretisch. Letztlich müssen die meisten KI-Methoden „eingelernt“ werden. Das bedeutet, man benötigt einen mehr oder weniger umfangreichen Datensatz, anhand dessen die Algorithmen lernen können.

Herr Prof. Kemmner, Sie setzen in der Software DISKOVER solche KI-basierte Methoden ein. Wo kommt die KI bei DISKOVER zum Einsatz?
Wir setzen aktuell bei drei Aufgabenstellungen KI-Methoden ein. Weitere sind zudem bereits in der Entwicklung.
Bei der Einplanung von Fertigungsaufträgen gegen begrenzte Kapazitäten und gegen weitere Restriktionen, bei der Optimierung der Gesamtlieferbereitschaft eines Produktportfolios und bei der Absatzprognose. Für die ersten beiden Fälle haben wir ein Software-Modul entwickelt, das wir „Optimizer-Engine“ nennen und das mit Heuristiken und Metaheuristiken aus dem Bereich der künstlichen Intelligenz arbeitet. Diese Optimizer Engine ist darauf ausgelegt, knifflige Optimierungsaufgaben im Hintergrund automatisch und sowohl zeitlich als auch von Seiten der benötigten Rechenleistung her effizient zu lösen. Vereinfacht ausgedrückt also dort, wo eine klassische Berechnung zu aufwändig, zu zeitintensiv, zu ressourcenintensiv oder gar nicht mehr möglich ist.
Für die Absatzprognose verwenden wir zudem sogenannte neuronale Netze die wir mit Simulationen kombiniert haben, wie sie bei DISKOVER schon seit vielen Jahren zum Einsatz kommen. Neuronale Netze können bei der Absatzprognose zahlreiche potenzielle Einflussgrößen berücksichtigen, die man den Algorithmen in Form von umfangreichen Daten zur Verfügung stellen muss, damit Sie lernen können, wie die verschiedenen Einflussgrößen sich auf die Absatzmenge auswirken. Da auch neuronale Netze chaotisches Verhalten nicht voraussagen können und mit ihren Voraussagen auch falsch liegen können, weil sie zufällige Effekte zu stark berücksichtigen, verifizieren wir die Ergebnisse zusätzlich noch in einer sogenannten empirischen Simulation, in der sich sie gegen z.B. statistisch bereits bewährte Berechnungsmethoden behaupten müssen. Dieser Clearingschritt halten wir für immens wichtig, um die Qualität des Ergebnisses abzusichern.

Wie können diese KI-Methoden den Unternehmen ganz konkret weiterhelfen im Vergleich zu klassischen Methoden? Welche Potenziale können freigesetzt werden?
Bei der Feinplanung in DISKOVER hilft uns KI, schneller zu guten Ergebnissen zu gelangen. Die Potenziale zeigen sich in besserer Produktivität, höherem Durchsatz und besserer Termintreue der Aufträge.
Bei der Optimierung der Gesamtlieferbereitschaft ermöglicht die Optimizer Engine innerhalb von ca. 90 Sekunden für eine vorgegebene Zielgröße – eben die Gesamtlieferbereitschaft – die dafür erforderlichen Teillieferbereitschaften einzelner Gruppen des Artikelportfolios zu ermitteln. Diese Berechnung war vorher nur sehr aufwändig und sehr grob durchführbar, sodass man in der Praxis zumeist darauf verzichtet hat. Die Potenziale liegen darin, dass einerseits eine Gesamtlieferbereitschaft gezielt vorgegeben werden kann und andererseits die dafür erforderlichen Bestände so gering wie möglich gehalten werden.
Bei der Erarbeitung von Absatzprognosen können zudem nicht nur zahlreiche Einflussgrößen berücksichtigt werden – das ist inzwischen in leistungsfähigeren Systemen Standard – sondern die Prognoseergebnisse werden auch empirisch verifiziert und um die richtigen Sicherheitsbestände ergänzt. So vermeiden wir, dass Sie sozusagen dem „Bauchgefühl“ der Algorithmen auf den Leim gehen. Auch stellen wir sicher, dass die Sicherheitsbestände die Prognoseunsicherheit sauber kompensieren. Im Ergebnis erhält man bessere Prognosen, genauer berechnete Sicherheitsbestände und erreicht damit eine geforderte Lieferbereitschaft mit geringeren Beständen bzw. mit geringeren Gesamtkosten.

An wen richten Sie sich mit dem Tool DISKOVER?
DISKOVER ist auf Produktions- und Handelsunternehmen ausgerichtet, die häufig komplexe Wertschöpfungsketten mit teilweise langen Wiederbeschaffungszeiten aufweisen. Als Add-On-System arbeitet es im Zusammenspiel mit ERP- oder Warenwirtschaftssystemen. Dabei kann es als APS-System in seiner gesamten Wirkungsbreite eingesetzt werden. Alternativ kann es auch gezielt einzelne Leistungslücken im Planungsprozess eines ERP-Systems ausmerzen. Unser Ziel ist es dabei immer, im Zusammenspiel zwischen Software und Beratung das Gesamtsystem sowohl effizienter als auch effektiver zu machen und nicht – platt ausgedrückt – möglichst viele ERP-Funktionen durch DISKOVER-Funktionen zu ersetzen.

Wie ist überhaupt die Idee zu Ihrer Lösung DISKOVER entstanden? Welche Motivation gab es dazu?
Die Ursprünge von DISKOVER gehen auf Ideen zurück, die an der RWTH Aachen Anfang der 90er Jahre entwickelt worden sind. Wir haben DISKOVER kontinuierlich als ein Simulationssystem ausgebaut, das zuerst die Auswirkungen von Planungs- und Steuerungsentscheidungen auf komplexer dynamische Wertschöpfungsketten durchspielen konnte und später Planungs- und Steuerungsmechanismen automatisch optimieren konnte.
Durch ein Beratungsprojekt beim Schreibgerätehersteller Montblanc kam es dazu, dass wir unser Simulationssystem zu einem operativen System ausbauten. Mund-zu-Mund Propaganda führte zu immer mehr Nachfrage nach dem operativen DISKOVER-Tool, sodass das Softwaregeschäft immer mehr zunahm. 2008 gründeten wir deshalb die SCT GmbH als Tochterunternehmen von Abels & Kemmner. Die SCT treibt heute – im Zusammenspiel mit den Beratern einerseits und den operativen Anwendern andererseits – die Weiterentwicklung von DISKOVER voran; Abels & Kemmner bringt die Kompetenz für die Gesamtoptimierung ein.
Diese besondere Konstellation spiegelt sich auch bei den Anwenderunternehmen von DISKOVER wider: Die meisten Anwender verstehen logistische Leistung als wesentlichen Erfolgsfaktor und streben an, ihre Prozesse und Algorithmen über den Stand des Wettbewerbs hinaus zu optimieren. Schnell und kostengünstig releasefähige kundenspezifische Anpassungen durchführen zu können, ist ein weiteres wesentliches Merkmal von DISKOVER.


Über den Interviewpartner

Professor Dr. Götz Andreas Kemmner, Jahrgang 1959, gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Hinzu kommen Tätigkeiten als Interim-Geschäftsführer in zwei Automobilzuliefer-Unternehmen und als Oberingenieur am Forschungsinstitut für Rationalisierung (FIR) e. V. In über 190 Veröffentlichungen hat Prof. Dr. Kemmner als Autor, Co-Autor oder Referent mitgewirkt, zudem hält er regelmäßig Vorträge und Seminare. Seit dem 12.06.2012 Honorarprofessor an der Westsächsischen Hochschule Zwickau.


Weitere Informationen unter:
www.ak-online.de

Bildquelle / Lizenz Aufmacher: Copyright-Anatoly-Stojko-Dreamstime-com

Brennstoffzellen-Triebzüge im Taunusnetz

Ab dem Jahresfahrplan 2023 werden insgesamt 27 wasserstoffgetriebene Züge – die bislang größte Flotten weltweit im Personenverkehr – auf den Strecken von Frankfurt nach Königstein und Brandoberndorf, von Frankfurt-Höchst nach Bad Soden und von Bad Homburg nach Friedberg unterwegs sein. Zur Betankung der Züge wird im Industriepark Höchst eine entsprechende Wasserstoff-Tankstelle errichtet. Das Land Hessen fördert den Bau der grundlegenden Schieneninfrastruktur für die Wasserstoff-Tankstelle mit rund 2,5 Mio. Euro, knapp 60 Prozent der hierfür anfallenden Kosten. Ergänzend wurden vom Land Hessen für die Erstellung vorbereitender Gutachten und den Bau einer mobilen Zugbetankungseinrichtung über 800.000 Euro zur Verfügung gestellt. Für die Betankungseinrichtung als solche stellt der Bund Fördermittel bereit.

„Dieses Projekt ist ein augenfälliger Beleg für die Innovationskraft der hessischen Wirtschaft und der hessischen Verkehrsverbünde“, sagte Verkehrsstaatssekretär Jens Deutschendorf im Industriepark Höchst. „Statt Dieseltriebzügen ermöglicht es der Brennstoffzellenzug, lokal emissionsfrei und nahezu geräuschlos zu fahren“, so Deutschendorf weiter. „In Hessen ist derzeit noch etwa ein Drittel der Bahnstrecken nicht elektrifiziert – das Potential für innovative Antriebe und die so ermöglichte saubere Mobilität damit groß.“

Ressourcenschonende Mobilitätslösungen

Auch Dr. Joachim Kreysing, Geschäftsführer von Infraserv Höchst, sieht in der Weiterentwicklung der Wasserstoff-Technologie eine wesentliche Herausforderung auf dem Weg zu zukunftsfähigen, umweltfreundlichen Mobilitätslösungen. „Dabei muss es auch möglich sein, Übergangstechnologien zu nutzen, mit denen wir sehr schnell CO2-Einspareffekte erzielen können“, sagte Dr. Kreysing. Weil in Deutschland noch zu wenig Strom aus erneuerbaren Quellen zur Verfügung steht, könne nur wenig „grüner“ Wasserstoff produziert werden. Der für die Betankung der Brennstoffzellen-Züge benötigte Wasserstoff entsteht im Industriepark Höchst im Rahmen der Chemieproduktion unter Einsatz von Strom.

Verkehrsstaatssekretär Jens Deutschendorf (rechts) überreicht den Förderbescheid im Beisein von RMV-Geschäftsführer Prof. Knut Ringat (Mitte) an Dr. Joachim Kreysing, Geschäftsführer Infraserv Höchst.
© Infraserv Höchst, 2021

Dr. Kreysing verwies auch auf die Innovationskraft der Chemiebranche, die bei der Entwicklung von nachhaltigen, ressourcenschonenden Energie- und Mobilitätslösungen unverzichtbar sei. „Infraserv Höchst ist schon seit 15 Jahren im Bereich der Wasserstoff- und Brennstoffzellentechnologie aktiv und im Industriepark Höchst sind mehrere Unternehmen dabei, neue Technologien voranzutreiben“, so Dr. Kreysing. Er betonte, dass politische Rahmenbedingungen und regulatorischen Vorgaben so gestaltet sein müssen, dass Innovationen erfolgreich umgesetzt werden können.

Wasserstoffbetriebene Regionalverkehre

Mit dem so genannten Taunusnetz werden vier Regionalzuglinien auf den innovativen Brennstoffzellen-Antrieb umgestellt. Die Bauarbeiten für die Wasserstoff-Tankstelle haben im April dieses Jahres begonnen und sollen bereits Anfang 2022 abgeschlossen werden.

„Unsere Wasserstoffzüge sind nicht nur die ersten ihrer Art, die in Hessen fahren werden: Sie zeichnen sich auch dafür verantwortlich, dass in Höchst Hessens erste Wasserstofftankstelle für Züge entsteht. Damit unterstreichen wir einmal mehr die Vorreiterstellung des Landes Hessen und des RMV im Bereich alternativer Antriebstechnologien und der Verkehrswende. Da Wasserstoff im Industriepark Höchst in großen Mengen als Nebenprodukt anfällt, können wir diesen ohne zusätzliche Emissionen für den ÖPNV nutzen – ein wichtiger Schritt in Richtung Klimaneutralität! Um jederzeit die Betankung sicherzustellen, baut Infraserv zudem einen Elektrolyseur, der mit grünen Strom grünen Wasserstoff herstellt. Etwa die Hälfte unserer 27 Züge werden hier täglich zum Auftanken einfahren – denn mit 1000 Kilometern ist die Reichweite so groß, dass die Fahrzeuge auch nach einem vollen Betriebstag noch ordentlich Reserve im Tank haben“, so Prof. Knut Ringat, RMV-Geschäftsführer und Sprecher der Geschäftsführung.

Wasserstoff ist vor allem im Hinblick auf die Sektorenkopplung oder die Speicherung überschüssiger Energie aus Wind oder Sonne ein wichtiger Baustein der Energie- und Ressourcenwende. Aus diesem Grund wurden bisher über 100 Wasserstoff- und Brennstoffzellenprojekte in Hessen umgesetzt. Allein in den letzten drei Jahren hat das Land Hessen rund 25 Projekte mit über 8,5 Millionen Euro finanziell gefördert.

Weitere Informationen unter:
www.infraserv.com

Diversität und Inklusion leben

„Diversität ist, zu einer Party eingeladen zu werden, Inklusion hingegen ist, zum Tanz aufgefordert zu werden.“

Kathleen Jaedtke, Head of Marketing DACH bei HubSpot und auch zuständig für das Hiring von Marketing-Talenten erläutert im Gespräch mit der Redaktion, warum Diversität und Inklusion Chefsache ist.

Frau Jaedtke, was verstehen Ihr Haus und Sie unter Diversity?

Diversität ist die Zusammensetzung der Belegschaft, ob auf das Geschlecht, die Herkunft oder das Alter bezogen. Diversität und Inklusion werden vermeintlich oft gleichgesetzt, aber es sind verschiedene Dinge. Inklusion ist die Unternehmenskultur, die eine diverse Belegschaft gedeihen lässt. Um es plastisch zu sagen: Diversität ist, zu einer Party eingeladen zu werden, Inklusion hingegen ist, zum Tanz aufgefordert zu werden. Um eine Wirkung zu entfalten, dürfen Diversität und Inklusion nicht in HR oder Recruiting aufgehängt sein, sondern ganz oben im Unternehmen.

Weshalb setzen Sie auf Diversity?

Wir haben eine Verantwortung, den gesellschaftlichen Wandel nachhaltig voranzutreiben und faire Gemeinschaften und Chancen aufzubauen. Eine herausragende Unternehmenskultur zieht talentierte Mitarbeiterinnen und Mitarbeiter an, und erlaubt es ihnen, sich weiterzuentwickeln und ihr volles Potenzial zu entfalten, was auf den Unternehmenserfolg einzahlt. Deshalb sind für uns Diversitäts- und Inklusionsziele Teil der Unternehmensziele. Für uns ist es wichtig, dass sich die Vielfalt unserer Kundschaft auch in unserem Team widerspiegelt.


„Managerinnen und Manager spielen eine entscheidende Rolle für die Erfahrungen der Mitarbeitenden mit Inklusion und Zugehörigkeit.“


Kathleen Jaedtke

Wie entwickeln Ihre Teams ein gemeinsames Mindset? Wie unterstützen Sie Ihre Führungskräfte dabei?

Wir haben einen Culture Code, der sowohl ein Leitfaden für unsere Mitarbeitenden darstellt als auch eine Sammlung von gemeinsamen Überzeugungen. Er spiegelt die Unternehmenskultur wider, die wir bei HubSpot tagtäglich leben, und dient auch als Wegweiser für Zukunft.

Zudem haben wir für alle Mitarbeiterinnen und Mitarbeiter ein verpflichtendes Antirassismus-Training eingeführt. Es ist notwendig, dass alle verstehen, wie systemischer Rassismus auf uns alle einwirkt und wie wir selbst aktiv einen Wandel herbeiführen können. Alle Mitarbeiterinnen und Mitarbeiter bei HubSpot sollen sich willkommen und wertgeschätzt fühlen für das, was sie sind, woran sie glauben und was sie erlebt haben.

Außerdem nehmen alle Führungskräfte zusätzlich zum allgemeinen Antirassismus-Training an einem speziellen Kurs mit dem Titel „Antirassismus für Führungskräfte bei HubSpot“ teil. Das ist wichtig, denn Managerinnen und Manager spielen eine entscheidende Rolle für die Erfahrungen der Mitarbeitenden mit Inklusion und Zugehörigkeit. Wir nehmen diese Verantwortung sehr ernst.

Wie haben Sie das Thema Diversity Management im Unternehmen und in Ihrer Unternehmenskultur dauerhaft verankert?

Vor vier Jahren haben wir uns unsere Zahlen rund um Diversität und Inklusion genau angeschaut und waren nicht sonderlich zufrieden. Wir waren nicht so divers aufgestellt, wie wir es gerne sein wollten. Seitdem hängen wir Diversität und Inklusion ganz oben im Unternehmen auf.

Unsere Zahlen und Fortschritte veröffentlichen wir jährlich in einem „Diversity, Inclusion & Belonging Report“. Damit zeigen wir unsere Verantwortung und legen gleichzeitig unsere Fortschritte für alle offen – für unsere Kundschaft, Mitarbeitenden, Bewerbenden und für alle Interessierten. Wir sind eines der wenigen börsennotierten Unternehmen, besonders im Technologie-Bereich, die so transparent sind.

Um eine diverse und inklusive Unternehmenskultur bei HubSpot kümmert sich das Global Culture Team. Sie organisieren verschiedene Aktivitäten oder entwickeln Schulungsprogramme, wie beispielsweise das Antirassismus-Training.

Inwieweit ist bei HubSpot Diversity bereits Alltag?

Ein Indikator für unsere Fortschritte in Sachen Diversity sind unsere aktiven und stets wachsenden Employee Resource Groups.  Das sind Mitarbeitergruppen, die als Rückzugsorte bei der Arbeit dienen und sowohl intern als auch extern Austausch- und Networking-Möglichkeiten bieten, beispielsweise Women@HubSpot, Families@HubSpot, People of Color at HubSpot (POCaH), BLACKhub oder LGBTQ+ Alliance.

Jede Gruppe wird von zwei C-Level-Führungskräften unterstützt, die an monatlichen Treffen teilnehmen, Feedback annehmen und die Ideen der Mitarbeiterinnen und Mitarbeiter in die Leitungsebene bringen.

Zudem produzieren wir externe Inhalte für unsere Kanäle unter Einhaltung von unseren internen Zielen zu Diversität und Inklusion. Dies spiegelt sich unter anderem in einer entsprechenden Bildsprache auf unseren Social-Media-Kanälen und auf dem Blog sowie in der Auswahl von Persönlichkeiten für unseren Podcast „The Digital Helpdesk“ wider. Wir haben einen Inclusive Language Guide entwickelt und bilden uns in diversen Workshops zum Thema weiter. Wir verpflichten uns, psychologische Sicherheit für unsere Mitarbeitenden sowie das Einhalten von Diversitätszielen beim Einstellen von neuen Mitarbeitenden sicherzustellen.


„Um eine diverse und inklusive Unternehmenskultur bei HubSpot kümmert sich das Global Culture Team. Sie organisieren verschiedene Aktivitäten oder entwickeln Schulungsprogramme, wie beispielsweise das Antirassismus-Training.“


Inwiefern schlägt sich Ihre Diversity-Management-Strategie auch im Unternehmenserfolg nieder?

Wir glauben daran, dass unterschiedliche Perspektiven HubSpot zu einem besseren Unternehmen machen. Deshalb sind wir bemüht, ein vielfältiges und integratives Umfeld zu schaffen, in dem sich unsere Mitarbeitenden zugehörig fühlen. Zufriedene Mitarbeiterinnen und Mitarbeiter sind produktiver. Wir zählen laut Glassdoor zu den vier beliebtesten Arbeitgebern 2021 und wurden unter anderem von Great Place to Work, Comparably, Fortune, Entrepreneur und Inc. für unsere Unternehmenskultur allgemein und auch im Bereich Diversity ausgezeichnet.

Woran erkennen Ihre Bewerber, dass das Thema „Diversity“ bei HubSpot auch gelebt wird?

Unser Culture Code und Diversity-Report sind öffentlich zugänglich. Der Report macht deutlich, wie groß unsere Bemühungen sind, ein diverser und inklusiver Arbeitgeber zu werden. Und wir können einige Fortschritte verzeichnen, auch wenn wir noch lange nicht dort sind, wo wir hinwollen. Seit 2017 ist der Anteil der Mitarbeitenden aus der BIPoC-Gruppe (Black, Indigenous and People of Color) in Nordamerika von 12 Prozent auf 27,4 Prozent gestiegen. Zudem stieg der Anteil an weiblichen und geschlechtsneutralen Personen in Führungspositionen weltweit um 6 Prozent. Auch unser Führungsteam ist divers aufgestellt. Seit September ist Yamini Rangan als CEO an der Spitze. Die ehemalige Chief Customer Officer bei HubSpot ist indisch-amerikanischer Herkunft.

Neben unseren Corporate-Accounts auf Social Media pflegen wir auch separate Kanäle für das (Arbeits-)Leben bei HubSpot beispielsweise auf Instagram oder Twitter. Dort können Bewerbende hinter die Kulissen blicken.

www.hubspot.com/careers

Aufmacherbild / Quelle / Lizenz
Photo by Zach Reiner on Unsplash

Liveshopping: Was deutsche Marken jetzt wissen müssen

von Cami Chiang

Über 780 Millionen Menschen folgen den Streams von Marken und sogenannten Key-Opinion-Leadern “KOLs” in China. Was dort bereits unter dem Oberbegriff Social Commerce fester Bestandteil aller großen E-Commerce Plattformen und mancher Social Media Apps ist, wird vermehrt auch von deutschen Unternehmen wie dem Kaffeehersteller Tchibo in die Marketingstrategie aufgenommen. Doch was genau steckt hinter dem Trend? Und wie funktioniert Social Commerce in der Praxis?

Seit Liveshopping vor fünf Jahren von E-Commerce Gigant Alibaba in deren Taobao App, einer zentralen Anlaufstelle für Commerce von B2B bis C2C, eingeführt wurde, hat sich viel getan. Die Technologie wurde von allen großen Wettbewerbern aufgenommen, weiterentwickelt und hat vor allem auch Chinas E-Commerce nachhaltig verändert. In 2021 ist Liveshopping essenzieller Teil des Social Commerce, also der Vermarktung von Produkten über Influencer, von denen die bekanntesten in der Volksrepublik als KOLs bekannt sind. Auch internationale Mitbewerber:innen wie der britische Hautpflegeexperte Dr.PAWPAW, bekannt vom Set der Erfolgsserie Bridgerton, setzen in ihrer Chinastrategie auf Liveshopping.

Was hat es mit Liveshopping auf sich?

Liveshopping bietet Marken die Möglichkeit, Produkte direkt durch Livestreams zu verkaufen. Kund:innen werden die vorgestellten Produkte live angezeigt, die sie mit einem Klick kaufen können, ohne die Plattform zu verlassen. Streaming, Rabatte, Produktauswahl und Zahlung—alles wird auf einer Plattform zusammengeführt.

„Liveshopping ist äußerst facettenreich und kann unterschiedlichste Ziele verfolgen.“

Cami Chiang, Senior Director Office Taipei bei oddity Asia

Theoretisch können Brands bereits mit einer funktionierenden Kamera und einer stabilen Internetverbindung direkt loslegen. Doch ganz so einfach ist erfolgreiches Liveshopping in der Praxis natürlich nicht. Neben grundlegenden Fragen wie Timing und Frequenz müssen Hosts, Kanäle, Produkte und weitere Aspekte des Liveshopping, spezifisch für die jeweilige Marke ausgewählt und zugeschnitten werden.

Soll beispielsweise mit einem KOL gearbeitet werden oder doch lieber ein firmeninterner “in-house livestreamer” Produkte vorstellen? Ähnlich wie in einem traditionellen stationären Geschäft, unterstützen Expert:innen beim in-house livestreaming potentielle Kund:innen im Onlineshop, beantworten Fragen live und verteilen sogar Coupons.  Die feste Integration von Livestreamer:innen in das Customer Service Team einer Marke kann für zusätzliche Vorteile sorgen, wenn Kund:innen auch detaillierte und einzelfallspezifische Fragen direkt und zutreffend live beantwortet werden können. 

Oft empfiehlt sich ein Mix. Dr.PAWPAW beispielsweise setzt sowohl auf bekannte Influencer:innen, um Sichtbarkeit zu erhöhen, als auch auf in-house Livestreamer:innen, um Konvertierungsraten zu erhöhen und Kundenloyalität zu schaffen. Ende August erreichte die Marke über einen Livestream außerhalb des eigenen Shops auf Taobao LIVE über 800.000 Zuschauer:innen, die innerhalb von 5 Minuten mehr als 1000 Mal Dr.PAWPAWs Original Balm kauften. In-house Livestreams finden bei Dr.PAWPAW während großer Kampagnen täglich statt.

Da jede Marke sich an einem anderen Punkt der Marktdurchdringung befindet, unterschiedlich bekannt ist, über bestimmte Budgets verfügt und andere Ziele verfolgt, muss auch für jede Marke eine eigene Strategie entwickelt werden, um Liveshopping erfolgreich zu betreiben. Es gibt nicht den einen Ansatz, der jede Marke zum Erfolg führt.

Welche Ziele sollten gesetzt werden?

Liveshopping ist äußerst facettenreich und kann unterschiedlichste Ziele verfolgen. Entsprechend muss die Strategie genau auf diese ausgerichtet werden. Soll die Bekanntheit der Marke erhöht werden? Soll Vertrauen zwischen Marke und Kund:in aufgebaut werden? Dann empfiehlt sich in diesen Fällen wahrscheinlich mit namhaften KOLs zusammenzuarbeiten, um deren Nutzerbasis zu aktivieren und für das Sortiment zu interessieren.

Liegt der Fokus stattdessen eher darauf, eine enge Kundenbindung zu schaffen und die Conversionrate im Onlineshop zu erhöhen? Hier könnte sogenanntes In-House Livestreaming mit authentischen Markenbotschaftern und geringerer Reichweite die passende Lösung sein. Diese können laut einem McKinsey Artikel die Conversionrate im Vergleich zu herkömmlichen E-Commerce bis zu verzehnfachen.

Bereits im Seedingprozess vor Markteintritt arbeitete Dr.PAWPAWs Partner für China, oddity Asia, mit Influencern zusammen, um das Interesse für die bis dato dort kaum bekannte britische Trendmarke bei potenziellen Kund:innen zu wecken. Seit Markteintritt im März 2021 folgen nun schon über 72.000 Fans dem Dr.PAWPAW Tmall Global Flagship Store—eine beachtliche Zahl im hochkompetitiven Beautymarkt China. Die strategische Verwendung von Liveshopping hat erheblich zum Erfolg des Shops beigetragen.


„Ob als großes, öffentlichkeitswirksames Event oder zunächst nur im kleinen Stil: Liveshopping bringt frischen Wind in die E-Commerce Landschaft und bietet kleinen wie großen Marken neue Vertriebs- und Marketingmöglichkeiten.“


Social Commerce in Deutschland

Influencermarketing ist auch in Deutschland nichts Neues. Besonders auf Instagram und YouTube arbeiten Marken hierzulande gerne mit externen Markenbotschafter:innen zusammen. Doch auch Liveshopping wird immer beliebter. Einige Marken haben bereits damit begonnen, ähnliche Funktionen in ihre Onlineshops zu integrieren, um dort Produkte live vorzustellen.

Besonders mit Blick auf die Covid-19 Pandemie wünschen sich Kund:innen immer mehr personalisierte und persönliche Shoppingerlebnisse online. Liveshopping ermöglicht es, Entertainment und Beratung wie in traditionellen Geschäften mit dem Komfort, den E-Commerce bietet, zu verbinden. Der Blick nach Fernost legt nahe, dass Liveshopping auch den deutschen E-Commerce mittel- bis langfristig verändern wird. Marken haben jetzt die Chance, von China zu lernen und den First Mover Advantage in Deutschland für sich zu nutzen. Ob als großes, öffentlichkeitswirksames Event oder zunächst nur im kleinen Stil: Liveshopping bringt frischen Wind in die E-Commerce Landschaft und bietet kleinen wie großen Marken neue Vertriebs- und Marketingmöglichkeiten.

https://www.oddity-asia.com/

Über Cami Chiang

Cami Chiang ist Senior Director Office Taipei bei oddity Asia, einem Full-Service-Partner für E-Commerce und digitales Marketing, der europäischen FMCG-Unternehmen bei der Expansion nach China zur Seite steht. Mit ihrer langjährigen Erfahrung im globalen Marketing und tiefgreifender Kenntnis des chinesischen E-Commerce unterstützt sie Marken wie dm-drogeriemarkt bei ihrem Markteintritt in den chinesischen Markt.

Aufmacherbild / Quelle / Lizenz
Photo by Samantha Borges on Unsplash

New Work – New Learning?

Der Beitrag wurde zuerst im FIR-Newsletter „FIR-Flash 2/2020“ vom 19.05.2020 veröffentlicht und hier aktualisiert

Die Corona-Krise veränderte unsere gewohnte Arbeitswelt fundamental. Die seit Jahren und mit mehr oder weniger Nachdruck vorangetriebene digitale Transformation wurde auf einmal vom vieldiskutierten Zukunftsszenario zur alltäglichen Arbeitswelt. Innerhalb kürzester Zeit hat die digitale Kollaboration klassische physische Arbeitstreffen abgelöst und es wird deutlich, dass persönliche Treffen mit dem damit verbundenen Reiseaufwand vielleicht auch vorher nicht immer notwendig waren. Allerdings ist auch zu erleben, dass der Bedarf nach einer realen und physischen Arbeitswelt wieder deutlich angestiegen ist – parallel mit den Lockerungsmaßnahmen. So wird auch bei Verfügbarkeit von hochwertigen digitalen Kollaborationsmöglichkeiten das persönliche Arbeitstreffen seinen Platz in der Arbeitswelt der Zukunft behalten.

Entscheidend für den Erfolg von Unternehmen wird es zukünftig sein, die richtige Balance zwischen realer und virtueller Arbeitswelt für das jeweilige Einsatzszenario zu finden. So werden digitale Kollaborationsmöglichkeiten bspw. in der Produktion vornehmlich eine unterstützende Rolle einnehmen, während im wissensintensiven Dienstleistungsbereich sich eine Reihe von weiteren Einsatzmöglichkeiten ergeben und ein höherer Digitalisierungsgrad denkbar ist. Abzuwarten bleibt, inwiefern die technologischen Weiterentwicklungen zukünftig physische Treffen auch komplett ersetzen werden können, bspw. durch immersive Arbeitsräume, die auch über haptische oder taktile, gegebenenfalls auch olfaktorische oder gustatorische Schnittstellen (zur Wahrnehmung von Geruch und Geschmack) verfügen.

Erfolgsfaktor Lebenslanges Lernen

Ein zentraler Bereich im Unternehmen, in dem sich neue Möglichkeiten durch digitale Tools ergeben, ist das Lernen. Die digitalisierte Arbeitswelt erfordert ein immer schnelleres und flexibleres Aneignen von Wissen. Vorhandenes Wissen wird rasch wieder obsolet, wodurch lebenslanges Lernen unverzichtbar wird. Bereits heute reichen die im Rahmen einer durchlaufenen Berufsausbildung erworbenen Fähigkeiten und Kompetenzen eines Tätigkeitsfeldes nur noch für rund 10 Jahre. Ähnlich wie bei den eingangs beschriebenen Veränderungen der Arbeitswelt beschleunigt die Corona-Krise die Digitalisierung des Lernens im Unternehmen. 3D-Lernwelten, virtuelle und Augmented Reality-Lösungen sowie Blended-Learning-Konzepte finden sich bereits heute in vielen Unternehmen. Allerdings handelt es sich dabei häufig um plakative Insellösungen, die eine durchgängige didaktische und methodische Konzeption oder auch eine auf die zukünftigen Bedarfe ausgerichtete Kompetenzentwicklung vermissen lassen.

Weiterbildung sollte sich vor allem an den zukünftig benötigten Kompetenzen ausrichten – eigentlich ein logischer Punkt, der aber viel zu häufig nicht bedacht wird. Aus der Kompetenzprognose müssen sich nämlich die zukünftig benötigten Lerninhalte ableiten lassen. Diese wiederum bestimmen sowohl die technologische Ausrichtung der Weiterbildung als auch ihre jeweilige Gestaltung; egal ob virtuell oder vor Ort. Doch Status quo ist noch immer eine interne Weiterbildung, die darauf achtet, Wissenslücken zu schließen. Quelle: © FIR e. V. an der RWTH Aachen

Neue Lern- und Lehrkonzepte – ein Paradigmenwechsel

Neue Lern- und Lehrkonzepte erfordern ein entsprechendes Lernverständnis, bei dem die Arbeitsprozessnähe, Interaktivität und Vernetzung im Vordergrund stehen. So gilt es, Fähigkeiten und Kompetenzen zu vermitteln, die sich auf die zukünftigen Arbeitsaufgaben und -tätigkeiten beziehen. Die Rolle des Lernenden wandelt sich von der des passiven Empfängers hin zum aktiven Nutzer, der eigene Erfahrungen teilt und den Lernprozess selbst organisiert. So können beispielsweise Social-Learning-Konzepte, Kollaboration und Wissensaustausch im Unternehmen unterstützen. Besondere Bedeutung kommt hier dem selbstgesteuerten Lernen zu, das es Mitarbeitern ermöglicht, ihr Wissen und ihre Kompetenzen eigenständig entsprechend ihres individuellen Lernbedarfs weiterzuentwickeln. Wichtig für den Lernerfolg ist es, den richtigen Rahmen zu schaffen, also die Voraussetzungen und Präferenzen des jeweiligen Lernenden zu berücksichtigen, entsprechende individuelle Lernpfade zu definieren und die geeigneten technologiegestützten oder auch präsenz-basierten Lernformen für die jeweiligen Inhalte auszuwählen.

Hier wird auch ein weiterer Paradigmenwechsel beim Lernen deutlich: Anstatt die Kompetenzentwicklung defizitär an den aktuellen Bedarfen im Unternehmen auszurichten, gilt es bereits heute die Kompetenzen zu definieren, die für die jeweiligen Mitarbeiter(gruppen) in Zukunft relevant sein werden und diese proaktiv zu entwickeln! Dies geht mit dem Aufbau eines zukunftsorientierten und flexibel anpassbaren Kompetenzbewertungsmodells einher. Optimalerweise berücksichtigt das Kompetenzmodell auch informell erworbene Kompetenzen, denn häufig verfügen die Mitarbeiter über eine Vielzahl von privat oder in anderen Tätigkeiten erworbenen Kompetenzen, die aber nur bedingt in den gängigen Modellen erfasst werden.

Die richtige Lernform auswählen

Die Auswahl und Gestaltung der geeigneten technologiegestützten Lernformen ist für Unternehmen oft eine nicht zu unterschätzende Herausforderung. Vielfach werden heute vorhandene Präsenzschulungen in Form von Foliensätzen und Handbüchern nahezu ohne Veränderungen in E-Learning- Einheiten transferiert, ohne dabei die didaktischen Vorteile oder auch Nachteile des ausgewählten Tools zu berücksichtigen. Dabei erfordert die Überführung einer Präsenzveranstaltung in eine E-Learning-Einheit eine Vielzahl von in Gleichzeitig entwickelt die Fachgruppe New Work auch federführend das nationale und internationale Weiter-bildungsangebot des FIR weiter. Ein für den mexikanischen Automotive-Sektor konzipiertes Blended-Learning- Weiterbildungsprogramm zu den Themen arbeitsbezogenes Lernen, Produktivitätsmanagement, Werkzeugbau und Lean Management wurde unter der Leitung der Business-Development-Gruppe „New Industrial Work“ am FIR an der RWTH Aachen bereits erfolgreich gemeinsam mit den Partnern MTMA und WBA etabliert. Darüber hinaus entwickelt die Business Development Gruppe gemeinsam mit dem Fraunhofer IAO einen Blended-Learning-Kurs zum Thema Personalführung 4.0.

Autor:

Roman Senderek

Leiter der Business-Development-Gruppe New Industrial Work

FIR e. V. an der RWTH Aachen

Telefon: +49 241 47705-225

E-Mail: Roman.Senderek@fir.rwth-aachen.de

www.fir.rwth-aachen.de


Weitere Informationen unter:

new-work.fir.de

www.e-mas.de

www.ellaviernull.de

www.projekt-lida.de/

Veröffentlichung mit freundlicher Genehmigung durch den FIR e.V. an der RWTH Aachen

Flexibilität darf keine Übergangslösung sein

Anja Popp, Chief People Officer bei Uberall im Gespräch mit der TREND REPORT Redaktion über New Work, Digitalisierung und Werte als Basis für erfolgreiche Unternehmen.

Frau Popp, welche Erkenntnisse haben Sie für Ihr Unternehmen aus den vergangenen Monaten gezogen?

Grundsätzlich haben die letzten Monate eindeutig gezeigt, dass Remote Working dauerhaft funktioniert. Wir mussten unsere Prozesse glücklicherweise nur wenig umstellen, da diese aufgrund unserer internationalen Ausrichtung schon vor der Pandemie zum größten Teil vollständig digitalisiert abliefen. Unsere Mitarbeiter:innen schätzen es sehr, ihren Arbeitsort frei wählen zu können und selbst zu entscheiden, wie sie arbeiten möchten. Remote Working ist mittlerweile zum Standard geworden und Unternehmen, die bislang nicht darauf umgestellt haben, befinden sich ganz klar im Nachteil.

Diese Entwicklung hat aber auch Auswirkungen auf die Loyalität zu Unternehmen, die wir in diesem Ausmaß nicht unbedingt erwartet hätten. Durch die freie Wahl des Arbeitsplatzes sind sowohl die Arbeitgeber:innen als auch die Arbeitnehmer:innen wesentlich flexibler, sodass die Hemmschwelle für den Wechsel zu einem anderen Unternehmen deutlich gesunken ist.

Sie arbeiten bereits sehr global und digital, sind als Unternehmen in den unterschiedlichsten „Kulturkreisen“ verankert. Wie haben Sie es geschafft, ein gemeinsames Mindset zu entwickeln?

Meiner Meinung nach ist ein gemeinsames Mindset hierbei nicht das Wichtigste. Vielmehr muss es darum gehen, eine kulturelle Basis zu schaffen, indem ganz bestimme Werte verankert werden. Für uns sind diese Werte „Grow Together“, „Demonstrate Passion And Performance“ und „Be Bold And Drive Change“. Diese dienen uns allen zur Orientierung und werden immer wieder in den Mittelpunkt gestellt.

Darüber hinaus verstehen wir uns als modernes und internationales Unternehmen und wollen unsere Mitarbeiter:innen dazu animieren, ihre individuelle Persönlichkeit auch bei der Arbeit einzubringen, um von den unterschiedlichen Perspektiven zu profitieren. Dafür haben wir ganz spezielle Prozesse und Strukturen geschaffen – so beispielsweise Workshops zur Cultural Awareness oder regelmäßige interne Meinungsumfragen.


„… wir wollen unsere Mitarbeiter:innen dazu animieren, ihre individuelle Persönlichkeit auch bei der Arbeit einzubringen, um von den unterschiedlichen Perspektiven zu profitieren.“


Anja Popp

Die Innovationsgeschwindigkeit insbesondere bei IT nimmt zu. Welchen Rat geben Sie Unternehmen mit auf den Weg bei der Bewertung dieser Innovationen? Und wie schaffen Sie es selbst „auf Kurs zu bleiben“?

Innovation sollte von allen Unternehmen in sämtlichen Bereichen gezielt vorangetrieben und genutzt werden. Vor allem im Bereich der Digitalisierung müssen Arbeitgeber:innen sich ständig weiterentwickeln, um dauerhaft für Arbeitnehmer:innen attraktiv zu bleiben und sich im Konkurrenzkampf um sie durchzusetzen.

Besonders junge Mitarbeiter:innen legen immer mehr Wert auf digitale Tools, wie Smartphone-Apps, über die sie ihren Arbeitsalltag organisieren können. Dazu ist eine zeitgemäße Außenkommunikation unerlässlich, um die Zielgruppen direkt dort zu erreichen, wo sie sich aufhalten. Vor Instagram oder sogar TikTok sollten sich Unternehmen also nicht scheuen.

Um selbst nicht den Anschluss zu verlieren, stehen wir in ständigem Austausch mit unseren Mitarbeiter:innen und anderen HR-Verantwortlichen. Außerdem lassen wir uns gerne in sozialen Medien und von der kreativen Startup-Landschaft inspirieren, in der fast täglich neue spannende Lösungen präsentiert werden.

Wenn sich eines in den letzten Monaten gezeigt hat, dann, dass ein großer Teil der Gesellschaft für mehr „Digitalität“ bereit ist. Wie lässt sich das Momentum nutzen und auch insgesamt als Gesellschaft gewinnen?

Wir müssen uns daran gewöhnen, dass alles experimentierfreudiger wird. Corona hat die Digitalisierung in so gut wie allen Umfeldern rasant beschleunigt und damit gezeigt, wie schnell innovative Lösungen gefunden werden können.


„Wir müssen zukünftig mehr ausprobieren und uns auch an mehr Volatilität gewöhnen, um den Fortschritt nicht zu behindern.“


Die damit verbundene Flexibilität darf keine Übergangslösung sein, sondern muss dauerhaft etabliert werden. Besonders im internationalen Vergleich hat Deutschland hier noch großen Aufholbedarf.

Wir müssen zukünftig mehr ausprobieren und uns auch an mehr Volatilität gewöhnen, um den Fortschritt nicht zu behindern. Die Digitalisierung bildet hierfür eine Grundlage, da wir mit ihrer Hilfe nicht nur national, sondern auch global immer weiter zusammenrücken können.

Zur Person:

Anja Popp ist Chief People Officer beim Location-Marketing-Unternehmen Uberall. In ihrer Position ist sie für das Recruiting, die Mitarbeiterbindung sowie die Entwicklung von Personalrichtlinien verantwortlich und setzt innovative Ansätze im Personalwesen um. Anja Popp hat mehr als zwölf Jahre Erfahrung in der Leitung aller Aspekte im Bereich Human Resources in Tech-Unternehmen. Vor ihrer Tätigkeit bei Uberall arbeitete sie als Personalchefin beim internationalen Spieleentwickler King. Davor war Popp in leitenden HR-Positionen bei Fujitsu Global und AMD tätig.

https://uberall.com/de

Aufmacherbild / Quelle / Lizenz
Bild von Anrita1705 auf Pixabay

Open Source in der Verwaltung – auch die Plattform-Strategie entscheidet

Von Christof Orth*

Bei der Digitalisierung und Modernisierung der öffentlichen Hand muss die digitale Souveränität einen hohen Stellenwert einnehmen. Und dabei ist Open-Source-Software (OSS), die eine hohe Innovationskraft und Herstellerunabhängigkeit bietet, ein wichtiger Baustein. Allerdings wirft die Open-Source-Nutzung auch Fragen auf: Welche Open-Source-Komponenten sollen eingesetzt werden, wie schaut eine ideale Plattform aus und welche Rolle spielt dabei die Cloud?

Christof Orth, Senior Manager Sales Government, Health Care, Education and Research bei Red Hat: „Insgesamt ist Open Source somit ein wesentliches Element für die Modernisierung und digitale Souveränität der öffentlichen Verwaltung. Allerdings stellt das vielfältige Angebot an Open-Source-Komponenten jede Behörde vor große Herausforderungen bei der Entscheidungsfindung und Beschaffung.“

Die öffentliche Hand verfolgt generell verstärkt eine Open-Source-Strategie – bis hin zu den einzelnen Kommunen, das heißt, sie setzt bei der Beschaffung und bei Eigenentwicklungen auf Open-Source-Lösungen. Dabei sollte allerdings eines klar sein: Open Source muss nicht bedeuten, dass eine Kommune alles selber macht und Open-Source-Entwicklungen eigenständig steuert und vorantreibt. Gerade hinsichtlich der Infrastruktur-Basis sind „Enterprise-ready“-Lösungen verfügbar, die Standard-Software beinhalten, Support und SLAs (Service Level Agreements) bieten. Dies betrifft etwa Linux-Betriebssysteme, Container-Plattformen und Middleware-Komponenten im Infrastruktur-Stack des Backends von Verwaltungen.

Die Entwicklungsaufgaben, insbesondere auch beim Onlinezugangsgesetz (OZG) der öffentlichen Hand betreffen eher die Fachanwendungen, die unter Open-Source-Lizenzen entwickelt und bereitgestellt werden. Open-Source dient somit auch als Entwicklungsmodell für die Fachverfahren. Hierbei wird zukünftig eine verstärkte Kooperation der Kommunen stattfinden. Gemeinsam werden Fachverfahren konzipiert – ganz im Sinne des Open-Source-Community-Gedankens. Auf Behördenseite wird dabei vielfach auch ein Kulturwandel erforderlich sein, bedingt durch die teamübergreifende Zusammenarbeit bisher unabhängig agierender Stellen.

Nicht unterschlagen werden soll aber, dass es für Fachverfahren auch Anbieter gibt, deren bewährte Lösungen zumindest kurz- und mittelfristig auch weiterhin genutzt werden. Ein Beispiel liefert das Standesamtswesen. Die nur für den deutschen Markt bestimmten Lösungen erfüllen auch alle Anforderungen hinsichtlich digitaler Souveränität und Datenschutz. Bei gleichbleibender Funktionalität stellt sich bei diesen Anwendungen die Frage, ob ein Open-Source-Ansatz immer sofort verfolgt werden muss. Enterprise Open Source Infrastructure und diese Lösungen schließen sich aber nicht aus, sondern ermöglichen erst voll automatisierte Rechenzentren. Generell wird aber der Weg auch bei den Fachverfahren in Richtung Open Source gehen.

Dass der öffentliche Sektor verstärkt die Open-Source-Richtung einschlagen muss, hat auch die EU in ihrer Studie „The impact of Open Source software and hardware on technological independence, competitiveness and innovation in the EU economy“ aufgezeigt. Die EU beschreibt hier die Notwendigkeit einer Digitalisierung in allen Bereichen der Gesellschaft und sieht Open-Source-Software und -Hardware als wichtige Elemente zur Erreichung dieses Zieles, gerade auch im Hinblick auf die Digitalisierung des öffentlichen Sektors.

Kubernetes als kommerzielles Framework

Wie in allen Branchen werden auch bei der öffentlichen Hand Applikationen immer komplexer. Zudem steigt die Notwendigkeit, Entwicklungen schneller umzusetzen. Für die Konzeption, Erstellung und Bereitstellung nutzen Unternehmen wie Behörden deshalb verstärkt Architekturen auf der Basis von Containern – und dieser Trend wird sich fortsetzen. Als der De-facto-Standard für die Automatisierung und Orchestrierung des Betriebs von Linux-Containern (und auch Windows) hat sich die Open-Source-Plattform Kubernetes herauskristallisiert. Auch bei Kubernetes stellt sich die Frage: „Do it yourself“ oder Nutzung eines kommerziellen Enterprise-Produkts? Hier spricht ebenfalls aufgrund des geringeren Entwicklungs- und Wartungsaufwandes vieles für das Letztere. Allerdings sollte die öffentliche Hand bei Kubernetes – etwa auch bei Ausschreibungen – auf einige wichtige Aspekte achten. Inzwischen gibt es viele Kubernetes-Angebote, die aber auch in eine neue Abhängigkeit führen können. Fachapplikationen können zwar containerisiert, aber weiterhin Silolösungen sein, sodass kein plattformunabhängiger Betrieb möglich ist und unter Umständen auch keine Konformität mit den Vorgaben des BSI (Bundesamt für Sicherheit in der Informationstechnik) besteht. Zum Glück gibt es bereits Community Drafts für SYS.1.6 Containerisierung und APP.4.4 Kubernetes für den IT-Grundschutz. Hier sollte eine Verwaltung von Anfang an darauf achten, dass klare Spezifikationen und BSI-Empfehlungen hinsichtlich der Anforderungen an eine Container-Plattform vorhanden sind.

Ein integrierter Ansatz ist hier in aller Regel der beste Weg, da damit alle Betriebsthemen von der Automatisierung bis hin zur Security umfangreich abgedeckt werden können. Damit ist auch die Basis geschaffen für die Konzeption und das effiziente Deployment von Fachverfahren. Eine Plattformneutralität bietet zum Beispiel im Rahmen von Ausschreibungen auch eine einfache Zugangsmöglichkeit für externe Dienstleister, die SaaS-Modelle anbieten. Letztlich können Verwaltungen damit auch Beschaffungsprozesse optimieren.

Die Cloud als Option

Neben Open Source, der Container-Nutzung und der Kubernetes-nativen Entwicklung wird auch das Thema Cloud die öffentliche Verwaltung künftig stärker prägen. Vor allem Hybrid-Cloud-Modelle, die On-Premise- und Off-Premise-Ressourcen verknüpfen, werden dabei an Relevanz gewinnen. Damit kann die öffentliche Verwaltung einerseits die Skalierbarkeit einer Public Cloud und andererseits die Flexibilität einer Private Cloud für die Umsetzung von Anforderungen in Bereichen wie Sicherheit, Datenhaltung und -verarbeitung oder Risikomanagement nutzen. Auch hier zeigen sich die Vorteile einer integrierten Plattform, die alle Betriebsumgebungen vom eigenen Rechenzentrum bis zu den großen Cloud-Lösungen unterstützt und das Verschieben von Applikationen und Daten ermöglicht. Ein Beispiel dafür, dass Cloud-Technologien auch On-Premise ein wichtige Rolle spielen und hohe Anforderungen erfüllen können, ist die kürzlich angekündigte VS (Verschlusssachen)-Cloud. So haben Secunet, IBM und Red Hat eine Cloud-Lösung konzipiert, die auf Sicherheitstechnologie „Made in Germany“, Enterprise Open Source Software und professionellen Services basiert. Die Unternehmen wollen damit die erste hochsichere Cloud-Lösung auf dem deutschen Markt zum Einsatz für Verschlusssachen der Einstufung VS-NfD (Verschlusssachen – Nur für den Dienstgebrauch) bereitstellen. Damit sollen die Aktivitäten der öffentlichen Hand hinsichtlich der digitalen Souveränität zusätzlich unterstützt werden.

Insgesamt ist Open Source somit ein wesentliches Element für die Modernisierung und digitale Souveränität der öffentlichen Verwaltung. Allerdings stellt das vielfältige Angebot an Open-Source-Komponenten jede Behörde vor große Herausforderungen bei der Entscheidungsfindung und Beschaffung. Eine Open-Source-Strategie sollte deshalb immer das Leistungsspektrum, die Funktionalität, die Flexibilität und Zukunftssicherheit von Lösungen im Auge behalten. Und ein Kernbestandteil kann dabei eine Plattform und Komplettlösung sein, die alle erforderlichen Technologie-Komponenten beinhaltet.

* Christof Orth ist Senior Manager Sales Government, Health Care, Education and Research bei Red Hat

Weitere Informationen unter:
www.redhat.de