Lager- und Versandkapazitäten erfolgreich steigern

Printus startet Erweiterungsoffensive im Logistikzentrum

Starkes Wachstum zieht sich als roter Faden durch die über 40-jährige Unternehmensgeschichte von Printus. Das Offenburger Unternehmen zählt zu den größten Online-Händlern Europas und hat seine Marktposition durch die Übernahme der Büroversandhandelssparte der OTTO Group („OTTO Office“) nachhaltig gefestigt. Zeit, die Logistik an die neuen Herausforderungen anzupassen. Unterstützt von den Hamburger Logistikexperten von Fortna | Pierau erweitert Printus die Lager- und Versandkapazitäten – stufenweise und im laufenden Betrieb.

Ursprünglich rein auf Büroartikel spezialisiert, umfasst das Sortiment von Printus inzwischen auch Media- und Kommunikationsartikel sowie Unterhaltungselektronik. Mehr als 1.600 Mitarbeiter setzen sich heute täglich dafür ein, dass über 3 Mio. Kunden ihre Bestellungen über 18 verschiedene Online-Shops sowie zahlreiche Kataloge innerhalb von 24 Stunden erhalten.

Stark wachsende Unternehmen stehen vor der typischen Herausforderung, dass die Logistik im gleichen Tempo mitwachsen muss. Im Zuge der anhaltend positiven Unternehmensentwicklung wird Printus daher seit mehr als 30 Jahren von Fortna | Pierau unterstützt und hat kontinuierlich notwendige Investitionen getätigt – das bisherige Highlight geht zurück ins Jahr 2005: Damals war am Stammsitz Offenburg ein neues Versand- und Verwaltungszentrum mit innovativer Logistiktechnologie gebaut worden.

Retrofit, Erweiterung, Neubau – neue Logistik für veränderte Sendungsstrukturen

Nicht nur moderner, sondern auch leistungsstärker: Der neue Sorter erreicht im Wareneingang eine Maximalkapazität von 5.000 Sendungen/Stunde.

„Nach der erfolgreichen Eingliederung eines neuen Geschäftsbereichs haben wir unsere hauptsächlich auf den B2B-Sektor ausgerichteten Aktivitäten um das Endkundengeschäft erweitert“, erklärt Dietmar Mahler, Bereichsleiter Logistik bei Printus. „Dadurch verändert sich die Sendungsstruktur, denn Privatkunden tätigen in der Regel kleinteiligere Bestellungen in geringeren Mengen. Weil wir darüber hinaus in diesem Bereich starkes Wachstum verzeichnen, bestand Handlungsbedarf.

Wir mussten unsere Kapazitäten erhöhen, um auch bei steigenden Liefermengen leistungsfähig zu bleiben und unser 24-Stunden-Lieferversprechen einhalten zu können.“ Das aktuelle Logistikprojekt vertrauten die Offenburger erneut dem Expertenteam von Fortna | Pierau an: Die Projektleiter Andreas Spitzki und Jan-Hendrik Plumhoff entwickelten ein Stufenkonzept, das mit Rücksicht auf den laufenden Betrieb sukzessive umgesetzt wurde.

Die erste Realisierungsstufe betrifft den Kartonstart: Maschinell aufgerichtete Leerkartons werden auf ihrem Weg zur Kommissionierung zu einer neuen Etikettendruckstation befördert. Gegenüber dem bisherigen Inkjetsystem gewährleistet diese eine konstante Druckqualität. Das erhöht die Lesequote der Scanner wesentlich.

Das neu implementierte Shuttlelager mit zwei Gassen
ist auf eine maximale Kapazität von 35.000 Behältern
ausgerichtet und ergänzt das bestehende AKL.

Eine weitere Ausbaustufe zur Kapazitätserhöhung umfasst die Erweiterung des bestehenden AKL um ein zusätzliches Shuttlelager mit zwei Gassen. „Das Shuttlesystem ist auf eine maximale Kapazität von 35.000 Behältern und eine Leistung von 400 Doppelspielen pro Stunde je Gasse ausgerichtet“, so Andreas Spitzki. „In der AKL-Vorzone entzerrt ein Loop die Ein- und Auslagerungsprozesse und reduziert Wartezeiten.“

Eine zusätzliche Behälterbefüllstation ergänzt außerdem die Bestandslogistik und sorgt künftig dafür, dass Artikel aus angelieferten Kartons mit den AKL-Behältern verheiratet werden; sie werden umgefüllt und fahren anschließend zur Einlagerung ins AKL oder Shuttlelager. An jedem Arbeitsplatz sorgt flexible Höhenverstellbarkeit dafür, dass die Mitarbeiter die Behälter in der ergonomisch optimalen Höhe zur weiteren Bearbeitung erhalten.

Im Bereich der Kommissionierung hat sich die bereits 2005 mit Fortna | Pierau entwickelte und integrierte Technik bewährt: „Die artikelreinen zur Kommissionierung benötigten Behälter werden aus dem AKL ausgelagert und in die Picktower transportiert“, erklärt Jan-Hendrik Plumhoff. „Mit Lastaufnahmemitteln ausgestattete Hubbalken holen die Behälter aus der jeweiligen Höhe. Die Mitarbeiter entnehmen mithilfe von Pick-by-Light-Technik die Bedarfsartikel zur weiteren Befüllung der teilkommissionierten Kartons.“

Während in einigen Bereichen der Fördertechnik bestehende Komponenten gezielt modernisiert wurden, ist im Erdgeschoss der Verpackungsbereich grundlegend erneuert worden. Ein neuer Schuhsorter erreicht im Warenausgang die Spitzenleistung von 5.000 Sendungen pro Stunde. Darüber hinaus kommt mit neuen Kartondecklern mit automatischer Volumenreduzierung Technik der neuesten Generation zum Einsatz: Der höchste Artikel im Karton wird ausgemessen, danach werden die Ecken entsprechend eingeschnitten, die Laschen gefaltet und automatisch gedeckelt. Anschließend werden die Sendungen mithilfe neu eingeführter Versandetikettierer gekennzeichnet, und die versandfertigen Sendungen gehen auf die Endstellen zur Routenverteilung.

Im grunderneuerten Verpackungsbereich erhöhen
neue Kartondeckler mit automatischer Volumenreduzierung
Effizienz und Wirtschaftlichkeit.

„Mit der Umsetzung der nächsten Stufe des Maßnahmenpakets erzielen wir eine Verdoppelung unserer Lagerkapazitäten im automatischen Paletten-Hochregallager. Die vorhandenen fünf Gassen werden um weitere sechs Gassen erweitert – wir können so auf über 20.000 Palettenplätze aufstocken“, sagt Dietmar Mahler.

„In diesem Zuge wurde auch ein Erweiterungsbau für eine zusätzliche Kanalballenpresse zur Altpapierentsorgung errichtet. Außerdem befinden sich dort neuerdings die Staplerladestationen.“ Ihr Umzug war nötig, um Platz für die Palettenfördertechnik des neu errichteten HRLs zu schaffen.

„Zusammenfassend ist die Komplexität des aktuellen Projekts hervorzuheben – die größte Aufgabe, die wir rückblickend sehr erfolgreich erfüllt haben, bestand darin, die Retrofit-Maßnahmen im laufenden Betrieb umzusetzen“, erklärt Dietmar Mahler. „Insgesamt erreichen wir durch die mit Fortna | Pierau gemeinsam erarbeiteten und umgesetzten Maßnahmen einen Durchsatz von über 3.000 Sendungen pro Stunde und erzielen damit die maximal mögliche Effizienz im Bestandsgebäude.“

Über Fortna | Pierau
Fortna | Pierau ist seit 60 Jahren ein fest etabliertes Beratungsunternehmen für Intralogistik- und Supply-Chain-Lösungen. Bis heute haben die Hamburger Spezialisten über 2.500 Projekte in ganz Europa und darüber hinaus erfolgreich abgeschlossen. Das Portfolio umfasst die komplette Bandbreite der Optimierung, Erweiterung oder der Neuplanung und Realisierung von Logistikanlagen und Logistik-IT-Systemen. Seit Anfang 2020 gehört Fortna | Pierau zu dem US-amerikanischen Beratungsunternehmen Fortna®, The Distribution Experts™.

www.fortna-pierau.de

Ihr Kontakt zum Unternehmen:
Herdis Seibt
Grotenbleken 33, D-22391 Hamburg
Tel.: +49 – (0)40 606 899-12
Fax: +49 – (0)40 606 899-14
E-Mail: marketing@fortna-pierau.de

Beitragsbilder / Quelle / Lizenz:
Bildmaterial (©PRINTUS GmbH)

Aufmacherbild / Quelle / Lizenz
Image by Thanks for your Like • donations welcome from Pixabay

Cross-Border-Versand

Herausforderungen beim Cross-Border-Versand erfolgreich meistern

Es ist ein unaufhaltsamer Trend: 23 Prozent aller Onlineverkäufe in Europa finden bereits über Grenzen hinweg statt – und immer mehr E-Tailer wollen diese Exportchancen für sich nutzen. Doch mit dem Eintritt in neue Märkte entstehen auch neue Herausforderungen. Seven Senders, die führende Delivery-Plattform für den Paketversand in Europa, hat die Lösung für langfristigen Erfolg im Cross-Border-Versand.

Neue Märkte = neue Herausforderungen

Selbst bei großem Erfolg im nationalen Onlinehandel sind vor der Expansion viele Punkte zu klären, um die guten Ergebnisse auch über die Grenze zu tragen: Neben sprachlichen Barrieren und rechtlichen Hürden ist es im Ausland häufig auch schwierig, zuverlässige Logistikpartner zu finden. Ebenfalls relevant ist die Frage: Welche Kundenpräferenzen gibt es im Zielland? Denn nur mit zufriedenen Kunden erzielen Onlinehändler langfristigen Erfolg im Ausland. Das zeigt auch eine von Seven Senders in Auftrag gegebene YouGov-Studie: 53 Prozent der Kunden würden nicht erneut beim selben Händler kaufen, wenn sie schlechte Erfahrungen bei Einkauf, Versand und Co. gemacht haben. Um die Kundenpräferenzen zu kennen und erfüllen zu können, ist der Einsatz von lokalen Carriern vor Ort entscheidend. Eine Expansion ist somit meist mit neuen Anwendungen, neuen Ansprechpartnern und zusätzlichem Personal verbunden. Das treibt nicht nur die Kosten in die Höhe, sondern sorgt gleichzeitig für komplexere Abstimmungsprozesse und erschwert logistische Aufgaben.

Der Kunde ist König

Ob nationaler oder internationaler Versandhandel: Eine professionelle Customer Experience ist hier wie dort unverzichtbar. Das Wissen über die Kundenpräferenzen kann außerdem helfen, die Kundenbindung zu stärken. Allerdings sind die Kundenwünsche von Markt zu Markt verschieden. Das betrifft die verschiedensten Faktoren, darunter Versand, Bezahlung und Retouren. In Italien sind etwa Online-Bezahlanbieter wie PayPal sehr beliebt. 51 Prozent der italienischen Kunden nutzen sie. In der Schweiz sieht das allerdings anders aus: Nur 12 Prozent nutzen sie, hier bestellt jeder zweite Onlinekunde lieber auf Rechnung. In Frankreich bezahlen 58 Prozent mit Kreditkarte, in Deutschland hingegen nur 10 Prozent. Die Anpassung von Währung und Sprache bildet zudem die Basis, um in den einzelnen Ländern konkurrenzfähig zu sein. Eine individuelle Lösung für jedes Land ist demnach ausschlaggebend für Erfolg im internationalen E-Commerce.


„Mit einem eigenen Carrier in jedem Land können Kunden ihre Pakete an den gängigen Drop-off-Points abgeben.“

Autor:

Dr. Johannes Plehn, Gründer und Geschäftsführer von Seven Senders

Als COO des Project-A Onlineshops Wine in Black lag sein Fokus auf der Optimierung von Einkaufs-, Payment-, Fulfilment-Prozessen und Customer Service, sowie der Erarbeitung eines ganzheitlichen Order Management Systems. Während seiner Doktorarbeit an der ETH Zürich, entwickelte er ein Framework zur Optimierung der Eco-Efficiency von produzierenden Unternehmen, analysierte die Auswirkungen von bestehenden Freihandelsabkommen auf globale Supply Chains und erarbeitete eine Operationsstrategie für einen OEM aus der Transportindustrie.


Internationale Versanddienstleister oder lokale Carrier?

Wer Cross-Border-E-Commerce betreibt, entscheidet sich meist zwischen einem internationalen Versanddienstleister oder lokalen Carriern im Zielland als Partner. Eine auf die Kundenpräferenz optimierte Herangehensweise ist oft mit hohen Kosten und Aufwand verbunden. Denn internationale Versanddienstleister decken nicht immer alle vom Kunden und Endkunden gewünschten Services ab. Mit dem Einsatz lokaler Carrier, die vor Ort und damit nah am Markt sind, werden jedoch Abstimmungsprozesse komplexer, wachsen die logistischen Aufgaben, die Anzahl der Kontaktpersonen und entsprechend auch die Kosten. Eine Lösung bietet das Carrier-Netzwerk aus über 100 lokalen Paketzustellern des Unternehmens: Über die zentrale Delivery-Plattform können Onlinehändler exakt diejenigen Versanddienstleister auswählen, welche die Zustell- und Abholoptionen anbieten, die die Kunden vor Ort wünschen.  

So vermeiden sie, dass viele Onlinekäufer den Kaufvorgang abbrechen, weil die Lieferoptionen nicht ihren Anforderungen entsprechen. Aber auch beim Retourenmanagement ist die Zusammenarbeit mit lokalen Paketzustellern von Vorteil: 27 Prozent der Onlinekunden nennen bequeme Rücksendeabläufe als wichtigstes Entscheidungskriterium für Ihre Shop-Wahl. Hierbei ist es wichtig, dass die Abgabe der Retoure einfach und vor allem überall möglich ist. Mit einem eigenen Carrier in jedem Land können Kunden ihre Pakete an den gängigen Drop-off-Points abgeben. Über eine zentrale Delivery-Plattform decken Onlinehändler eine breite Palette an Zielländern mit nur einem zentralen Ansprechpartner und auf Basis eines einzigen Vertrags ab. Das reduziert die Komplexität des grenzüberschreitenden Versands und spart gleichzeitig Zeit und Geld.

Datenanalyse: Voraussetzung für Flexibilität und Optimierung

E-Commerce ist ständig im Wandel; Rahmenbedingungen und Kundenwünsche ändern sich hier sehr schnell. Für langfristig gute Ergebnisse sind daher Offenheit und die Bereitschaft, alles neu zu denken, wichtige Voraussetzungen. Die Zusammenarbeit mit einer Delivery-Plattform wie Seven Senders bietet eine Lösung, mit der Händler Märkte und Abläufe jederzeit im Blick behalten können. Das Carrier-Netzwerk ermöglicht zudem viel Flexibilität: Deckt ein gewählter Partner die Kundenbedürfnisse nicht mehr ab, können Onlinehändler innerhalb des Zustellernetzes von Seven Senders schnell und unkompliziert wechseln. Wertvoll ist dabei die umfangreiche Datenanalyse mit dem Analyse-Tool Analytics.

Der Überblick über alle Prozesse beim Cross-Border-Versand macht Unregelmäßigkeiten, wie etwa Abweichungen im Lieferprozess, unmittelbar sichtbar und ermöglicht eine schnelle Reaktion. Automatische Alerts versorgen Onlinehändler beispielsweise mit Informationen über Zustellzeiten und Zustellqualität. Dadurch lassen sich Prozesse schnell und flexibel anpassen – ohne dass die Kunden es bemerken. Auch Lieferentwicklungen und Trends können durch ein zentrales Analytics-Tool präzise vorausgesagt und analysiert werden. Vor allem in Peak-Zeiten, die ein wachsendes Paketvolumen mit sich bringen, kann das zum entscheidenden Vorteil gegenüber der Konkurrenz werden.

Seven Senders unterstützt international aufgestellte Onlinehändler, Prozesse zu optimieren und die Komplexität zu reduzieren. Und hilft gleichzeitig dabei, langfristig erfolgreich international zu versenden und von dem aktuellen E-Commerce-Boom zu profitieren, indem Online-Händler ihren Versand einfach an die jeweiligen Lieferbedingungen der Kunden vor Ort anpassen können.

Aufmacherbild / Quelle / Lizenz
Photo by Mika Baumeister on Unsplash

Neue Impulse für den Wandel hin zur Kreislaufwirtschaft

Weniger reden, mehr handeln – das ist Nachhaltigkeit. Was Lexmark in diesem Bereich unternimmt, schildert Maxime Furkel, Head of Government Affairs in seinem Gastbeitrag.

Nach dem Abschluss des Pariser Klimaabkommens verfolgen Länder und Unternehmen auf der ganzen Welt mit Nachdruck ihre Pläne zur Verwirklichung einer kohlenstoffneutralen Wirtschaft. Auch wenn der große Willen zu dieser tiefgreifenden Transformation Hoffnung macht, kann sich auf dem Weg dahin aber wegen der gewaltigen Aufgabe auch immer wieder ein Gefühl der Überforderung einschleichen. So schätzen z. B. Experten (World Bank, What a Waste 2.0, Seite 25), dass das weltweite Abfallaufkommen weiter steigen wird. Für das Jahr 2050 wird eine Abfallmenge von rund 3,4 Milliarden Tonnen erwartet, wenn sich nichts ändert – zum Vergleich: Im Jahr 2016 lag dieser Wert noch bei 2,02 Milliarden Tonnen. Die Motivation, den Umkehrschwung zu schaffen, muss daher befeuert werden. Und manchmal hilft auch ein Blick auf die Fortschritte, die in einzelnen Branchen schon erreicht wurden, um die eigenen Ziele mit neuer Kraft anzugehen.

Kreislaufwirtschaft in Europa

Die Kreislaufwirtschaft ist ein solcher Ansatz für Unternehmen, durch den sich Wachstum neu definieren lässt und der den Verbrauch endlicher Ressourcen durch die Priorität auf der Wiederverwendung von Komponenten reduzieren kann. Die Druckbranche ist hier teilweise schon sehr aktiv. So beteiligt sich mein Unternehmen als weltweiter Player zum Beispiel bereits als Mitglied im European Remanufacturing Council und engagiert sich bei C-SERVEES, einem von der Europäischen Union finanzierten Projekt zur Vermeidung von Elektroschrott (WEEE). Neben dem Recycling muss in einem Kreislaufmodell aber auch die Reparatur und Aufarbeitung von Produkten für die Wiederverwendung eine hohe Priorität haben – Geräte dürfen in Zukunft einfach nicht mehr nach einmaliger Verwendung nur noch gut genug zum Wegzuwerfen sein.

Eine im Rahmen des C-SERVEES-Programms durchgeführte Untersuchung des Drucker-Sektors hat aber auch auf wichtige Faktoren hingewiesen, die als Marker dafür dienen können herauszufinden, wo noch mehr getan werden muss , um die Akzeptanz von Wiederaufbereitungsprozessen zu fördern und so den Übergang zu einer Kreislaufwirtschaft zu beschleunigen. Interessanterweise geben etwa nur sehr wenige Unternehmen ihre Altgeräte an den jeweiligen Originalgerätehersteller (OEM) zurück. Selbst dort, wo OEMs eine Aufarbeitung durchführen und wiederaufbereitete Geräte anderweitig verkaufen, handelt es sich oft nicht um die zahlreicheren kleineren Geräte wie A4-Drucker. Das liegt wahrscheinlich daran, dass fabrikneue A4-Drucker bereits als erschwinglich gelten und es dann aus Unternehmens- oder Verbrauchersicht einfacher, schneller und zuverlässiger ist, einen defekten Desktop-Drucker durch einen neuen zu ersetzen, als sich damit zu beschäftigen, was mit dem Gerät nicht stimmt, oder ein wiederaufbereitetes Modell zu kaufen.

Nach Angaben der Vereinten Nationen produziert jeder Mensch auf der Welt im Jahr 2021 durchschnittlich 7,6 kg Elektroschrott. Nur 17,4 Prozent des weltweiten – hochgerechnet 57,4 Millionen Tonnen – Elektroschrotts werden bisher ordnungsgemäß gesammelt und recycelt. Das C-SERVEES Projekt der Europäischen Union zur Vermeidung von Elektroschrott informiert in einem  neuen Video über die aktuelle Lage und neue Ansätze beim Kauf und der Nutzung von Elektronikgeräten (Quelle: C-SERVEES EU-Projekt).

Darüber hinaus ergab die Studie, dass Preis und Qualität weiterhin ein Problem darstellen, wenn es darum geht, den Aufarbeitungsmarkt zu fördern. Die Gleichung ist einfach: Im idealen Fall muss die Qualität hoch genug sein, um Käufern ein wiederaufbereitetes Gerät schmackhaft zu machen, und auf der anderen Seite müssen die Kosten für die Aufarbeitung niedrig genug sein, dass der Prozess für OEMs wirtschaftlich bleibt. Natürlich ist die Versuchung groß, alles beim Alten zu belassen und den Umweltaspekt zu vernachlässigen, wenn Kunden lieber neue Produkte kaufen, weil diese die für sie billigste und einfachste Lösung sind.

Chancen, wie der klimaschonende Kreislauf gefördert werden könnte

Es gäbe viele Möglichkeiten, wie sich die Transformation zur Kreislaufwirtschaft und die Akzeptanz von wiederaufbereiteten Produkten im Markt durch Maßnahmen auf Seiten der Regulierungsbehörden und Unternehmen erhöhen ließe. Zum Beispiel durch die Gesetzgebung – warum könnte man Herstellern nicht einen Bonus bieten, wenn sie die Kreislauffähigkeit ihrer Produkte bereits in der Entwicklungsphase mitberücksichtigen. Flankierend zu jedem neuen Gesetz müssten auch im öffentlichen Beschaffungswesen ehrgeizige Ziele eingeführt werden, um den Kauf aufgearbeiteter Produkte zu fördern und zu fordern. Werbekampagnen könnten darauf abzielen, Verbraucher detailliert aufzuklären, damit sie besser verstehen, wie sie durch den Erwerb und die Nutzung aufgearbeiteter Produkte aktiv zu einer umweltfreundlichen Zukunft beitragen. Verbraucher sollten Daten erhalten, die ihnen schon vor dem Kauf verraten, wie sich der ökologische Fußabdruck eines generalüberholten Geräts im Vergleich zu einem neuen Gerät unterscheidet. Sie sollten genau wissen, welche CO2-Belastung sie mit einem von ihnen gewählten Produkt “mitkaufen”. „Grüne“ Zertifikate, die den positiven Umweltbeitrag schwarz auf weiß bescheinigen, könnten den Kauf eines gebrauchten Geräts sehr viel attraktiver machen.

Akzeptanz fördern – und das schnell

So könnten beispielsweise QR-Codes als geeignetes Instrument dienen, um die Akzeptanz von Wiederaufbereitungsmaßnahmen zu erhöhen und den wirtschaftlichen Nutzen zu verbessern. Werden sie mit einer Blockchain verknüpft, so dass die gespeicherten Informationen nicht manipuliert werden können, könnten QR-Codes etwa dazu dienen, Käufer mit detaillierten umweltbezogenen Informationen zum CO2-Fußabdruck oder zum Energieverbrauch des Geräts bereits ab der Produktion zu versorgen. Über sie könnten sich Informationen über die Geschichte eines Produkts abrufen lassen (z. B. Installationsdatum, Drucknutzung und Reparaturhistorie). Am Beispiel von Druckern wäre es über auf einem QR-Code gespeicherte Daten möglich, den Wertes eines alten Geräts und seiner Ersatzteile besser einzuschätzen und so einen besseren Preis beim Verkauf von Altgeräten an OEMs zu erhalten. Angefangen bei QR-Codes über die Gesetzgebung bis hin zur zukunftsweisenden Kundenaufklärung – die Argumente für die Wiederaufbereitung müssen auf wirklich jeder Stufe der Wertschöpfungskette so überzeugend sein, dass die Kaufdiskussion nicht mehr allein vom Preis bestimmt wird.

Maxime Furkel: „Der beste Ansatz für OEMs besteht darin, ein bewusstes Engineering zu betreiben.“

Kreislaufwirtschaft von Anfang integrieren

Neben der Einführung von “Reverse-Logistik”-Prozessen und der Intensivierung der Marketingbemühungen für aufgearbeitete Produkte besteht aber der beste Ansatz für OEMs darin, ein bewusstes Engineering zu betreiben. Produkte müssen von Anfang an so entwickelt werden, dass ihre Lebensdauer maximiert und ihr Wert über das Ende der Nutzungsdauer hinaus gesteigert wird. Dies verbessert sowohl die Kostenbilanz als auch die Zeiteffizienz der Aufarbeitungsprozesse. Produkte müssen modular aufgebaut sein, so dass ein “End-of-Life”-Gerät sich problemlos mit der neuesten Software und Firmware aktualisieren lässt und auch neueste Sicherheitsfunktionen unkompliziert integriert werden können. Ein weiterer Bereich, der optimiert werden muss, ist die Lebensdauer von Ersatzteilen. Da sie einen der größten Kostenfaktoren bei der Aufarbeitung darstellen, müssen auch sie für eine längere Haltbarkeit und eine längere Lebensdauer entwickelt werden. Alle genannten Maßnahmen haben das Potenzial, das Geschäftsmodell der Wiederaufbereitung für OEMs, Händler, Recyclingunternehmen und letztlich für die Kunden sehr viel attraktiver machen. Mit ihnen ließe sich die Transformation zu einer echten Kreislaufwirtschaft in Europa beschleunigen – einer Kreislaufwirtschaft, die sich im Einklang mit unseren Umweltzielen entwickelt und uns auf dem Weg zur Erreichung der Klimaneutralität weiterbringt. Ich bin sehr zuversichtlich, dass solche Maßnahmen dem Markt für wiederaufbereitete Produkte in den kommenden Jahren ein sehr großes Wachstumspotenzial eröffnen werden – ein Wachstum, dass gleichzeitig auch gut für unsere Umwelt ist.

Weitere Informationen unter:
https://www.lexmark.com/de_de.html

Steuerung internationaler Unternehmen in turbulenten Zeiten

Gastautorin Verena Maas ist Marketing Managerin bei Board Deutschland

Das Jahr 2020 hat ein noch nie dagewesenes Maß an sozialen, politischen und wirtschaftlichen Turbulenzen mit sich gebracht. Für die Management-Ebene in Unternehmen bedeutete dies, dass sie schneller denn je reagieren, Entscheidungen fällen und Lösungen liefern mussten. Dabei sind den Unternehmen und vor allem den verantwortlichen Führungskräften durchaus die Risiken der Entscheidungen bewusst, denn sie können das Geschäft von morgen entweder beleben oder gefährden. Je volatiler die Märkte und je internationaler die Unternehmen aufgestellt sind, desto schwieriger ist es, die richtigen Entscheidungen zu treffen. Deshalb brauchen die Verantwortlichen die bestmöglichen Informationen, auf denen sie ihre Entscheidungen abstützen können. Unternehmen, die ihre Daten aktuell und verfügbar haben und die das Know-How und die Technologie besitzen, die Daten effizient zu analysieren und die Ergebnisse zu nutzen, haben hier einen deutlichen Wettbewerbsvorteil.

Entscheidungen auf unterschiedlichen Ebenen

Es lohnt sich, die Arten von Entscheidungen mal näher anzuschauen und ihre Auswirkungen, aber auch ihr Zustandekommen, zu betrachten. Auf der obersten Ebene stehen strategische Entscheidungen. Dies sind Entscheidungen, die langfristige und substanzielle Auswirkungen auf ein Unternehmen haben. Dabei handelt es sich z. B. um Jahresbudgets, Übernahmen von anderen Unternehmen, den Verkauf von Unternehmensteilen oder Vermögenswerten, oder die Eröffnung neuer Geschäftszweige. Dies sind typische Entscheidungen für die oberste Managementebene. Obwohl hier in die finale Entscheidung in der Regel nur wenige Personen eingebunden sind, gibt es in der Vorbereitung der Entscheidung eine große Anzahl von Mitarbeitern, die Daten und Fakten zusammentragen und einzelne Aspekte beurteilen.

Die zweite Ebene bilden taktische Entscheidungen. Diese beschäftigen sich mit der Umsetzung der Unternehmensstrategie und haben mittel- bis langfristige Auswirkungen auf das Unternehmen. Dazu gehören Vertriebs- und Marketingstrategie, Größe und Struktur der Belegschaft oder auch große Einkaufsentscheidungen. Hier sind für die Entscheidungsfindung neben dem Top-Management in der Regel die Abteilungsleiter der betroffenen Bereiche eng eingebunden.

Schließlich gibt es die Ebene der operativen Entscheidungen. Hier fallen die Entscheidungen über die alltägliche Bereitstellung der Produkte und Dienstleistungen des Unternehmens. Diese Entscheidungen sind von kurzfristiger Natur, haben aber massiven Einfluss auf das Tagesgeschäft und die Leistungsfähigkeit des Unternehmens. Hier geht es häufig um Zuweisung von Tätigkeiten und die Sicherstellung notwendiger Ressourcen.

Vor allem die strategischen und taktischen Entscheidungen haben bei internationalen Unternehmen globale Auswirkungen. Fraglich ist allerdings, ob und wie diese Auswirkungen in den Ländern und Regionen bei der Entscheidungsfindung berücksichtigt werden. Wie muss sich ein Unternehmen aufstellen, um die globale Tragweite der Entscheidungen richtig einzuschätzen? Wie kann sichergestellt werden, dass alle Daten und Fakten, die relevant für eine Entscheidung sind, zuverlässig und zeitgerecht zur Verfügung stehen?

Technologischer Fortschritt als Treiber datenbasierter Entscheidungsfindung

Nahezu jede Aktivität in einem Unternehmen führt heute zu neuen Daten – und doch scheinen viele Unternehmen diese nicht für ihre Entscheidungsfindung zu nutzen. Bei einer kürzlich durchgeführten Umfrage von Board in Großbritannien gaben nur etwas mehr als die Hälfte (54 Prozent) der Befragten an, dass sie Geschäftsentscheidungen auf der Grundlage von Daten und Erkenntnissen treffen. 45 Prozent der Manager gaben zu, dass sie Entscheidungen meistens aus dem Bauch heraus treffen – etwas, das in einem turbulenten und schwer einzuschätzenden Markt durchaus zum Problem werden kann.

Doch welche Werkzeuge helfen dabei, fundierte Entscheidungen auf Basis valider Daten zu treffen? Fragt man in den Unternehmen nach, dann sind immer noch Tabellenkalkulationen die Hauptquelle für Informationen. Dies, obwohl sich die meisten Unternehmen bewusst sind, dass die Zahlen in Tabellenkalkulationen nicht immer fehlerfrei und zuverlässig sind. Zu komplex ist das Handling der verschiedenen Tabellenblätter, zu fehleranfällig das Zusammenführen verschiedener Tabellen und zu gering die Möglichkeiten, Änderungen und Eingaben zu protokollieren, um den Prozess sicher durchzuführen.

Mit der Zusammenführung unterschiedlicher Daten können Unternehmen zum Beispiel aus dem Handel automatisiert bessere Entscheidungen treffen.

Dabei gibt es heutzutage Technologien, die Zuverlässigkeit und Agilität in Planung, Analyse und Reporting bringen und die zudem so benutzerfreundlich sind, dass sie breite Akzeptanz bei den Mitarbeitern finden. Nicht nur in der Zentrale oder im Finanzwesen, sondern breit gefächert über Länder und Abteilungen hinweg. Wenn alle Verantwortlichen auf die gleichen, akkuraten Zahlen zugreifen können und Analysen schnell, problembezogen und ohne tiefgehende IT-Kenntnisse durchgeführt werden können, dann wird die Entscheidungsfindung deutlich fundierter und in der Folge erfolgreicher für die Unternehmen.

Die Zusammenführung unterschiedlicher Daten und die Vereinheitlichung von Business Intelligence (BI), Planung und Predictive Analytics in einer einzigen Umgebung schafft einen vollständig integrierten Ansatz für eine zuverlässige Entscheidungsfindung. Sie erzeugt eine ganzheitliche Sicht auf das Unternehmen und verbindet Strategie, Finanzen und Betrieb miteinander. Gleichzeitig bekommen die Entscheidungsträger die historischen und zukunftsorientierten Informationen, die sie für die Entscheidungsfindung benötigen.

Künstliche Intelligenz vereinfacht und beschleunigt die Analysen

Zunehmend wird Künstliche Intelligenz (KI) als Teil einer Entscheidungsfindungsplattform eingesetzt, um die datengesteuerten Ergebnisse, Simulationen und prädiktiven Modellierungsfunktionen zu unterstützen. Dank KI können Unternehmen viele grundlegende Aufgaben automatisieren und immense Datenmengen in viel kürzerer Zeit als je zuvor verarbeiten – und so bessere und genauere Ergebnisse für die Entscheidungsfindung erzielen. KI macht auch komplexe Daten leichter verständlich und auf mehr Arten verfügbar, bis hinunter zur granularsten Ebene. So bietet sie neue Möglichkeiten, Daten zu untersuchen und Erkenntnisse zu gewinnen. Damit unterstützt KI die mit der Auswertung befassten Mitarbeiter und beschleunigt den Prozess.

Mit Hilfe dieser Erkenntnisse sind die Entscheidungsträger in der Lage, bessere Entscheidungen zu treffen. Sie stützen sich ab auf große Mengen valider Daten, während ein Bauchgefühl immer nur auf einer begrenzten Menge von Informationen beruht.

Moderne Unternehmen als Vorreiter

Entscheidungen, die wichtig sind für die weitere Entwicklung von Unternehmen und die großen Einfluss darauf haben, wie erfolgreich Unternehmen in der Zukunft am Markt agieren, stehen für Manager in allen Unternehmen auf der Tagesordnung. Einige Unternehmen setzen bereits auf zeitgemäße Tools, um diese Entscheidungen bestmöglich vorzubereiten und zu unterstützen.

Puma ist eines der Unternehmen, das mit Hilfe von Board ein durchgängiges digitales Transformationsprojekt durchgeführt hat. Puma stand vor der Herausforderung, auf Trends und Nachfrageveränderungen schnell zu reagieren. Als weltweit tätiges Unternehmen mit einer langen Firmenhistorie ist Puma in vielen Ländern präsent. Jedes Land hat sein eigenes Geschäftsmodell und seine eigenen Prozesse. Diese Struktur hat zu einer Vielzahl von ERP-Systemen, Tabellenkalkulationen und anderen fragmentierten Werkzeugen geführt, deren Ergebnisse in der Zentrale zusammengefasst werden müssen. Die mangelnde Integration der Systeme führte zu Effizienzeinbußen entlang der Lieferkette. Mit der Planungslösung von Board hat Puma die Forecast-Qualität und Geschwindigkeit spürbar erhöht und ist in der Lage, Angebot und Nachfrage kontinuierlich genau auszutarieren. Es verbessert zudem die internationale Zusammenarbeit und die Effizienz von der Zielsetzung bis hin zur Ausführung.

Datenbasierte Entscheidungen für eine erfolgreiche Zukunft

Effiziente Entscheidungsfindung setzt voraus, dass Unternehmen durch eine echte Integration von interaktivem Reporting, Planung, Forecasting und Predictive Analytics die Steuerung übernehmen. Neue Technologien sind der Schlüssel, um Unternehmen einen vollständigen Überblick über die Performance des gesamten Unternehmens zu verschaffen. Sie ermöglichen es Entscheidungsträgern, alle wesentlichen Informationen von KPIs bis hin zu operativen Abläufen zu berücksichtigen und generieren sofortige Einblicke. Das ermöglicht dem Management schnelle, zuverlässige und zukunftssichere Entscheidungen

Weitere Informationen unter:
www.board.com/de

Finanzbildung trifft auf Digitale Bildung


An der MLP School of Financial Education wird erstmals in Kooperation mit der BG3000 ein Training der neuen Generation angeboten, das Finanzbildung und Digitale Bildung ganzheitlich abdeckt. Um die Digitale Transformation erfolgreich zu meistern, benötigen Young Professionals und Unternehmen ein kombiniertes Wissen aus beiden Bereichen – von zukunftsweisenden Finanzprodukten und Anlageformen im Business-Kontext über IT-Sicherheit bis hin zu digitalen Marketing- und Service-Strategien. Wir sprachen darüber mit der Geschäftsführerin Simone Stein-Lücke von BG3000 und dem Vorstandsmitglied der MLP Finanzberatung SE Jan Berg.

Warum benötigen Nachwuchskräfte in Unternehmen ein kombiniertes Wissen aus den Bereichen Finanzbildung und Digitalbildung?
Jan Berg: Beide Themenbereiche vereint, dass sie – mehr denn je – von großer Bedeutung sind, aber leider weder in Schule noch im Studium systematisch angeboten und erschlossen werden. Diese Lücke schließen wir mit unserem Angebot. Neben der fachlichen Seite sind beide Themen auch wichtig für die Weiterentwicklung von Persönlichkeiten. Wir bringen die beiden Sphären gemeinsam mit BG3000 in einem motivierenden Seminarkonzept zusammen.
Simone Stein-Lücke: Finanzbildung und Digitale Bildung sind ein winning team für Young Professionals, weil sie sich mit dem gebündelten Knowhow einen Vorsprung auf dem Arbeitsmarkt der Zukunft sichern können. Bei beiden Themen geht es darum, die enormen Risiken zu minimieren und die großen Chancen zu nutzen. Digital Natives sind meist digital naiv. Sie kommen in aller Regel naturbelassen aus den Schulen in die Betriebe. Es fehlt das Verständnis für die Grundlagen von IT, Algorithmen, dem Internet als Wirtschaftsraum, den Herausforderungen der sozialen Medien – vom Nutzungsverhalten bis hin zum Datenschutz. Wir wollen nicht weiter im Stillstand verharren und darauf warten, dass die Digitalisierung vom Himmel fällt, sondern Unternehmen motivieren, selbst den ersten Schritt zu gehen.

Welche Finanzbildungsinhalte vermittelt das neue Young Professional Training von MLP und BG3000?
Jan Berg: Im Mittelpunkt steht das Thema „Behavioral Finance“, vereinfacht gesagt geht es also darum zu erschließen, wie Anlageentscheidungen zustande kommen und welche Fehler häufig gemacht werden. Menschen wissen nicht immer alles und handeln effizient und rational, sondern menschliche Verhaltensweisen beeinflussen unser Handeln stark – gerade auch bei Finanzentscheidungen. Die Teilnehmer entwickeln also die notwendige Expertise, um das eigene Verhalten einzuordnen und Fehlentscheidungen zu reduzieren.

Welche Themen stehen im Bereich Digitalbildung auf der Agenda?
Simone Stein-Lücke: Wir sensibilisieren die jungen Talente für Datenschutz, IT-Sicherheit, Urheberrecht, Fake News und Hate Speech, Social Media Policy und nicht zuletzt für das Thema Digitale Gesundheit. Und wir inspirieren die Young Professionals für die Gestaltung von Videos, Fotos oder Text-Beiträgen. Im Fokus unserer Workshops stehen die Unternehmenswebsite und Social Media Kanäle wie Instagram oder Youtube. Mit unserem neuen Young Professional Training können sich Digital Natives zu verantwortungsvollen digitalen Vorreitern und Markenbotschaftern des Unternehmens entwickeln.

Wann und in welcher Form geht das neue Young Professional Training an den Start?
Simone Stein-Lücke: An der eintägigen Pilotveranstaltung am 15. November nehmen 24 junge Talente teil. Keynote-Speaker sind Jan Berg, Vorstand der MLP SE, und Stephanie zu Guttenberg, Pionierin für Internet-Aufklärung in Deutschland und Mitgesellschafterin der BG3000. Im ersten Workshop-Modul geht es um das Thema „Behavioral Finance: Wie unser Verhalten Finanzentscheidungen beeinflusst“. Das zweite Modul widmet sich der Fragestellung „Digital Native oder Digital Naiv?“ Young Professionals werden für digitale Risiken sensibilisiert und für Chancen inspiriert – von Internetsicherheit bis hin zu professionellen Posts für die Social Media Kanäle des Unternehmens. In einem nächsten Schritt werden wir das neue Format auch als Leadership Training für Führungskräfte und Unternehmer*innen anbieten, die sich in Richtung Zukunft positionieren und absichern wollen. Das Training ist aktives Risikomanagement im Finanzbereich und im Digitalen.Wir sind davon überzeugt, dass wir sehr relevante Themen für unsere Zielgruppen ansprechen und planen für 2022 mehrere Angebote über das Jahr verteilt.

Wer kann sich anmelden?
Jan Berg: Wir sprechen mit unserem neuen Angebot Unternehmen an. Sie haben die Möglichkeit, ihre Mitarbeiter mit dem Fokus auf Young Talents bei uns anzumelden – entweder über die Website der MLP School of Financial Education oder über BG3000.

Weitere Informationen unter:
www.bg3000.de
https://mlp-se.de/sofe/

Klimadaten und Investmentprozesse einfach integrieren

Dies ist ein Gastbeitrag von Naciye Atalay, Prof. Dr. Rüdiger Hahn und Dario Foese unter Mitwirkung der Universitäten Hamburg und Kassel sowie der Radboud University und des WWF. Die Autoren gehen der Frage nach, warum sich die Finanzbranche bei der Integration von Klimadaten in Investmentprozesse weiterhin so schwer tut. In einem Pilotprojekt zeigen die Autoren Alternativen auf.

Nachteilige Auswirkungen des Klimawandels auf unternehmerische Tätigkeiten sind bereits heute in Form von physischen Risiken, Reputationsrisiken, regulatorischen Risiken und so weiter absehbar. Entsprechend erfordern solche Risiken bereits heute eine Berücksichtigung in der Unternehmensstrategie.

Tools, wie Investoren eine zielgerichtete Klimastrategie enwickeln und berücksichtigen, sind bereits vorhanden: Die Task Force on Climate-related Disclosures (TCFD) gibt zum Beispiel Empfehlungen, wie Klimarisiken und Chancen von Banken und Finanzmarktdienstleistern in Geschäftsprozessen berücksichtigt werden können. Eine solche Integration erfordert auch, dass Klimakennzahlen von Wertpapieren und Krediten erfasst werden – was jedoch noch nicht gängige Praxis in der Branche ist. Viele Asset Manager und Banken beschränken sich lediglich darauf, die regulatorischen Mindestanforderungen im Rahmen des Reportings oder des Risikomanagements umzusetzen.

Um ein Verständnis von Gründen für die unzureichende Nutzung von Klimadaten in Investmentprozessen zu erhalten, wurden im Rahmen eines vom BMBF geförderten Forschungsprojekts 50 Tiefeninterviews mit Expert*innen aus Finanzwirtschaft und Unternehmen durchgeführt, um Beweggründe, Motivation und Hürden im Umgang mit Klimadaten in Investmentprozessen zu erforschen. Präsentiert werden im Folgenden fünf Konfliktfelder, die eine umfangreiche Klimadatenintegration hemmen.


Unternehmensbezogene Information über die ESG-Performance und zu klimarelevanten Themen tragen zum Abbau von Informationsasymmetrien bei und sind daher für die Informationseffizienz und damit Funktionsfähigkeit der Kapitalmärkte wichtig.
Eine verpflichtende unternehmensbezogene Offenlegung von Treibhausgasemissionen führt im Vergleich zu freiwilliger Offenlegung zu signifikant stärkerer Emissionsminderung betroffener Unternehmen.
Unternehmensbezogene Treibhausgasemissionen gehen in die Unternehmensbewertung ein, wobei Unternehmen mit besonders hohen Emissionen niedrigere Marktwerte aufweisen.
Aus dem Policy-Brief: „Verpflichtende klimabezogene Unternehmensberichterstattung als Mittel zur Reduzierung von CO2-Emissionen“ des CRed-Projektes.

Interne Prioritäten: Der Klimawandel ist zwar ein wichtiges Thema in der Finanzbranche, jedoch wird aktuell die Umsetzung einer Klimastrategie nicht priorisiert.

Klimaaspekte werden noch nicht branchenübergreifend in Investmentprozesse integriert. Doch warum sind Investor*innen noch unentschlossen, wenn es darum geht, materielle Emissionen in ihren Entscheidungen zu berücksichtigen? Zum einen fehlt vielen Investor*innen nach eigener Aussage das Know-How darüber, welche Klimadaten relevant sind, wie Emissionsgrenzen gezogen, Daten erfasst oder interpretiert werden. Es besteht die Herausforderung, materielle, vergleichbare und zuverlässige Emissionsdaten zu erhalten. Zum anderen ist der Prozess des Datenmanagements zeitintensiv und komplex. Der Erwerb von Klimadaten über externe Ratingagenturen ist möglich und üblich, aber mit Kosten verbunden. Zudem legen die Expertengespräche nahe, dass aktuell schlichtweg die Bereitschaft fehlt, interne Ressourcen – sowohl personelle als auch finanzielle – zu mobilisieren, um Klimainformationen umfassend im Research und bei der Auswahl der einzelnen Investments zu berücksichtigen. Dies steht im Widerspruch zu der betonten Dringlichkeit des Klimawandels – denn die Interviewpartner*innen lassen keinen Zweifel daran, dass der Klimawandel eine wichtige Herausforderung der Finanzbranche darstellt.

Investmentzeithorizont: Der Investmenthorizont ist kurzfristig, sodass die langfristig zu erwartenden Auswirkungen nicht in heutigen Entscheidungen berücksichtigt werden.

Ein maßgeblicher Faktor, der die Entscheidung zu mehr Klimadatenintegration beeinflusst, ist der Investmentzeithorizont. Denn der mitunter recht lange Zeithorizont von Nachhaltigkeitsrisiken kollidiert mit der eher kurzfristig renditeorientierten Perspektive der konventionellen Finanzmarktakteure. So werden kurz- oder mittelfristige Risiken und Veränderungen effizient und schnell im Rahmen des Asset Managements eingepreist. Langfristige Unsicherheiten werden hingegen weniger stark berücksichtigt. Klima- beziehungsweise allgemein Umweltrisiken manifestieren sich oftmals erst, wenn Investitionen und Projekte bereits abgeschlossen sind. Erschwerend kommt hinzu, dass vorhandene Tools wie Szenarioanalysen und Stresstests methodische Herausforderungen und Datenlücken aufweisen, sodass die Anfälligkeit von Investitionen für physische und transitorische Risiken schwer vorherzusagen ist.

Datenverarbeitung: Die Datenbeschaffung und Verarbeitung ist komplex und geht zulasten von Transparenz und Vergleichbarkeit.

Damit Investor*innen Umweltaspekte in ihren Investmententschiedungen berücksichtigen können, benötigen sie Daten, die über die traditionelle Bonitätseinschätzung hinausgehen. Die Beschaffung von Informationen zur Nachhaltigkeitsperformance von Unternehmen ist in aller Regel wesentlich aufwendiger als die Nutzung finanzieller Kennzahlen. Quantitative und qualitative Daten zur Nachhaltigkeitsperformance können Corporate Social Responsibility (CSR)-Berichten  entnommen werden. Anders als für Geschäftsberichte sind für diese Berichte jedoch keine unabhängige Prüfung oder einheitliche Bilanzierung vorgeschrieben. Die Berechnungsmethoden der verschiedenen Klimaprotokolle, die von Unternehmen für die Offenlegung ihrer Klimadaten genutzt werden können, geben keine spezifischen und verbindlichen Regeln vor, wie Emissionen kalkuliert und Emissionsgrenzen gezogen werden sollen. Dies verleitet unter Umständen Unternehmen dazu, Kennzahlen und Informationen zu beschönigen und für Investoren bleiben Bemessungsgrundlagen und Abgrenzungen unklar.

Somit ist es eine Herausforderung für Analysten, unternehmerische Klimadaten auszuwerten und miteinander zu vergleichen. Ein Großteil der Finanzdienstleister nutzt das breite Angebot verschiedener Ratingagenturen und erwirbt die notwendigen Klimainformationen in Form von Ratings. Nachhaltigkeitsratingagenturen sammeln relevante Nachhaltigkeitsdaten und Leistungsindikatoren und werten sie mit Blick auf die unterschiedlichen Erhebungs- und Bilanzierungsmethoden aus. Die aus unternehmerischen CSR-Berichten, durch Fragebögen, direkten Gesprächen mit Unternehmen und öffentlich zugänglichen Informationen erlangten Daten fließen in hauseigene ESG (also Environmental, Social & Governance)-Ratingprodukte ein. Die Ergebnisse können je nach Datenquelle und Bewertungsmethodik der Agenturen teilweise erheblich voneinander abweichen. Für das Investmentfondsmanagement erscheint dieser Vorgang oftmals undurchsichtig – vor allem bei fehlenden Fachkenntnissen im Klima- und Umweltbereich. Der Zugang zu unbearbeiteten und vergleichbaren Primärdaten erleichtert es dem Asset Management, Unternehmen auf ihre Nachhaltigkeitsgesichtspunkte zu bewerten – vorausgesetzt, dass ein Grundverständnis für Klimakennzahlen vorhanden ist. Wie die Interviews jedoch verdeutlichen, fehlt vielfach noch die Expertise sowie die nötigen Ressourcen, um sich dem Thema anzunehmen. Daher greift der Großteil der Investor*innen auf Ratingprodukte zurück, wobei Datennutzer*innen auch eigene Informationen hinzuziehen und die Daten re-interpretieren, um so eine Informationsbasis für Investmententscheidungen zu schaffen, die den eigenen Nachhaltigkeitsansprüchen genügen – oft jedoch zulasten von Transparenz und Vergleichbarkeit.


Anreize für klimaresiliente Investitionen schaffenKurz- und langfristige Perspektiven annähern: Datenbasis stärken
• Regulatorische Impulse setzen und Anreize schaffen
• Negative und positive Externalitäten in die Bepreisung einbeziehen, z.B. durch Ausweitung des Zertifikatehandels oder Einführung eines CO2-Preises 
• Angemessene Informationsbasis schaffen, um ein besseres Verständnis für langfristige Klimarisiken zu erreichen
• Ausweitung der Berichtspflicht im Rahmen der CSR-Berichtserstattung
Standardisierte Erhebungs- und BerichtsmethodenSzenario-Analysen und Klimastrategien
• Klare Datenverarbeitung, Transparenz und Vergleichbarkeit gewährleisten
• Standardisierte Bilanzierungsregeln und Berichtsformate in allen Klimaberichten
• Größerer Fokus auf vorausschauende Klimainformationsformate
• Szenario-Analysen und klimabezogene strategische Positionierungen nach TCFD Vorgaben können einen einheiltichen Standard schaffen
Handlungsempfehlungen

Datenformat: Den Investoren liegen vorwiegend historische Kennzahlen vor, die jedoch nicht ausreichen, um die Zukunftsfähigkeit von Investitionen zu bewerten.

Gerade um die Zukunftsfähigkeit von Unternehmen und Projekten zu bewerten, benötigen Analyst*innen Informationen über Klimastrategien und Szenarioanalysen. Mit Szenarioanalysen lassen sich anhand von komplexeren Modellen Investitionserfolge und Unternehmensstrategien hinsichtlich verschiedener Klimaprognosen evaluieren. Dies ist notwendig, damit Unternehmen die Risiken und Chancen zukünftiger Klimaentwicklungen verstehen und das Geschäftsmodell auf Resilienz prüfen können.

Immer mehr börsennotierte Unternehmen geben Einblick in ihre Klimazielsetzung und unternehmerischen Emissionsreduktionsziele. Durch die Formulierung der Strategien werden Ambitionen sicht- und messbar und bieten Investor*innen eine gute Datengrundlage, um zu ergründen, ob Unternehmen für ein mögliches Investment infrage kommen.

Auch wenn es mittlerweile zum Standardrepertoire großer Unternehmen gehört, unternehmenseigene Klimastrategien zu entwickeln, gibt es insbesondere für kleine und mittelständische Unternehmen noch Aufholbedarf. Erste Modelle werden zwar für unternehmensinterne Zwecke entwickelt und genutzt, jedoch nicht umfangreich an externe Stakeholder kommuniziert. Zum Bedauern der Investor*innen, denn Klimaszenarioanalysen und die Zielsetzungen bezüglich der Emissionsreduktion sind Informationen, die nicht nur über den Status Quo berichten, sondern auch erahnen lassen, in welcher Tiefe sich Unternehmen mit der eigenen Klimabilanz auseinandersetzten. Die ausschließliche Betrachtung von historischen Kennzahlen zur Klimaperformance ist für eine angemessene und zukuntsorientierte Bewertung nicht ausreichend.

Fehlendes Angebot und fehlende Nachfrage wird sowohl auf Unternehmens- als auch Investorenseite beklagt.

Dass aktuell noch zu wenig Klimadaten in Investmentprozessen berücksichtigt werden, führen Investor*innen auf mehrere Faktoren zurück: Unternehmen würden aktuell noch nicht die Daten in Form und Umfang bereitstellen, die für eine klimabezogene Analyse gebraucht sind. Darüber hinaus sei der Wunsch der Anleger*innen nach Investmentprodukten mit Klimabezug einfach noch zu gering – selbst wenn sich immer mehr Kund*innen mit den ESG-Aspekten ihrer Anlagen beschäftigen. Ähnlich sieht es aus der Unternehmensperspektive aus: Hier sei weder die Nachfrage der Investor*innen nach Klimadaten groß genug, noch würden Unternehmen im ausreichenden Ausmaß nach Produkten fragen, die eine umfangreiche Klimadatenerhebung voraussetzen. Erschwerend kommt hinzu, dass ein Großteil der Unternehmen aktuell noch nicht verpflichtend über Nachhaltigkeitsaspekte berichten müssen. Vor diesem Hitergrund überarbeitet die Europäische Kommission aktuell die CSR-Berichtsrichtlinie. Es ist davon auszugehen, dass die endgültige Verabschiedung des Gesetzes im kommenden Jahr erfolgt. Auch für Investoren ist in diesem Zuge von einer Verschärfung der Berichtspflichten auszugehen. In der Tat bereiten sich viele Finanzdienstleister auf die kommenden regulatorischen Pflichten im Rahmen der Offenlegungsverordnung vor. Dies schlägt sich bisher jedoch selten in realen Änderungen in Investmentprozessen nieder, da hier weiterhin vielerorts noch keine Klimadaten berücksichtigt werden. Besonders konventionelle Asset Manager und Asset Owner agieren bei der klimaverträglichen Ausgestaltung ihrer Investments zurückhaltend. So bleibt unklar, ob die zaghafte Berücksichtigung von Klimadaten in Investmentprozessen am fehlenden Angebot unternehmerischer Klimadaten scheitert, an den noch zu lockeren Regulierungsvorhaben oder an der fehlenden Nachfrage der Finanzmarktakteure nach Klimainformationen – es bleibt ein Henne-Ei-Problem.


Das Projekt CRed „Klimaberichterstattung als Instrument zur CO2-Reduktion“ wird im Rahmen der Forschung für Nachhaltige Entwicklung (FONA) des Bundesministeriums für Bildung und Forschung (BMBF) gefördert. Das dreijährige Projekt wird gemeinsam von der Heinrich-Heine-Universität Düsseldorf (Projektkoordination), dem Forum Nachhaltige Geldanlagen, der Universität Hamburg, der Universität Kassel, dem WWF Deutschland und der Radboud University (Nijmegen, Niederlande) durchgeführt. Es untersucht den Beitrag von Klimaberichterstattung zur CO2-Reduktion und erarbeitet Empfehlungen zur Verbesserung von Klimaberichterstattung, um eine CO2-neutrale Wirtschaft zu fördern.


Die Autoren:

  • Naciye Atalay, Forum Nachhaltige Geldanlagen
  • Prof. Dr. Rüdiger Hahn, Heinrich-Heine-Universität Düsseldorf
  • Dario Foese, Heinrich-Heine-Universität Düsseldorf

Digital, intelligent, nachhaltig: Die Trends im Einkauf


Immer mehr Unternehmen packen die digitale Transformation ihrer Beschaffungsprozesse an. Was dafür spricht und welche Entwicklungen künftig im Einkauf an Einfluss gewinnen, erklärt Florian Böhme, Direktor Amazon Business DACH-/CEE Region.

Die Pandemie hat gezeigt, wie wichtig heutzutage die Digitalisierung von Geschäftsprozessen für Unternehmen ist. Das gilt auch für den Einkauf. Viele Firmen und Organisationen managen ihn bereits mithilfe digitaler Lösungen. Das belegen Zahlen von Amazon Business: Bereits 25 der 30 DAX-Konzerne in Deutschland, 54 der 60 MDAX- sowie 39 der 70 SDAX-Unternehmen arbeiten mit Amazon Business zusammen und profitieren von vereinfachten Beschaffungsprozessen. Auch 74 der Top-100-Unternehmen des Deutschen Mittelstands (DDW Ranking), Großunternehmen sowie öffentliche Einrichtungen in 96 der 100 größten deutschen Städte nutzen den Online-Einkauf.

Ob mittelständisches Unternehmen, Konzern, Kommune oder Verein: Die Digitalisierung des Einkaufs lohnt sich in jedem Fall. Ist sie vollzogen, arbeiten Unternehmen und Organisationen schneller, agiler und effizienter. Das Einkaufsbarometer Mittelstand 2021 belegt: Die Prozesskostenoptimierung ist für Mittelständler der wichtigste Treiber für die Digitalisierung im Einkauf, gefolgt von Kostensenkung und Automatisierung. Neue intelligente Lösungen wie künstliche Intelligenz und maschinelles Lernen werden zudem künftig dazu beitragen, dass Prozesse im Einkauf durch verstärkte Personalisierung und Automatisierung noch reibungsloser funktionieren.

Integrierte Suche beschleunigt den Einkauf

58 Prozent der größeren und 28 Prozent der kleineren Unternehmen nutzen laut Einkaufsbarometer Mittelstand bereits Procurement-Systeme. Optimieren lassen sich diese mithilfe zusätzlicher digitaler Beschaffungslösungen. Neben Infrastruktur, Personal oder Dienstleistungen stellt Amazon Business seinen Verkaufspartner:innen bewährte Tools wie etwa die integrierte Suche zur Verfügung. Sie bietet ihnen das gleiche Einkaufserlebnis, wie sie es von Amazon als Privatperson kennen – und lässt sich einfach in mehr als hundert Enterprise-Ressource-Planning (EPR)-Systeme integrieren.

Die Vorteile für Unternehmen und Organisationen liegen auf der Hand: Sie meistern Produktsuche und Kostenmanagement in Echtzeit, sparen kostbare Zeitressourcen und senken ihre Betriebskosten, während sie zeitgleich auf hunderte Millionen von Produkten zugreifen können. Außerdem bietet die integrierte Suche etwa die Möglichkeit, den Zugriff auf bestimmte Produktkategorien einzuschränken. Insbesondere im internationalen Kontext kann dies ein großes Plus sein, wie es beispielsweise bei der Weber Maschinenbau GmbH der Fall ist. Das weltweit agierende Unternehmen ist in der Lage, mithilfe der Suchlösung seinen Tochterfirmen ein länderspezifisches Produktangebot in vielen Sprachen zu machen. Eine Möglichkeit der Internationalisierung, die sich auch für kleinere Unternehmen lohnt, die Wert auf eine kostengünstige Lösung legen.

Elektronische Rechnungsumstellung schafft Transparenz

Eine weitere zukunftsweisende Entwicklung im Einkauf ist die elektronische Rechnungsstellung. Jedes dritte Unternehmen (33 Prozent) in Deutschland erstellt Rechnungen noch immer überwiegend oder ausschließlich in Papierform, so eine Umfrage des Digitalverbandes Bitkom. Doch die Trendwende kündigt sich an: Mittelständler nutzen zunehmend Datenaustauschprogramme wie Electronic Data Interchange (EDI) für den parpierlosen Beleg-Austausch mit ihren Lieferant:innen und treiben damit wie auch Amazon Business die digitale Transformation in diesem Bereich voran.

Besonders bei sich wiederholenden Geschäftsvorgängen mit hohem Belegvolumen rechnet sich die Umstellung auf E-Rechnungen. Ihre wahren Vorteile liegen jedoch in der automatisierten Verarbeitung. Sie hilft Unternehmen dabei, Fehler im Versand zu minimieren, sorgt für eine präzise Rechnungsverarbeitung und -archivierung und schafft Transparenz über alle Rechnungsprozesse hinweg. Von diesen Vorzügen profitiert auch die Lumare GmbH: In Zusammenarbeit mit Amazon Business führte der Online-Händler fortschrittliche B2B-Intelligence-Lösungen und automatisierte Rechnungen ein. Seitdem kann das Unternehmen das Erlebnis für seine Geschäftskund:innen kontinuierlich verfolgen und verbessern.

Ein weiterer Anreiz für Unternehmen, die digitale Transformation ihrer Rechnungsstellung anzugehen: Im B2G-Bereich ist seit November 2020 die E-Rechnung bereits Pflicht. Öffentliche Auftraggeber auf Bundesebene dürfen nur noch Rechnungen in elektronischen Formaten entgegennehmen, die der europäischen Norm EN 16931-1 entsprechen.

Single-Kreditor-Modell sichert volle Ausgabenkontrolle

Für mehr Transparenz in Beschaffungsprozessen sorgt auch das Single-Kreditor-Modell: Ein einziger Rechnungssteller wickelt alle Transaktionen der Händler:innen und Lieferant:innen ab, etwa auf einer integrierten digitalen Plattform. Diese erleichtert die elektronische Rechnungsstellung erheblich, indem sie Prozesse vereinheitlicht – etwa Versandkosten oder konsolidierte Monatsrechnungen. Das Modell ermöglicht es zudem, alle Ausgaben zu überprüfen. Mit Amazon Business können Unternehmen ihre
E-Rechnungen an einem Ort bündeln, während detaillierte Bestellinformationen auf der Kreditkartenabrechnung dem zentralen Einkauf die Kontrolle über die Ausgaben verschaffen – selbst, wenn sie dezentral an unterschiedlichen Standorten getätigt worden sind.

Nachhaltigkeit als Megatrend im Einkauf

Noch ein Trend, der sich ankündigt: Nachhaltigkeit im Einkauf. Die Studie „Zukunft des Einkaufs“ der Unternehmensberatung Inverto fand heraus: 72 Prozent der befragten Fach- und Führungskräfte meinen, dass der Trend zu mehr Nachhaltigkeit und Corporate Social Responsibility relevant für ihre Beschaffungsorganisation ist. Dass effizientes Ressourcenmanagement zum entscheidenden Wettbewerbsfaktor werden kann, zeigte sich in der Corona-Pandemie. Digitale Lösungen wurden für viele zum Rettungsanker. Ein Beispiel: Seit der Zusammenarbeit mit Amazon Business bezieht Diebold Nixdorf nur die Produkte, bei denen Amazon der Rechnungssteller ist. Das neue Tail-Spend-Management ermöglicht dem Unternehmen mehr Transparenz und spart Zeit, weil der komplizierte dezentrale Einkauf entfällt. Und als die Lieferant:innen des Unternehmens während der Corona-Pandemie Lieferschwierigkeiten – etwa bei Desinfektionsspendern – hatten, wurde der Bedarf Compliance-konform über Amazon Business gedeckt.

„Climate Pledge Friendly“ für klimabewusste Einkäufer

Die Aufgabe von Einkaufsverantwortlichen muss es also sein, digitalen und grünen Handel gemeinsam zu denken – vom umweltfreundlichen Versand über vielfältigere Vertriebspartner bis zur Unterstützung lokaler Unternehmen. Amazon hat sich entschieden, in Sachen Klimaschutz eine Führungsrolle einzunehmen und 2019 den Climate Pledge mit ins Leben gerufen. Damit verpflichtet sich Amazon, bis zum Jahr 2040 in allen Geschäftsbereichen CO2-neutral zu sein – 10 Jahre vor dem Ziel des Pariser Klimaabkommens. Mercedes-Benz hat sich dem Climate Pledge angeschlossen und liefert mehr als 1.800 Elektrofahrzeuge für Amazons Lieferflotte in Europa.

Ein konkreter Schritt, den Einkauf in Richtung Nachhaltigkeit zu steuern, ist die Zertifizierung „Climate Pledge Friendly“ von Amazon. Damit unterstützt Amazon Business Einkaufsverantwortliche dabei, Produkte nachhaltiger zu beschaffen. Ein Konzept, das nachhaltige Beschaffungsprozesse weltweit fördert. Und dem weitere folgen werden. Denn fest steht: Der Einkauf der Zukunft ist grün, intelligent und digital. Und wird für Unternehmen und Organisationen künftig zum entscheidenden Wettbewerbsfaktor. Je früher die digitale Transformation der Beschaffungsprozesse angegangen wird, desto besser die Chancen für die Zukunft.

Florian Böhme (41), verantwortet seit Dezember 2016 Amazon Business, der Service für Geschäftskunden auf Amazon.de. Der studierte Kaufmann mit MBA-Abschluss an der Open University Business School kam im Jahr 2008 zu Amazon und hatte im Unternehmen bereits unterschiedliche Positionen inne, darunter in den Bereichen Elektrogeräte und Media. Seine berufliche Karriere begann Florian Böhme beim Handelsunternehmen Karstadt sowie in unterschiedlichen Vertriebs- und Marketingpositionen bei Whirlpool.

Im Oktober fand die Amazon Business Exchange 2022, die Beschaffungskonferenz von Amazon Business virtuell statt. Interessierte können die Vorträge on demand anschauen: https://business.amazon.de/de/mehr-entdecken/veranstaltungen/abx-2021

2021 State of Ransomware Report:

Eine Studie von ThycoticCentrify zeigt, dass die Mehrheit der Unternehmen bereits einen Ransomware-Angriff erlebt hat / 93 Prozent der Befragten stellen ein spezielles Budget zur Bekämpfung der wachsenden Bedrohung bereit.

München, den 19. Oktober 2021 – ThycoticCentrify, ein führender Anbieter von Cloud-Identitätssicherheitslösungen, entstanden aus dem Zusammenschluss zweier Marktführer für Privileged Access Management (PAM) Thycotic und Centrify, zeigt in einer neuen Studie, dass Ransomware zu einer bevorzugten Methode für Cyberangriffe geworden ist: Fast zwei von drei befragten Unternehmen (64 %) gaben an, in den letzten 12 Monaten Opfer eines Ransomware-Angriffs geworden zu sein.


2021 State of Ransomware Report: 83 Prozent der Opfer zahlen für die Wiederherstellung ihrer Daten.


Die Studie mit dem Titel „2021 State of Ransomware Survey & Report: Preventing and Mitigating the Skyrocketing Costs and Impacts of Ransomware Attacks“ basiert auf den Antworten von 300 US-amerikanischen IT-Entscheidungsträgern. Der Report deckt auf, dass mehr als vier von fünf (83 %) Opfern von Ransomware-Angriffen keine andere Wahl sahen, als Lösegeld zu zahlen, um ihre Daten wiederherzustellen. 

Der Report beleuchtet, wie Unternehmen auf die wachsende Bedrohung durch Ransomware-Angriffe reagieren:

> 72 Prozent haben ihre Budgets für Cybersicherheit aufgrund von Ransomware-Bedrohungen erhöht

> 93 Prozent stellen ein spezielles Budget zur Bekämpfung von Ransomware-Bedrohungen bereit

> 50 Prozent geben an, dass sie durch einen Angriff Umsatzeinbußen und Rufschädigung erlitten haben

> 42 Prozent bestätigen, dass sie infolge eines Angriffs Kunden verloren haben

„Unsere Studie zeigt, dass Ransomware eine Bedrohung für Unternehmen jeder Größe und jeder Sicherheitsstufe darstellt“, erklärt Art Gilliland, CEO von ThycoticCentrify. „Die erste Verteidigungslinie sollten Lösungen sein, die den privilegierten Zugang sichern, einschließlich Multi-Faktor-Authentifizierung (MFA) und andere Methoden zur Durchsetzung von Zero Trust, um Möchtegern-Cyberkriminelle in Schach zu halten und mögliche Schäden zu begrenzen.“

Der Bericht enthält drei Hauptaussagen mit Empfehlungen und Ressourcen, um den Schaden eines Angriffs zu begrenzen:

  • Da so viele Unternehmen Opfer von Ransomware-Angriffen geworden sind, ist es wichtiger denn je, dass Unternehmen einen Plan für die Reaktion auf einen Vorfall erstellen. Auf diese Weise können sie vermeiden, dass sie sich in die wachsende Liste derjenigen einreihen, die das Lösegeld gezahlt haben.
  • Während die Budgets für Netzwerk- und Cloud-Sicherheitslösungen erhöht werden, müssen Unternehmen auch die Anforderungen zur Verhinderung von Exploit-Eskalation mit PAM-Sicherheit verstehen und priorisieren.
  • Die Verhinderung von Ransomware-Angriffen durch grundlegende Cybersecurity-Hygiene wie regelmäßige Backups, rechtzeitige Patches, MFA und Passwortschutz ist unerlässlich. PAM-Richtlinien zur Durchsetzung eines Least-Privilege-Ansatzes ermöglichen es den Sicherheitsteams jedoch, den Angriffspunkt zu identifizieren, zu verstehen, was passiert ist, bei der Behebung zu helfen und letztendlich wiederhergestellte Daten zu schützen

Ein kostenloses Exemplar des vollständigen 14-seitigen Berichts kann hier kostenlos heruntergeladen werden.

Über den 2021 State of Ransomware Survey & Report:

Der Bericht basiert auf den Antworten von 300 IT-Entscheidungsträgern in den USA auf eine Umfrage, die im Juli 2021 von Censuswide, einem globalen Forschungsunternehmen, durchgeführt wurde.

Weitere Informationen unter https://thycotic.com/

Pressekontakte:

Thycotic DACH

Claudia Göppel, Director Marketing EMEA

+49 177 211 8878

claudia.goeppel@Thycotic.com

PR-Agentur: Weissenbach PR

Udo Schwickal

T: +49 89 54 55 82 01

thycotic@weissenbach-pr.de

Web: www.weissenbach-pr.de

Aufmacherbild / Quelle / Lizenz
Image by Elchinator from Pixabay

Multi-Unternehmens-Management

Dies ist ein Gastbeitrag von Dr. Robert Scholderer, der sich der Frage annimmt, wie man mit Services und „Umbrella Management“ in Zeiten verschwimmender Organisationsformen und Aufgaben in den Unternehmen mehr erreichen kann.

Die digitale Transformation sorgt für zahlreiche Herausforderungen, auch auf inhaltlicher Ebene in der Unternehmensorganisation. Eine Abgrenzung in die klassischen Abteilungen macht immer weniger Sinn. Nicht zuletzt immer digitalere Geschäftsmodelle verlangen nach einer „agileren Organisation“, in der die klassischen Zuständigkeiten mehr und mehr verschwinden.

Die Unternehmensausrichtung konnte man früher auf zwei Punkte reduzieren: Entweder fällt die Entscheidung für die Rolle „Spezialist“ oder „Generalist“. Genau dieses „Oder“ gibt es nun nicht mehr. Vielmehr sind Spezialisten mit einem klaren Profil gefragt, die mit Generalisten-Leistungen auch an Kundenprojekte angrenzende Themen lösen können. Genau hier gibt es unterschiedliche Lösungsmodelle, die entsprechende Herausforderungen an das Unternehmens-Management stellen. Dieser Artikel soll zeigen, wie Generalunternehmen und Nischenanbieter zusammenwachsen bzw. sich auf dem Markt behaupten können.

Häufig, und weil eben kostenlos in der Initialphase, bekannte Modelle sind Partnerschaften, Projektverträge oder Kooperationsvereinbarungen. Man sucht sich einen Partner am Markt, der über Fähigkeiten verfügt, die man selbst nicht hat. Dadurch, dass diese Möglichkeiten günstig sind, gibt es sie in zahlreicher Form. Ihr Wirkungsradius ist genau abgegrenzt, dennoch bleiben sie ein beliebtes Mittel, um auf dem Markt größere Projekte abzuwickeln. Wer über diese kostenlosen Möglichkeiten hinausgeht und die kostenintensiven Bereiche in Erwägung zieht, kommt zur Gründung von Schwester- oder Tochtergesellschaften, macht Assetdeals und geht Beteiligungen ein. Alle Modelle ob kostenlose oder kostenintensiv halten mehrere Herausforderungen breit. Dadurch, dass die kostenintensiven zur Effizienzsteigerung ein größeres Potential tragen, werden diese im Weiteren hier verfolgt, denn die Vermischung von Strukturen findet hier am stärksten statt.

Die nächsten Abschnitte zeigen neuralgische Punkte auf, die durch das Verschwimmen von Unternehmensgrenzen viel intensiver gesteuert werden müssen.

Marketing & Vertrieb

Dr. Robert Scholderer

Das Marketing ist meist isoliert auf ein Unternehmen und dessen Schwerpunkt ausgelegt. Durch andere allokierte Gesellschaften oder Zukäufe müssen die zentralen Themen viel stärker geregelt werden. Das Kundenmanagement rückt mit der folgenden Frage in den Fokus? Haben alle Gesellschaften den gleichen Stand, welche Aktionen, Arbeiten, Lösungen oder Projekte bei dem Kunden stattfindet. Natürlich erwarten Kunden eine Haus-interne Abstimmung. Für das Business Development sind solche Informationen absolut relevant. Das Kundenmanagement umfasst ebenfalls auch den Gebietsschutz. Mit jeder Gesell- oder Partnerschaft gibt es andere Vertriebs- und Provisionsmodelle. Diese Themen benötigen plötzlich ein Management und sorgen für zusätzlichen Mehraufwand. Die Mehraufwände erstrecken sich auch in das Markenmanagement und die Markensicherung. Mit jeder Gesellschaft, jedem Logo, jedem Produktname steigt der Aufwand diese zu sichern.

Infrastruktur

Nehmen mehrere Unternehmen an der Wertschöpfungskette teil, so werden auch mehr technische Ressourcen benötigt, die man sich dann aufteilt. Bis man eine kontinuierliche Verrechnung und auch Ressourcenverwaltung hat bedarf es einiges an Aufwand. Zum Einsatz kommen Systeme (z.B. CMDB) mit denen man nachvollziehen kann,

  • welche Ressource liegt wo,
  • wer hat auf welche Ressourcen Zugriff und
  • wem gehört welche HW bzw. SW.

Zu diesen Ressourcen zählen neben den bekannten Themen wie Notebooks ergänzend Lizenzen, Domain Management, Accounts auf externen Plattformen etc. Je mehr Ressourcen geteilt werden, umso größer wird der Aufwand dies zu dokumentieren. Die Bedeutung dieser Tätigkeit zeigt sich, wenn eine Gesellschaft oder ein Mitarbeiter den Verbund verlässt. Dann müssen Zugänge gesperrt werden. Wer dann nicht weiß, wo Zugriffe möglich sind, der ist seitens der Unternehmenssicherheit einem hohen Risiko ausgesetzt.

Personal-Projekt-Management

Beim Personal-Projekt-Management wird hier ein Ressourcen-Management für Projekte bzw. Aufgabenbereiche verstanden. Agile Rahmenwerke wie SCRUM oder andere ermöglichen es, dass Mitarbeiter einer Gesellschaft mit anderen darüber verbunden sind und entsprechende Rollen im Rahmenwerk parallel zu den eigentlichen operativen Rollen einnehmen. Damit sind die Unternehmens-Strukturen immer weniger transparent und dies hat Auswirkungen für das Personal-Management. Folgende Punkte treten noch stärker als bei einzelnen Gesellschaften hervor:

  • Wer ist in welchem Projekt tätig
  • Wer ist über- oder unterfordert
  • Wer hat den Skill und kann unterstützen

Eigentlich kann nur ein übergreifendes Personal-Projekt-Management dieses Problem lösen. Dadurch, dass es aber Weisungsbefugnisse gibt, kann dies nicht lückenlos umgesetzt werden. Somit muss man sich entscheiden, ob man Lücken in Kauf nimmt oder ob z. B. Prokuristen zum Einsatz kommen, die diesen Umstand kompensieren können.

Der angrenzende Bereich Personalverwaltung, die den Mitarbeiter-Bedarf bei Löhnen, Urlauben, Weiterbildungen etc. steuern, liefert dem Personal-Projekt-Management zu und muss sich selbst auch einer komplexeren Verwaltung stellen.

Produkt-Management

Das Produkt-Management hat im Multi-Unternehmen-Management eine besondere Rolle. Die produzierten Produkte werden in unterschiedlichen Kombinationen erstellt. Dahinter verbirgt sich immer ein sogenannter Produktlifecycle. Anhand zweier Beispiele soll aufgezeigt werden, um wieviel komplexer der Produktlifecycle wird:

Beispiel 1 Softwareprodukt: Für die Herstellung des Softwareprodukts sind folgende Punkte zu klären:

  • Wer hält das Anforderungsmanagement
  • Wer programmiert
  • Wer wirkt ggf. inhaltlich mit
  • Wer assistiert
  • Wer übernimmt die Vermarktung

Beispiel 2 Veranstaltungen: Die Umsetzung eines z.B. internationalen Kongresses bedarf es folgender Klärung dieser Unternehmens-übergreifenden Punkte

  • Wer macht das Kongressmanagement
  • Wer implementiert die Technik
  • Wer supportet bei Problemen
  • Wer betreibt die Technik
  • Wer tritt als Veranstalter auf
  • Wer vermarktet die Veranstaltung
  • Wer wirkt inhaltlich mit

Die beiden Beispiele zeigen, dass jeder Bereich im Produktlifecycle aufgeteilt wird, um am Ende den gewünschten erfolgreichen Wertbeitrag (Veranstaltung, SW-Produkt) zu erhalten.

Legal

Ein im operativen Umfeld wenig sichtbarer Bereich ist der vertragliche Teil. Je mehr die Unternehmensgrenzen verschwimmen, umso diffiziler müssen Regelungen ausgearbeitet werden. Dies beginnt vom Datenschutz bis zum Kundenvertrag, der mehrere Mitwirkende bei der Wertschöpfung inkludiert. Folgende Punkte sind zu beachten, da hier ein Mehraufwand entsteht:

  • DSGVO: Übergreifender Datenschutz zwischen allen Gesellschaften
  • Haftung-AGB: Wer ist in der Haftung etc.
  • Lizenzübertragbarkeit: Einkauf bei Fa. X und genutzt von Fa. Y
  • Vertragshandling von Kundenprodukten

Die Herausforderung steckt in der Durchgängigkeit der juristischen Passagen, die dann auch noch über alle Leistungsträger hinweg implementiert werden müssen.

Controlling

Mit jedem Beitragenden in der Wertschöpfungskette wird die Verrechnung schwieriger. Die Anzahl von Protagonisten steigt und erfordert eine genaue Abrechnung. Die bereits oben genannten Punkte kumulieren sich in der Verrechnung. Von der Provision bis zur Arbeitsstunde und einer eingekauften Lizenz sind viele Aspekte zu berücksichtigen.

Zwischenfazit

Eine wie bisher geartete Trennung in „Ressorts“ wird immer schwieriger. Natürlich gibt es die klassischen Bereiche wie oben gezeigt. Aber wie in diesem Artikel diskutiert erhalten die klassischen Bereiche neue Steuerungsthemen und werden innerhalb ihres Bereichs immer stärker segmentiert, da sie z.B. über ein Outsourcing ergänzt werden.

Wie kann vor diesem Hintergrund eine Organisation, die all diesen Anforderungen Rechnung trägt, eine integrierte Lösung aussehen?

Lösung 1: Servicekopplung

Ein Verbund muss zukünftig in Services denken. Die Kopplung von Services ist deutlich einfacher als die oben gezeigte detaillierte Einzelbetrachtung. Über den Mechanismus „Service“ werden die Mehrwerte, Einsatzzwecke und auch Einsatzorte klar. Insbesondere sind die Qualität in Form von Kennzahlen und die Aufgabenteilung via Zuständigkeitsmatrizen konkret beschrieben.

Lösung 2: Umbrella-Management

Trotz der Vereinfachung über die Servicekopplung verbleiben einzelne Bereiche wie z.B. inkl. Legal und Controlling, die sich zwar als spezifische Service abbilden lassen, dabei leider im Wagen bleiben. Abhilfe schafft ein Umbrella-Management, das alle Aspekte im Blick behält. Dieses Umbrella-Management wird umgesetzt über z.B. Prokuristen, die in mehreren Gesellschaften als Handlungsbevollmächtigte eingesetzt werden.

Abschließend betrachtet sind die beiden Lösungswege ein Erfolgsgarant, um sich auf dem Markt zu behaupten. Während die Services am Markt ausgerichtet und unterschiedlich gebündelt / gekoppelt werden, stellt das Umbrella-Management einen geordneten Betrieb sicher. Genau diese Kombination ermöglicht ein effektives Wirtschaften und einen nachhaltigen Betriebsaufbau. Die Scholderer GmbH und deren angrenzenden Unternehmen hat dieses Konzept selbst implementiert und berät andere Unternehmen, wie diese Methodik erfolgreich angewendet werden kann.

Autor: Robert Scholderer
Robert Scholderer ist Gründer und Geschäftsführer studierte Mathematik und Informatik in München, promovierte in Karlsruhe und habilitierte sich an der TU Ilmenau, wo er auch als Dozent tätig ist. Seit Januar 2021 ist er Vorsitzender des IT Management Service Forums (ITSMF) in Österreich. Er ist Autor der Fach-Bestseller „IT-Servicekatalog“ und „Management von Service Level Agreements“, seine Seminare und Vorträge haben mehr als 1.000 Teilnehmer besucht.

Digitale Souveränität – Anwendungsmodernisierung auf Basis von Open Source

Autor: Volker Krause*

Der Autor Volker Krause ist Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur bei Atos.

Die öffentliche Verwaltung steht vor wachsendenden Herausforderungen, um effizienter und effektiver zu arbeiten. Das Ziel ist es, den Bürgerinnen und Bürgern sowie Unternehmen durch medienbruchfreie Prozesse innovative IT-Lösungen und IT-Services unter Berücksichtigung hoher Sicherheitsanforderungen bereitzustellen.

Um bei der Beschaffung und dem Einsatz von IT-Lösungen flexibler zu agieren, brauchen die Behörden einen unabhängigen Handlungsspielraum. Der Einsatz von Open-Source-Software in der öffentlichen Verwaltung ist ein wichtiger Schritt zu mehr digitaler Souveränität. Dadurch kann die Transformation von Verwaltungsprozessen hin zu digitalen Diensten unterstützt werden. Die Schnelligkeit und Agilität bei der Einführung neuer digitaler Dienste ist entscheidend, um den Nutzern der öffentlichen Verwaltungen bestmögliche Angebote zu bieten und die Mitarbeiterinnen und Mitarbeiter zu entlasten. Die Nutzung von State-of-the-Art-Systemen und -Technologieplattformen schafft eine hohe Flexibilität und Skalierbarkeit für aktuelle und zukünftige Anforderungen sowie eine Kostenreduzierung durch Effizienzsteigerung, unter anderem durch einen verringerten Arbeitsaufwand.

Volker Krause, Atos, Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur: „Gemeinsam mit unseren Experten, der Open-Source-Community und unseren Partnern helfen wir unseren Kunden bei der Modernisierung ihrer Anwendungen.“

Modernisierung des Handelsregisters durch den vermehrten Einsatz von Open-Source-Technologie

Als einheitliches Fachverfahren für alle 16 Bundesländer und mit EU-weiter Registerverknüpfung ist ein modularer serviceorientierter Ansatz notwendig. Der Aufbau einer übergreifenden Governance wird durch eine plattformunabhängige Anwendungssoftware erreicht.

Ein wesentlicher Bestandteil für die Anwendungsmodernisierung ist der Einsatz einer Kubernetes-basierten Container-Technologie. Die Nutzung einer Container-Plattform (beispielsweise Red Hat OpenShift) bietet Anwendern die Freiheit, sich mithilfe von Containerisierung zwischen verschiedenen Technologien zu bewegen, eine moderne Anwendungsentwicklung mit DevOps umzusetzen und Workloads überall laufen zu lassen. Darüber hinaus bieten die Open-Source-Subskription-Modelle Einsparpotenziale. Sie verbinden den Community-Gedanken mit professioneller Enterprise-Software. Außerdem werden die Flexibilität und Reaktionsfähigkeit bei der Umsetzung neuer Anforderungen in der Anwendungsentwicklung erhöht.

Die erfolgreiche Modernisierung des Handelsregisters erfordert umfassende architektonische Entscheidungen beim Einsatz von Open-Source-Komponenten:

  • In der Business-Schicht sind Java-Schnittstellen für jeden Service definiert und können eine oder mehrere Implementierungen aufweisen. Die Orchestrierung von Services erfolgt in der Laufzeit.
  • Das Angular-Framework wird zur optimalen Browserunterstützung sowie zur Nutzung von modularen und leichtgewichtigen Codes eingesetzt.
  • Die Handelsregister-Lösung interagiert mit verschiedenen Systemen unter Verwendung verschiedener Technologien (zum Beispiel SOAP- oder REST-Dienste). Über Property-Dateien oder JNDI kann die Laufzeitkonfiguration auf einfache Weise geändert werden.
  • Eine separate Security-Schicht ist für die Kommunikation mit der Benutzerrechteverwaltung verantwortlich. Dies ermöglicht einen einfachen Wechsel der zugrunde liegenden Autorisierung- und Authentifizierungsmechanismen, ohne die Server- oder Clientanwendung ändern zu müssen, zum Beispiel ein Wechsel zwischen SAFE, Active Directory oder LDAP.
  • Die feinkörnige REST-API zu den Servermodulen ermöglicht es, den durch das User-Interface orchestrierten Geschäftsablauf einfach zu ändern.
  • Durch die Verwendung einer Message Queue (RabbitMQ) ist die Anwendung nicht direkt von Nachbarsystemen abhängig. Damit kann die Anwendung ihren Teil des Anwendungsfalls jederzeit erfolgreich ausführen.
  • Als Such-Engine wird Elasticsearch eingesetzt. Dies verbessert die Suchperformance signifikant, und aufwändige Suchen beeinflussen nicht das Antwortverhalten der SQL-Datenbank.
  • Innerhalb der Fach- und Basismodule wird eine Rekombinierbarkeit durch den API-First-Ansatz ermöglicht. Dies wird durch den Einsatz des Tools Swagger erreicht. Dadurch wird eine saubere Trennung zwischen Front- und Backend erreicht, und Backend-Funktionalitäten stehen mehreren Frontend-Kontexten zur Verfügung.

Als Partner von Red Hat liefert Atos über die gesamte Wertschöpfungskette hinweg – von der Konzeption über die Implementierung bis hin zum Betrieb von Open-Source-Lösungen. Durch die Nutzung von Open Source werden Abhängigkeiten von einzelnen großen Herstellern reduziert – das stärkt die digitale Souveränität.

* Der Autor Volker Krause ist Red Hat Sales Spezialist – Hybrid-Cloud-Infrastruktur bei Atos.

Digitaler Briefkasten – ein Schlüssel zu mehr Nachhaltigkeit

Spätestens seit der Pandemie und dem Arbeiten aus dem Homeoffice ist das Thema der digitalen Eingangspost ein allgegenwärtiger Trend. Dabei hat es auch das Potenzial für mehr Nachhaltigkeit im Sinne der Umwelt und der Menschen. Wie Unternehmen diese Möglichkeiten mithilfe eines digitalen Briefkastens ausschöpfen können, erklärt Alexander Schneekloth, Geschäftsführer des Digitalisierungs-Enablers Caya.

Ein digitaler Postkasten ist eine Lösung, um Briefe elektronisch zu empfangen und zur Verfügung zu stellen. Er wurde vor allem im zurückliegenden Jahr publik, als sich in vielen Unternehmen und Organisationen die Sendungen stapelten, da sie nicht immer sofort an die für sie zuständigen Mitarbeiter verteilt werden konnten, weil diese von zu Hause aus arbeiteten. Damit verbunden war eine längere Dauer der Beantwortung von Anfragen und anderen an Papierdokumente gebundenen Prozessen. Dass dies einen erheblichen Umfang hatte und noch immer hat, zeigen Zahlen der Bundesnetzagentur. Ihnen zufolge betrug die Sendungsmenge an Briefen 13,6 Milliarden im Jahre 2019. Dementsprechend gehen enorme Belastungen für die Umwelt damit einher. Denn allein der Versand eines Briefes verursacht im Durchschnitt 20 Gramm Kohlendioxid (CO2). Hinzu kommt der Verbrauch von Holz, Wasser und Energie für die Herstellung des Materials.

Digitalisierung mit Konsequenz

Werden Schreiben über einen digitalen Postkasten zugestellt, lassen sich viele dieser Punkte vermeiden. Wichtig ist auch, die Dokumente im weiteren Verlauf der Bearbeitung nicht auszudrucken, sondern konsequent digital zu handhaben – von ihrer Speicherung bis hin zum Archivieren und Teilen. Dabei hilft ein Dokumentenmanagementsystem wie die CAYA Document Cloud. Darin können die Unterlagen übersichtlich verwaltet werden. Integrierte, intuitiv bedienbare Werkzeuge wie ein PDF-Editor ermöglichen etwa das Hinzufügen von Anmerkungen, digitales Unterschreiben, das Bezahlen von Rechnungen aus der Anwendung heraus und das Übertragen von Dokumenten an andere Lösungen.

In Anbetracht dieses zweiten Aspekts ist auch Digitalisierung analoger Briefpost vorteilhaft für die Umwelt. Diese Dokumente wurden zwar nach ihrer meist elektronischen Erstellung ausgedruckt sowie physisch transportiert, jedoch lassen sich spätere papiergebundene Prozesse umgehen. Dafür können Unternehmen einen Postdigitalisierungsanbieter beauftragen und die Briefe an ein Scanzentrum weiterleiten oder umrouten lassen. Dort werden die Dokumente in einem hochautomatisierten Verfahren digitalisiert und in der Regel tagesaktuell über das Internet zur Verfügung gestellt. Fortschrittliche Anbieter verwenden dafür ein Dokumentenmanagementsystem. Relevante Informationen wie der Empfänger sowie auch der Inhalt des Briefes können mithilfe von optischer Zeichenerkennung (OCR) und künstlicher Intelligenz ausgelesen werden, sodass automatisch eine Zuordnung der Dokumente erfolgen kann und Dokumente dank Volltextsuche durchsuchbar sind. Durch das Weiterleiten der Unterlagen in andere Anwendungen stehen sie dort unmittelbar zur weiteren elektronischen Bearbeitung zur Verfügung. Tätigkeiten wie das Kopieren und manuelle Erfassen von Informationen sind nicht erforderlich. Fehlerquellen, etwa durch Abtippen von Informationen, werden reduziert. Gescannte Unterlagen, die nicht im Original benötigt werden, werden fachgerecht recycelt, sodass sie dem Wertstoffkreislauf wieder zugeführt werden. Das wirkt sich deutlich vorteilhafter auf die CO2-Bilanz aus als das klassische Abheften und letztliche Entsorgen im Hausmüll.

Auf Nummer sicher gehen

Wichtig ist, bei der Auswahl eines geeigneten Partners darauf zu achten, dass dieser in Deutschland ansässig ist, die Dokumente vor Ort verarbeitet und die Informationen in deutschen Rechenzentren speichert. Auf diese Weise können Unternehmen sichergehen, dass die Briefe den Dienstleister ohne große Verzögerung erreichen, dieser die hohen Anforderungen an die Datensicherheit erfüllt und dass sie außerdem bei Fragen einen Ansprechpartner vor Ort haben, der die Landessprache beherrscht. Verantwortungsvolle Anbieter achten darauf, dass sie umweltbewusst arbeiten.



Abschied von langweiliger Arbeit

Ein weiterer positiver Effekt: Mitarbeiter werden von monotonen Routinetätigkeiten entlastet. Dazu zählt das lautstarke, nervtötende Schreddern von Dokumenten. Das Suchen in Ordnern wird passé und das Schlangestehen in der Postfiliale, oft bis vor die Tür, seltener. Nicht zuletzt können Mitarbeiter ortsunabhängig agieren. Kollaborative Bearbeitungsmöglichkeiten führen zeitraubendes Kopieren oder Scannen ad absurdum. Gleichzeitig kann das Dokumentenmanagementsystem als Single Point of Truth dienen, sodass alle mit der gleichen Dokumentenversion arbeiten und es keine Missverständnisse bezüglich veralteter Informationen gibt. Nicht zuletzt verkürzt sich die Durchlaufzeit, etwa von Rechnungen, wodurch Unternehmen in die Lage versetzt werden, Entscheidungen zu treffen, die auf aktuellsten Informationen basieren. Sprich: Sie können schneller und qualitativ besser agieren, die Arbeit wird angenehmer und menschlicher – wichtige Aspekte in Bezug auf die zunehmend bedeutender werdende Corporate Social Responsibility (CSR).

Mit Mitarbeitern, die solche Vorteile erfahren haben, ist es anschließend leichter, die Nachhaltigkeit des eigenen Unternehmens oder der Organisation noch weiter voranzubringen. Kleine Tricks wie die Reduktion von Papierkörben in Büros können dabei zusätzlich unterstützen, wie ein Ansatz der London School of Economics gezeigt hat. Denn häufig geschehen Handlungen wie das Wegwerfen von Papier unbewusst. Sind Papierkörbe schwerer zugänglich, wird der halb vollgeschriebene Zettel vor dem Zerknüllen und Entsorgen eher ein weiteres Mal verwendet. Darüber hinaus können der Kauf von Recyclingpapier statt weißem Papier und das Einführen von digitalen Notizlösungen, wie Goodnotes, Notion oder reMarkable, sowie digitalen Whiteboards/Flipcharts, wie Lucidspark, Microsoft Whiteboard, Google Jamboard oder Prezi, und Schulungen helfen, den Papierverbrauch weiter zu reduzieren. Bewährt hat sich, wenn versierte, ausgewählte Mitarbeiter als Fürsprecher für digitale Prozesse fungieren und ihre Kollegen unterstützen.

Ein Türöffner zum Büro 4.0

Hat sich ein ausgeprägtes Nachhaltigkeitsbewusstsein entwickelt, können sich alle gemeinsam auf die Suche nach weiteren Möglichkeiten begeben, um Energie zu sparen, das Klima zu schützen und die Arbeitsbedingungen noch weiter zu verbessern. Kooperationen mit Lösungsanbietern wie ClimatePartner helfen, die eigene CO2-Bilanz zu ermitteln und anschließend eine Klimaschutzstrategie sowie verursachte CO2-Emissionen auszugleichen. Ganzheitlich aufgestellte Postdigitalisierer übernehmen auch das Digitalisieren von Papierarchiven und stellen dieses revisionssicher elektronisch bereit, sodass dieses in die aktuellen Prozesse integriert werden kann. Dadurch lassen sich viele Abläufe noch stärker automatisieren, was wiederum eine moderne Arbeitsphilosophie des Digitalzeitalters, die dem Büro 4.0 zugrunde liegt, weiter stärkt. Dieses steht für digitales Arbeiten, gestützt durch automatisierte Prozesse und künstliche Intelligenz, damit sich Menschen auf das Wichtigste konzentrieren können: Kreativität, grundlegende Entscheidungen und das Geschäft.

Die Herleitung verdeutlicht: Ein digitaler Briefkasten ist nicht nur ein Instrument, um Post elektronisch zu empfangen. Vielmehr eröffnet er Möglichkeiten, um zeitgemäß und umweltfreundlich zu arbeiten. Er kann einen hervorragenden Einstieg bilden, um Mitarbeiter für die Vorteile des Büros 4.0 zu sensibilisieren, die Papiernutzung Schritt für Schritt zu senken und wirkliche Nachhaltigkeit zu etablieren. Es gilt einzig, sich ein Herz zu fassen und die bestehenden Chancen zu nutzen.

Autor Alexander Schneekloth:
Alexander Schneekloth ist Gründer und Geschäftsführer von Caya. Caya ist ein führender Digitalisierungs-Enabler für kleine und mittelständische Unternehmen. Dazu digitalisiert Caya die tägliche Briefpost seiner Kunden und bietet mit der Document Cloud ein smartes Dokumenten-Management-System an. Mehr als 20.000 Kunden profitieren bereits insbesondere von Effizienzsteigerungen, einem einfachen, ortsunabhängigen Zugriff auf ihre Dokumente sowie einer revisionssicheren Ablage.

www.getcaya.com

Smarte Algorithmen für Produktion und Lieferketten

So rüsten sich Unternehmen für eine nicht planbare Zukunft

Von Matthias Berlit*

Unvorhersehbare Ereignisse haben zuletzt wiederholt die Lieferketten von Unternehmen unterbrochen und fein abgestimmte Produktionsplanungen durcheinandergebracht. Mathematische Modelle können solche Ereignisse zwar nicht vorhersagen, wohl aber ihre Auswirkungen abmildern, indem sie Unternehmen bei schnellen und bestmöglichen Reaktionen unterstützen. Gleichzeitig helfen sie bei der Planung in einer immer komplexeren und volatileren Welt.

Schon das Fehlen eines einzigen Bauteils vermag eine ganze Branche auszubremsen, wie die deutsche Automobilindustrie derzeit erfahren muss. In ihren Fahrzeugen überwachen und steuern mehr und mehr Computerchips die einzelnen Komponenten und Funktionen, doch weil auch andere Branchen einen hohen Chipbedarf haben, sind die wichtigen Bauteile seit Monaten knapp. Die großen Fahrzeughersteller mussten bereits ihre Produktion herunterfahren und sogar teilweise stoppen – im Frühjahr schickten sie Mitarbeiter in Kurzarbeit und im Sommer früher in die Betriebsferien. Ihre Kunden müssen sich auf längere Lieferzeiten einstellen oder Abstriche bei der Ausstattung ihres Wunschautos machen.

Verschärft wurde die Chipkrise in der ersten Jahreshälfte noch von einem heftigen Wintersturm im texanischen Austin und einem Corona-Ausbruch im malaysischen Malakka, die die Produktion bei wichtigen Halbleiterherstellern lahmlegten. Solche unvorhersehbaren Ereignisse, zu denen auch die Blockade des Suezkanals durch das Containerschiff „Ever Given“ und die Staus an großen südostasiatischen Containerhäfen zählen, haben zuletzt immer wieder die Lieferketten deutscher Unternehmen auf die Probe gestellt. Viele von ihnen überdenken deshalb nun ihre Sourcing-Strategien und versuchen, sich durch zusätzliche und regionale Lieferanten unabhängiger von einzelnen Zulieferern, Umweltereignissen und geopolitischen Auseinandersetzungen zu machen.


„Moderne Planungstools nutzen mathematische Modelle, um Ressourcen und Prozesse tagesaktuell oder in Echtzeit zu optimieren.“


* Matthias Berlit ist Geschäftsführer des Aachener Optimierungsspezialisten INFORM GmbH

Allerdings garantieren auch neue Sourcing-Strategien keine dauerhaft sichere Versorgung mit Rohstoffen und Bauteilen, denn hierzulande können unvorhersehbare Ereignisse ebenfalls die Lieferketten unterbrechen. Das hat in den vergangenen Monaten die Corona-Pandemie überdeutlich gezeigt, und das zeigen ganz aktuell auch die Hochwasser in verschiedenen Regionen Deutschlands sowie die Streiks im Güterverkehr der Deutschen Bahn. Letztlich leben wir längst in einer sogenannten VUKA-Welt – einer Welt, die volatil, unsicher, komplex und ambivalent ist und auf die sich Unternehmen einstellen müssen.

Komplexe Prozesse erfordern digitale Lösungen

Viele, vor allem technische Produkte bestehen aus hunderten oder gar tausenden Einzelteilen. Hersteller fertigen sie in aufeinander aufbauenden Produktionsschritten, noch dazu häufig in unterschiedlichen Varianten. Die Materialdisposition, Kapazitätsplanung, Transport- und Produktionssteuerung ist entsprechend komplex, und bereits kleine Ungenauigkeiten in der Planung oder geringfügige Abweichungen etwa durch fehlende Teile führen zu erheblichen Verzögerungen und hohen Kosten. Die Planungs- und Steuerungsprozesse lassen sich jedoch ausgezeichnet in mathematischen Modellen abbilden, die vorhandene Ressourcen und verfügbare Kapazitäten optimal aufeinander abstimmen und dabei alle Abhängigkeiten und Termine berücksichtigen.

Moderne Planungstools nutzen mathematische Modelle, um Ressourcen und Prozesse tagesaktuell oder in Echtzeit zu optimieren, Aufträge bei Bedarf neu zu priorisieren und bei sich ändernden Anforderungen innerhalb kürzester Zeit verschiedene Handlungsszenarien durchzuspielen. Mit ihrer Hilfe lasten Unternehmen ihre Maschinen und Anlagen besser aus, erhöhen ihre Termintreue und nutzen vorhandene Bestände bestmöglich, statt zusätzliche Sicherheitsbestände aufzubauen, die Kapital binden. Sie fällen schnellere und bessere Entscheidungen, tun sich mit der Automatisierung leichter und gestalten ihre Prozesse deutlich resilienter.  


Der Mensch würde intuitiv anders planen als ein Algorithmus. Nach seiner Planung wäre Auftrag B zwar wie gewünscht vor Auftrag C fertiggestellt – beide aber nicht innerhalb der Frist. Der Algorithmus empfiehlt daher, Auftrag B zurückzustellen, damit wenigsten Auftrag C termingerecht fertig wird.

(Quelle: INFORM)


Zwar können auch die Algorithmen keine Ereignisse wie eine Pandemie oder einen Brand bei einem Zulieferer vorhersagen, dafür treten diese zu singulär und zu plötzlich auf. Doch sie unterstützen Unternehmen bei einer schnellen und optimalen Reaktion und helfen dadurch, die Auswirkungen abzuschwächen. Die Algorithmen berechnen für die jeweilige Situation die besten Szenarien, um beispielsweise mit den noch verfügbaren Lagerbeständen möglichst viele oder strategisch wichtige Aufträge fertigzustellen.

Algorithmus schlägt Mensch

Häufig unterschätzen Unternehmen die Bedeutung digitaler Planungstools oder wissen schlicht zu wenig über deren Leistungsfähigkeit. Stattdessen setzen sie auf zeitraubende und abstimmungsintensive manuelle Verfahren oder bestenfalls Excel und verschenken enorme Chancen. Weder Erfahrung noch Bauchgefühl können mit mathematischen Modellen mithalten, denn das komplexe Prozessgeflecht mit begrenzten Ressourcen und Kapazitäten und zahlreichen Abhängigkeiten vermögen Menschen kaum zu überblicken und richtig zu bewerten. Das zeigt sich beispielhaft in der Produktionsplanung, wenn Fristen knapp bemessen sind und Menschen intuitiv wichtige Aufträge höher priorisieren. Ein modernes Planungstool würde dagegen vorschlagen, einzelne Aufträge gezielt zurückzustellen, um insgesamt mehr Aufträge termingerecht abzuschließen.

Auch ein von INFORM entwickeltes und auf Machine Learning basierendes Prognoseverfahren für die Wiederbeschaffungszeiten von Waren verdeutlicht, welches Potenzial in Algorithmen steckt. Seine Prognosen sind bis zu 70 Prozent genauer als die häufig unpräzisen internen Stammdaten im ERP-System oder die oft unzuverlässigen Angaben der Lieferanten selbst. Mit den verlässlicheren Informationen planen Unternehmen nicht nur genauer und halten zugesagte Termine besser ein, sondern sparen sich auch teure Sicherheits- und Überbestände sowie kurzfristige Notkäufe zu höheren Preisen. 

In seine Analysen bezieht das Prognoseverfahren neben historischen Daten wie die zugesagten und tatsächlichen Liefertermine früherer Bestellungen auch lieferantenbezogene Informationen wie Bestellfrequenzen und Bestellmengen ein. Dazu kommen saisonale Daten wie feiertagsbedingte Abweichungen und händlerspezifische Eigenschaften. Zu diesen zählen beispielsweise die Unternehmensgröße und die Größe der Fahrzeugflotte. Aus diesen Daten lernt der Algorithmus, eine präzise Wiederbeschaffungszeit vorherzusagen, sodass Unternehmen rechtzeitig nachbestellen können. Dabei erkennt und berücksichtigt der Algorithmus auch Eigenheiten von Lieferanten, etwa wenn diese regelmäßig mehrere kleine Bestellungen zusammenfassen, um ihre Transportkapazitäten besser auszulasten, was zu Verzögerungen bei einzelnen Bestellpositionen führen kann.

Flexible Arbeitszeiten auch für Schichtbetriebe

Ihre Stärken konnten moderne Planungslösungen während der Pandemie allerdings nicht nur bei der Planung von Einkauf, Logistik und Produktion unter Beweis stellen. In der Personaleinsatzplanung unterstützten sie Unternehmen überdies bei der Reduzierung von unnötigen Personenkontakten und halfen so, das Risiko von Ansteckungen und damit von Betriebsschließungen zu minimieren. Zum Beispiel durch Schichten mit fester Besetzung, die Kontakte zu stetig wechselnden Kollegen verhindern, oder durch gestaffelte Anfangs- und Pausenzeiten, mit denen sich größere Mitarbeiteransammlungen an Werkstoren, in Umkleiden und in Kantinen vermeiden lassen.

Über die Pandemie hinaus erlaubt es spezialisierte Software für die Personaleinsatzplanung den Unternehmen, schneller und besser auf Mitarbeiterausfälle zu reagieren und stärker die Wünsche der Mitarbeiter zu berücksichtigen. Bislang erstreckten sich flexible Arbeitszeitmodelle meist nicht bis in die Fertigungshallen – dort überwiegen nach wie vor starre Arbeitszeit- und Schichtsysteme, die mithilfe von Algorithmen allerdings deutlich flexibler gestaltet werden könnten, was zur Mitarbeitermotivation und zur Attraktivität von Arbeitsplätzen in der Produktion beiträgt.

https://www.inform-software.de/

Aufmacherbild / Quelle / Lizenz
Photo by Barthelemy de Mazenod on Unsplash

Experten im eigenen Unternehmen finden

Der Fachkräftemangel ist ein ernstes Problem. Stetig suchen Unternehmen nach den besten Mitarbeitern und generieren große Aufwände für das Recruiting. Möglicherweise lässt sich das Problem auch intern lösen, wie Gastautor Daniel Fallmann in seinem Beitrag beschreibt.

Daniel Fallmann schreibt über die größten Experten, die Unternehmen haben – und wie man sie findet… Die eigenen Mitarbeiter.

Mitarbeiter zählen zu den größten Wissensträgern im Unternehmen, doch meist sind die Kompetenzen und Erfahrungen nur den Kollegen oder Vorgesetzten im engeren Umfeld bekannt. Durch den anhaltenden Fachkräftemangel gilt es aber die Experten zu einem Thema im gesamten Unternehmen ausfindig zu machen, um das Know-how zu bündeln und Best Practices zu teilen. Denn kurzfristig extern Personal mit der gerade benötigten Expertise zu finden, gestaltet sich immer schwieriger. Es ist daher für Unternehmen umso wichtiger, die bereits vorhandenen Ressourcen optimal einzusetzen.

Das KfW-ifo-Fachkräftebarometer vom Juni 2021 zeigt, dass in Deutschland gerade in wichtigen Dienstleistungsbereichen wie Architektur- und Ingenieurbüros, Rechts- und Steuerberatung und Dienstleistungen der Informationstechnik zwischen 30 und 50 % der Unternehmen vom Fachkräftemangel betroffen sind. Daher wird ein koordinierter Umgang mit den Kompetenzen der eigenen Mitarbeiter sowohl bei der Personalauswahl als auch bei der Personalentwicklung und im Personaleinsatz zum kritischen Erfolgsfaktor. Die Informationen über Kenntnisse der Mitarbeiter sind aber nicht für jeden zugänglich. Erfahrungen aus früheren Arbeitsverhältnissen, zusätzliche Qualifikationen oder Fähigkeiten, die nicht direkt mit dem derzeitigen Beruf zu tun haben, sind lediglich in Lebensläufen oder den Personaldokumenten erfasst.

Genau hier bringt der Einsatz von intelligenten Wissensmanagementlösungen, sogenannte Insight Engines, einen großen Vorteil. Sie analysieren und verknüpfen die im Unternehmen vorhandenen Daten und stellen mittels Methoden künstlicher Intelligenz Zusammenhänge – beispielweise zwischen Personen und Sachverhalten – her. Mit einer einfachen Suchabfrage lassen sich so die bereits im Unternehmen vorhandenen Experten zu einem bestimmten Thema rasch finden und in umfassenden 360-Grad-Sichten darstellen.

Insight Engines einsetzen

Die Einführung von Insight Engines ist ohne ein aufwendiges IT-Projekt möglich und wird erfahrungsgemäß von Fachabteilungen angestoßen. Mittels sogenannter Konnektoren werden sämtliche Unternehmensdatenquellen wie beispielsweise HR-Systeme, Cloud-Services, Intranet, Datenbanken, Archive oder Fachanwendungen angebunden.

Die Insight Engine analysiert, im Rahmen der individuellen Berechtigungen der Anwender, die Daten aus den unterschiedlichen Datenquellen und interpretiert etwaige Zusammenhänge. Bei einer Recherche nach einer bestimmten Qualifikation ist sie in der Lage genau jene Personen zu extrahieren, die die konkreten Anforderungen erfüllen. Das kann jemand sein der bereits an einem bestimmten Projekt beteiligt war, ein Mitarbeiter, der durch seinen Werdegang Hintergrundwissen mitbringt, oder Experten, die durch Fortbildungen entsprechende Kompetenzen erlangt haben. Oder ganz naheliegend auch einfach jene Kollegen die laufendend zu den gefragten Qualifikationen Dokumente erfassen oder anpassen. Zusätzlich stellt die Lösung kontextrelevante Zusatzinformationen wie Auslandsaufenthalte und Publikationen zur Verfügung. Alle Ergebnisse stehen den Anwendern im Rahmen der Zugriffsrechte in einem personalisierten Dashboard bereit.

Abbildung 1: Expertensuche

Anfragen der Anwender mit künstlicher Intelligenz verstehen

Um sowohl die Anfragen der Anwender als auch die Inhalte der Dokumente zu verstehen und die benötigten Informationen aus der Datenmenge zu extrahieren, nutzen Insight Engines Technologien aus dem Bereich der Spracherkennung. Durch Natural Language Processing (NLP) und Natural Language Understanding (NLU) ist die Lösung in der Lage Anfragen in natürlicher Sprache zu verstehen, richtig zu interpretieren und korrekt auf Fragen mit „wer“, „wie“, „wo“, „was“ zu antworten.

Die Frage „Welcher meiner Mitarbeiter spricht Spanisch?“ liefert somit auch direkt die Antwort „Erika Mustermann“. Das System erkennt dabei automatisch das Fragewort, wonach konkret gesucht wird – in diesem Fall eine Person und kein Gegenstand – und extrahiert nur jene Information, die tatsächlich angefragt wurde, anstatt einer Trefferliste.

Neuronale Netze (Deep Learning) sorgen dafür, dass die Insight Engine von ihren Anwendern lernt, um dem Informationsbedarf noch exakter nachkommen zu können. Auf Basis der individuellen Arbeitsweise, dem Such- und Klickverhalten sowie vorangegangener Suchabfragen sind sie in der Lage, die Relevanz der einzelnen Treffer zu errechnen. Anhand bestimmter Parameter – zum Beispiel wie oft eine Information aufgerufen und bearbeitet wurde – berechnen sie die Relevanz der Treffer bezogen auf die Fragestellung. Bei nachfolgenden Suchabfragen stellen sie den Anwendern, die „relevanter“ eingestuften Informationen vorrangig zur Verfügung.

Abbildung 2: KI-basiertes Relevanzmodell

Fazit

Insight Engines unterstützen sowohl die HR-Abteilung als auch die Fachabteilungen bei der Suche nach den benötigten Experten. Dadurch verringern sie den Druck für jede Leistung externes Know-how zuzukaufen, da sich in vielen Fällen die Wissensträger bereits im Unternehmen befinden.

Autor:

Daniel Fallmann gründete 2005 Mindbreeze und lebt täglich als CEO den Qualitäts- und Innovationsanspruch vor. Zusammen mit seinem Team legte er bereits in den ersten Jahren den Grundstein für die hoch skalierbare und intelligente Mindbreeze InSpire Appliance. Seine Leidenschaft für Enterprise Search und Machine Learning in einem Big Data Umfeld fasziniert nicht nur die Mitarbeiter, sondern auch die Mindbreeze Kunden.

Weitere Informationen unter:
www.mindbreeze.com

New Work: Gute Noten für die IT und mehr Freude an der Arbeit

Eine internationale Matrix42-Studie zu Remote-Work-Modellen

Ein Großteil der Unternehmen fühlt sich mit Blick auf die technologischen Voraussetzungen für Remote-Work-Modelle gewappnet. Das belegt eine aktuelle Studie des Digital Workspace-Anbieters Matrix42. In Zusammenarbeit mit dem Marktforschungs-Institut YouGov befragte das Unternehmen dafür rund 4.000 Führungskräfte, IT-Professionals und Mitarbeiter ohne Führungsverantwortung in Deutschland, Frankreich, Italien, Spanien, dem Vereinigten Königreich und den USA. Das Ergebnis: Die Zukunft der Arbeit ist hybrid – doch es gibt auch noch einige Hindernisse zu überwinden.

Im Business-Alltag nimmt Remote Work mittlerweile – auch pandemiebedingt – eine große Rolle ein. Die Hälfte aller Studienteilnehmer befürwortet das Arbeitsmodell. Eine Geschäftswelt mit vollkommener Fernarbeit wird sich aber dennoch vermutlich nicht durchsetzen. Denn die optimalen Voraussetzungen für Remote Work sind noch nicht überall geschaffen. Vor allem im internationalen Vergleich zeichnen sich hier Unterschiede ab. Während über die Hälfte der Studienteilnehmer in Spanien, Frankreich, dem Vereinigten Königreich und den USA von dem neuen Arbeitsmodell sehr überzeugt sind, sehen das in Deutschland nur 33 Prozent so.


Remote Work kommt gut an – doch es gibt auch Skepsis


Skepsis gibt es vor allem aufgrund mangelhafter technologischer Voraussetzungen, um neue Arbeitsmodelle tragfähig auf- und umzusetzen. Vor allem Deutsche, Spanier und Italiener sehen hier noch Defizite. Auch der eingeschränkte persönliche Austausch unter Kolleginnen und Kollegen wird als Hürde für mobile und Homeoffice-Möglichkeiten wahrgenommen.

Immerhin 67 Prozent aller Befragten fürchten ein Verschwimmen von Beruflichem und Privatem, sollte es nur noch Remote Work geben. Gerade IT-Professionals sehen Remote Work auch mit einem kritischen Blick: Mehr als die Hälfte der befragten IT-Profis erwartet zum Beispiel Mehrarbeit in der eigenen Unit (62 Prozent).

Bessere Work-Life-Balance und flexiblere Arbeitszeiten

Große Zustimmung zeigt sich alles in Allem für hybride Arbeitsmodelle. Und zwar nicht nur in Bezug auf das Arbeitsaufkommen in IT-Abteilungen oder mit Blick auf die Work-Life-Balance. Auch aus Unternehmenssicht spricht laut der neuen Matrix42-Studie vieles für hybride Lösungen:
  Zwei Drittel der IT-Professionals berichten von einer Verbesserung der Work-Life-Balance. In der Gesamtauswertung unter allen Befragten stimmt mit 47 Prozent fast die Hälfte zu.

Vor allem in Deutschland (77 Prozent) und im Vereinigten Königreich (78 Prozent) freuen sich die Befragten über wegfallende Arbeitswege, von denen sie profitieren, wenn die Office-Präsenz nicht mehr das Maß aller Dinge ist.

Insgesamt 18 Prozent sind insgesamt bereit, einen weiter entfernten Arbeitsplatz anzunehmen, wenn es Homeoffice-Möglichkeiten gibt. 55 Prozent geben an, Familie und Beruf besser in Einklang bringen zu können, wenn sie remote arbeiten können und die entsprechende Ausstattung zur Verfügung haben.

Gutes Equipment – gutes Mitarbeitererlebnis

Oliver Bendig, CEO von Matrix42

„Hybrides Arbeiten hat nicht nur große Auswirkungen auf die Mitarbeiter, sondern auch auf die IT-Abteilungen. Support-Prozesse sind zum Beispiel komplexer, durch Fernwartung und Chatbot-Funktionen aber oft auch schneller geworden, da Laufwege zum physischen Helpdesk oder zum Mitarbeiter-Schreibtisch entfallen.

IT-Spezialisten kommt in neuen Arbeitsmodellen deshalb eine größere Bedeutung zu. Für erfolgreiches hybrides Arbeiten sind das Vorantreiben der IT-Abteilungen und die Workspace-Modernisierung heutzutage einfach unerlässlich“, so Oliver Bendig, CEO von Matrix42. „Unter anderem weist Gartner in diesem Zusammenhang auf die Besonderheiten des IT-Supports in hybriden und Remote-Umgebungen hin.“

Dass hier schon einiges angestoßen wurde, bestätigt die Studie. Über 40 Prozent der IT-Professionals berichten davon, aktiv an Homeoffice-Lösungen zu arbeiten. Dazu zählen unter anderem die Einführung digitaler Prozesse und neue Compliance-Regularien. Ein willkommener Nebeneffekt ist für viele Befragten die Verbesserung der eigenen IT-Kenntnisse durch die Einführung von Remote Work. Das bestätigt auch fast die Hälfte der IT-Professionals.

In puncto Mitarbeiterzufriedenheit gibt dieser Trend zudem Anlass zur Zuversicht: 69 Prozent der IT-Spezialisten berichten, dass IT-Lösungen zur Unterstützung von New-Work-Modellen gut angenommen würden und die Mitarbeiterinnen und Mitarbeiter gern damit arbeiteten.

Über die Studie

Matrix42 befragte im Mai 2021 in Zusammenarbeit mit dem Markt- und Meinungsforschungs-Institut YouGov rund 4.000 Führungskräfte, IT-Professionals und Mitarbeiter ohne Führungsverantwortung in Deutschland, Frankreich, Italien, Spanien, dem Vereinigten Königreich und den USA zum Thema Remote Work.

Den vollständigen Studienbericht können Sie hier lesen.

www.matrix42.com

PRESSEKONTAKT
Matrix42
Gisela Dauer
Senior Communication Manager
Tel: +49 69 66773-8378
Mobile: + 49 172 274 11 51
Fax: +49 69 66773-8380
gisela.dauer@matrix42.com

Maisberger GmbH

Sabine Tritschler
Claudius-Keller-Straße 3c
D-81669 München
Tel: +49 (0)89 419599-72
matrix42@maisberger.com
www.maisberger.de

Dies ist eine Pressemitteilung von Matrix42

Aufmacherbild/ Quelle / Lizenz
 Image by Peggy und Marco Lachmann-Anke from Pixabay

Personalisierte Einkaufserlebnisse beflügeln den Umsatz

Eine umfassende Digital Experience Platform (DXP) kombiniert Daten, Analysen, Künstliche Intelligenz und Marketing-Automatisierung. Damit können Unternehmen in sämtlichen Phasen der Customer Journey Interessierte in Echtzeit mit personalisierten Inhalten versorgen – und das auf allen Kanälen.

Von Jeroen Happel, Business Consultant bei Macaw

Jeroen Happel, der Autor dieses Beitrags, ist als Businessconsultant beim internationalen Digital-Dienstleister Macaw beschäftigt (Quelle: Macaw).

Kundinnen und Kunden nehmen heute nicht mehr auf linearem Wege Kontakt zu Unternehmen auf. Im Gegenteil: Sie informieren sich auf der Firmen-Webseite, nutzen E-Mail, kommentieren in den sozialen Medien oder verwenden eine App. Die Schwierigkeit für Firmen liegt also darin, diese unterschiedlichen Kanäle und Touchpoints zu synchronisieren, um den Interessierten ein einheitliches Erlebnis zu bieten. Ziel ist eine bestmögliche Customer Journey mit einer abgestimmten, personalisierten Ansprache, um die Kundschaft von den eigenen Produkten und Leistungen zu überzeugen und sie wieder abzuholen, wenn sie mit dem Gedanken spielen, zur Konkurrenz zu wechseln. Genau hier setzt eine Digital Experience Platform an.

Mit einer Digital Experience Platform das Erlebnis der Kundschaft steuern

Bei einer DXP steht die Orchestrierung einer integrierten, nahtlosen und relevanten digitalen Journey über alle Kanäle hinweg im Vordergrund. Dazu bündelt die Plattform alle Kontaktpunkte, angefangen von Webseiten und Newsletter über Portale und Apps bis hin zu E-Commerce-Plattformen. Sämtliche an diesen verschiedenen Touchpoints generierten Interaktionsdaten speichert die DXP-Lösung in einer einzigen Datenbank. Technische Silos gehören somit der Vergangenheit an.

Gleichzeitig ist eine DXP in der Lage, alle gesammelten Daten über das Verhalten der Kundschaft mit externen Quellen etwa aus dem CRM oder ERP, aber auch anderen Backoffice-Systemen zu kombinieren. Eine moderne DXP-Lösung auf Basis von KI legt zudem nicht nur die nächsten Aktionsschritte fest, sondern führt sie auch automatisch durch: Dazu werden die notwendigen A/B- und Content-Tests für die Conversion-Optimierung durchgeführt, Inhalte und Angebote komplett personalisiert und an Interessierte ausgespielt. Das Ziel besteht darin, zu verstehen, wie Menschen in einem bestimmten Kanal mit Inhalten interagieren, um bei der nächsten Interaktion auf einem anderen Kanal ein noch besseres Erlebnis zu bieten.

Eine DXP-Lösung bietet eine Rundumsicht auf die Kundschaft

Eine Digital Experience Platform bietet eine 360-Grad-Sicht auf die Interessierten. Sie schafft damit die Voraussetzung, um auch in immer digitaleren Zeiten wettbewerbsfähig zu bleiben. Außerdem entlastet sie die Mitarbeitenden, indem sie operative Aufgaben und Entscheidungen zur Ansprache automatisiert. Und sie löst die Herausforderung vor der Unternehmen stehen, wenn sie Tausende von Interessierten an multiplen Kontaktpunkten und in unterschiedlichen Sprachen weltweit erreichen müssen. Spätestens hier funktionieren keine Einzellösungen mehr, sondern einzig das Zusammenspiel vieler Komponenten. Um Inhalte dynamisch zu personalisieren, hilft die integrierte KI. Manuelle Prozesse sind hierfür ungeeignet.

Vier Schlüsselkomponenten zeichnen eine gute DXP aus

Dank des sogenannten Headless-Verfahrens müssen Inhalte nur einmal erstellt und können dann über alle Kontaktpunkte ausgespielt werden. Layout-Vorgaben, die ansonsten bei klassischen Content- und Channel-Management-Systemen die Produktivität ausbremsen, gehören damit der Vergangenheit an. Ein Headless-Vorgehen stellt Erlebnisse auf jedem digitalen Gerät, in allen Kanälen und an allen Touchpoints bereit – und das völlig nahtlos. Der nächste Punkt ist eine API-First-Architektur: Unternehmen können so ihre DXP in alle kritischen Geschäftssysteme wie PIM (Product Information Management) oder ERP sowie in externe Tools integrieren. Der Einsatz von Microservices wiederum stellt sicher, dass Firmen modular auf neue technische Anforderungen reagieren können, indem komplexe Systeme in kleinere, überschaubare Teile aufgeteilt werden. Zu guter Letzt sollte die DXP über ein umfangreiches Set an Tools verfügen, das alle Workflows für Content, Daten und Transaktionen abbildet.

Auswahlkriterien für eine DXP-Lösung

Der Erfolg eines DXP-Projekts hängt von drei Punkten ab: Menschen, Prozesse und Technologie. Eine DXP liefert ausschließlich dann das gewünschte Geschäftsergebnis, wenn die Plattform nahtlos in das digitale Ökosystem des Unternehmens integriert werden kann. Sie muss außerdem zukunftssicher sein und sämtliche Compliance-Anforderungen unterstützen sowie ein optimales Erlebnis für die Kundschaft bieten. Nur eine intuitiv bedienbare Lösung garantiert eine maximale Akzeptanz. Trotzdem ist eine Schulung der Mitarbeitenden sinnvoll, um sie mit den spezifischen Anwendungsfällen vertraut zu machen. Genauso wichtig ist die Auswahl des passenden Digital-Dienstleistenden. Er erarbeitet gemeinsam mit dem Unternehmen die Strategie und das visuelle Design, um das Kundenerlebnis zu optimieren.

Studien belegen, dass sich Teile der Kundschaft für ein anderes Unternehmen entscheiden, wenn sie mit der Omnichannel-Kommunikation ihres bisherigen Anbieters unzufrieden sind. Unternehmen mit einer schlechten digitalen Interaktion verlieren somit Teile der bisherigen Kundschaft und gewinnen weniger Neuinteressierte. Sich heute allein auf die Bekanntheit seiner Marke zu verlassen, kann geschäftlich zu einem hohen Risiko werden, wenn man bei der digitalen Experience versagt. Das Motto muss deshalb lauten: Delivering the next best experience. Grundlage dafür ist eine moderne Digital Experience Platform.

Weitere Informationen unter:
www.macaw.net

Automotive Ethernet Mit Vollgas in die Zukunft

Dies ist ein Gastbeitrag von Thomas Zirngibl, M.Sc., Teamleiter Cockpit Elektronik bei ARRK Engineering                                                                                                                          

Hoch- und vollautomatisierte Fahrsysteme sind längst keine Fiktion mehr, sondern stellen vielmehr die Zukunftsperspektive der Automobilindustrie dar. Dabei ist es insbesondere für fahr- und sicherheitsrelevante Komponenten wie Motorsteuergeräte, Spurhalteassistenten und Anzeigesysteme essentiell, große Datenmengen sowohl schnell als auch absolut zuverlässig zu übertragen. Denn Anzeige- oder Kommunikationsausfälle – etwa bei Navigationssystemen, Einparkhilfen oder auch Kontrollleuchten – können zu gefährlichen Situationen für den Fahrer bis hin zu Unfällen mit mehreren Beteiligten führen. Bereits heute nutzen Automobilhersteller deshalb Highspeed-Datenübermittlung via Automotive Ethernet, um einzelne Steuergeräte untereinander sowie mit dem Systemverbund als Ganzem zu vernetzen. Im Zuge der zunehmenden Hochintegration rückt auch der zukünftige Einsatz von Automotive Ethernet als Hauptbussystem in greifbare Nähe. Um dieser wachsenden Komplexität aus sicherheitstechnischem Blickwinkel gerecht zu bleiben, reichen jedoch die bisherigen Testmethoden nicht mehr aus, da sie sich lediglich auf einzelne Systemkomponenten konzentrieren und eine systemische Überprüfung außer Acht lassen. Um dieser Schwachstelle entgegenzuwirken, müssen die Testing-Strategien für Automotive Ethernet zukünftig in der Lage sein, die immer komplexer werdenden Wechselwirkungen zwischen den einzelnen Protokollen und Steuergeräten zu erfassen.

Thomas Zirngibl, M.Sc., Teamleiter Cockpit Elektronik bei ARRK Engineering

Insbesondere mit Blick auf autonomes Fahren und die zukünftigen Netzwerkarchitekturen im Fahrzeug zählt das seit vielen Jahren im Consumer-Bereich etablierte Ethernet zu den zukunftssicheren und vielversprechenden Technologien. Die Vorteile dieser Art der Vernetzung liegen in der Übertragung hoher (10GBase-T1, Standardisiert seit 2020), aber auch geringer Datenraten (10Base-T1S, Standardisiert seit 2019), in der skalierbaren Ausfallsicherheit und Zuverlässigkeit sowie in der Möglichkeit, über WLAN und 5G mit der Umwelt zu interagieren, wie es bei der sogenannten C2X-Communication („Car to X“) der Fall ist. All diese Aspekte betreffen sowohl sicherheitsrelevante als auch komfortorientierte Bereiche des Fahrens. Seit der Gründung der OPEN Alliance im Jahr 2011 nimmt die Integration von Automotive Ethernet zunächst in Teilsystemen von Kamera-/Sensorsystemen, aber auch im Infotainment-Bereich verstärkt zu (anfangs BroadR-Reach, ab 2014 100Base-T1, erste Transceiver ICs von Broadcom).

Damit die zunehmende Anzahl der Steuergeräte für assistiertes und autonomes Fahren im Zuge dieser Entwicklung in einem überschaubaren Rahmen bleibt, ist ebenfalls ein steigender Integrationsgrad der Systeme im Fahrzeug notwendig, sodass weniger ECUs (Electronic Control Units) insgesamt mehr Funktionen erfüllen. Ziel der Hochintegration ist es, Kosten und Gewicht einzusparen, was in der Folge jedoch zu einem proportionalen Anstieg der Softwarekomplexität im System führt. Im gleichen Zuge nimmt auch die Anzahl der Automotive Ethernet Protokolle zu, um den stetig steigenden Softwareanforderungen gerecht zu werden. „Damit die zuverlässige Funktion der über Automotive Ethernet vernetzten Systeme – vor allem der hochautomatisierten Fahrsysteme – weiterhin gewährleistet werden kann, ist es deshalb unerlässlich, auch die Testmethodik an die wachsenden Komplexitäten zu adaptieren“, so Harald Faltheiner, Entwicklungsingenieur Hardware und Systemengineering bei der ARRK Engineering GmbH. „Denn mit der wachsenden Vernetzung erhöhen sich auch die Wechselwirkungen zwischen Hardware- und Softwareschichten, denen bisher schlichtweg zu wenig Aufmerksamkeit gewidmet wird.“

Der Schritt vom Consumer zum Automotive Ethernet

Im Laufe der vergangenen zehn Jahre setzte sich Automotive Ethernet als Kommunikationssystem in Fahrzeugkomponenten immer mehr durch. In der entsprechenden Testentwicklung wird bislang das bereits seit Mitte der 1980er Jahre für Netzwerkprotokolle standardisierte ISO/OSI-Referenzmodell als Basis herangezogen, das die einzelnen Verarbeitungsschritte in der Signalkette sieben logischen, nach oben hin abstrakter werdenden Schichten (Physical, Data Link, Network, Transport, Session, Presentation und Application) zuordnet, um sie voneinander isoliert ins Auge zu fassen. Das seit der Entwicklung der Internetprotokollfamilie maßgebende TCP/IP-Referenzmodell unterteilt das System mit Network, Internet, Transport und Application dagegen in lediglich vier aufeinander aufbauende Schichten, die ebenso jeweils abschnittsweise gedacht werden. „Diese Scheuklappen-Betrachtung der einzelnen Layer wird der zunehmenden Protokolldichte aber nicht mehr gerecht“, erläutert Faltheiner. „Es werden zwangsläufig Wechselwirkungen übersehen, vor allem zwischen der untersten physikalischen Ebene und den höheren, anwendungsorientierten Softwareschichten.“

Diese Diskrepanz ist unter anderem darauf zurückzuführen, dass sich die seit den 1970er Jahren entwickelten Ethernet-Systeme in den Consumer- und Business-Segmenten in erster Linie im Bereich des Physical-Layers von Automotive Ethernet unterscheiden. Denn während für den Einsatz in der Automobilbranche viele bereits etablierte Standardprotokolle, wie beispielsweise TCP/IP, UDP und die IPvx Protokolle, einfach übernommen oder entsprechend angepasst werden konnten, stellt die Automobilindustrie hardwareseitig deutlich höhere Anforderungen an die Vernetzungstechnologie, die Standard Ethernet mit seinen geschirmten Twisted-Pair-Kabeln nicht erfüllen kann. Automotive Ethernet muss einem hohen Temperaturbereich – typischerweise bis zu AEC-Q Grade 1 (-40 °C bis +125 °C) – sowie extremen mechanischen Belastungen widerstehen, strenge EMV-Grenzwerte einhalten, einen möglichst geringen Stromverbrauch im Standby-Modus aufweisen und zudem kosten- sowie gewichtseffizient sein. Diese und weitere Voraussetzungen konnten in den vergangenen zehn Jahren durch eine Vielzahl von Maßnahmen mit Anpassungen der Hardware und Software erreicht werden.

Beherrschung der Systemkomplexität durch mehrdimensionales Testing

Speziell für den Einsatz in der Automobilbranche wurden das service-orientierte Ethernetprotokoll SOME/IP zur Interprozesskommunikation für Client-Server-Anwendungen eingeführt, ebenso wie das DoIP-Protokoll, das zu Diagnosezwecken eingesetzt wird. Beide operieren auf den obersten drei Layern. Ebenfalls im Bereich der höheren Schichten ist AVB/TSN besonders relevant für Automotive Ethernet, da es eine latenzarme Übertragung von Audio- und Videodaten ermöglicht. Durch Erweiterung des TSN Standards kamen Protokolle für geringe Latenz (802.1Qbv, 802.1Qbu, 802.1Qch), hohe Zuverlässigkeit (802.1Qca, 802.1Qci, 802.1CB) sowie zur Konfiguration und Synchronisierung von Netzwerken (802.1AS, 802.1Qcc) im Fahrzeug hinzu. Zusätzlich gewährleistet IPSec Zugriffskontrolle, Datenintegrität, Authentifizierung und Vertraulichkeit. Jedes dieser Protokolle ist für sich bereits sehr komplex, weshalb der Fokus in den bisherigen Testverfahren – wie sie beispielsweise vom TC8 der OPEN Alliance definiert werden – auf der jeweiligen Überprüfung und dem Verständnis im Detail liegt. Da alle Datenpakete letztendlich über die physikalische Ebene transportiert werden, lässt diese Vorgehensweise das eng verflochtene Zusammenspiel der Protokolle auf Hard- und Softwareebene jedoch völlig außer Acht.

„Damit diese bestehenden und mit der steigenden Komplexität immer größer werdenden Lücken im Testing von Fahrzeugnetzwerken eingedämmt werden können, hat ARRK Engineering eine Testmethodik entwickelt, die das gesamte System aus einem umfänglichen Blickwinkel heraus erfasst“, erklärt Faltheiner. Den ersten Schritt dieses Lösungsansatzes stellt die Einführung einer Wechselwirkungsanalyse dar; gleichermaßen in bereits bestehenden sowie neuen Tests. So sollen Steuergeräte nicht nur isoliert, wie es bei den Lieferanten oder Herstellern üblich ist, sondern auch auf ihre Funktionalität im Systemverbund hin getestet werden. Dabei gehen die Spezialisten von ARRK Engineering grundsätzlich davon aus, dass es Protokolle gibt, die in Interaktion miteinander zu Fehlverhalten führen können. Zweitens wird das System gezielt ausgelastet, sodass die Wahrscheinlichkeit des Auftretens ungewollter Wechselwirkungen zwischen den Steuergeräten und den Protokollen steigt. Dabei ist es essentiell, mehrere Parameter – wie etwa die Summe der ausgeführten Funktionen, die Spannung, die Anzahl der Protokolle oder das Timing – zeitgleich anzuwenden beziehungsweise zu verändern sowie jeden Schritt im Ablauf des Testverfahrens detailgenau aufzuzeichnen und zu verfolgen. Denn nur so können einerseits angemessene Kriterien festgelegt werden, nach denen ein Test als „failed“ oder „passed“ bewertet wird. Andererseits wird auf diese Weise sichergestellt, dass ein bestimmtes Fehlverhalten, wie beispielsweise der Ausfall eines Anzeigesystems, innerhalb des Systemkomplexes auch auf einen konkreten Auslöser zurückgeführt werden kann.

Normalerweise sind Steuerungssysteme im Auto mehr oder weniger separate Einheiten, die von unterschiedlichen Zulieferern mit unterschiedlichen Softwareprotokollen entwickelt werden. Im autonomen Fahren müssen diese fehlerfrei miteinander kommuniziern. In der Praxis passieren aber durch die Vielzahl und die unterschiedlichen Implementationen Fehler. Die Ingenieure von AKKA Europe wollen diese durch integriertes Testen angehen.

Automotive Ethernet als Vernetzungssystem der Zukunft

Während heutzutage in den meisten Fällen noch eine Systemarchitektur mit Domänen und einem zentralen Gateway verwendet wird und innerhalb der Automotive Ethernet lediglich als Teilsystem implementiert werden kann, rückt im Zuge der Hochintegration bereits die sogenannte zonenbasierte Architektur (siehe Abbildung oben) in greifbare Nähe. Durch dieses flexible und skalierbare Konzept kann die Vernetzung im Kern über Ethernet-Switches erfolgen, welche die gesamten Signale weiterleiten. Automotive Ethernet ist für die zonenbasierte Architektur eine adäquate Vernetzungstechnologie. Prinzipiell besteht die Möglichkeit, im Rahmen der immer stärker automatisierten Fahrsysteme früher oder später Automotive Ethernet als Systembus zu etablieren. „In diesem Zusammenhang können wir davon ausgehen, dass die Veröffentlichungsrate neuer Protokolle für Automotive Ethernet weiterhin ansteigen wird“, bemerkt Faltheiner. „Deshalb ist es besonders wichtig, die entsprechende Testbarkeit bereits parallel zur Protokollentwicklung zu berücksichtigen und beides – Protokoll und Testspezifikationen – zeitgleich herauszubringen.“ Um diesem ständigen Weiterentwicklungsbedarf zu begegnen, achten die Ingenieure von ARRK Engineering bei ihrer umfassenden Testmethodik ausdrücklich auf deren Zukunftsfähigkeit, sodass die Strategien und Konzepte leicht auf die Berücksichtigung neuer Protokolle angepasst und erweitert werden können.

Weitere Informationen unter:
www.arrkeurope.com

Künstliche Intelligenz realistisch einsetzen

Wir sprachen mit Professor Dr. Götz Andreas Kemmner. Er gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Er plädiert im Interview für eine realistische Sicht auf künstliche Intelligenz.

Herr Prof. Kemmner, heute hört man viel von Künstlicher Intelligenz, kurz KI, die Unternehmen unbedingt einsetzen müssten, um erfolgreich zu bleiben. Warum benötigt man überhaupt KI?
KI ist heute ein Buzzword und darf in keiner Marketingaussage fehlen. Die Praktiker irritiert das jedoch viel mehr, als dass es ihnen hilft, an der richtigen Stelle KI einzusetzen. KI-Methoden können in der Tat in vielen Stellen weiterhelfen, an denen wir mit klassischen Methoden nicht weiterkommen. Das bedeutet aber umgekehrt nicht, dass alles mit KI besser wird.

Wird KI also überschätzt?
Sie kann nicht alles lösen. Lassen Sie mich das konkret machen, auch wenn es ein wenig schwarz-weiß gemalt ist: Im Grunde setzt man Software für zwei Aufgabengruppen ein. Man bildet Prozesse, also Arbeitsabläufe ab, oder man berechnet bestimmte Zahlenwerte. Wenn Sie eine eMail versenden, ist dies ein Arbeitsablauf, bei dem eine Information von A nach B gesendet wird. Wenn mit dem ERP-System eine Bedarfsprognose erstellt wird, wird eine Berechnung durchgeführt. Die Prognoseergebnisse werden bereitgestellt, damit die Disposition über die Nachbevorratung von Material entscheiden kann. Dies stellt dann einen weiteren Prozessschritt dar. Welche Menge an Material zu welcher Zeit nachbestellt werden sollte, erfordert wiederum eine Berechnung, die auf den zuvor ermittelten Planbedarfen aufsetzt.


Sowohl bei Berechnungs- wie bei Prozessschritten gibt es dann Konstellationen, bei denen KI weiterhelfen kann. Es gibt aber auch solche, bei denen KI nicht benötigt wird. Schauen wir uns als Beispiel einmal Berechnungsaufgaben an: Wenn Sie die Länge der längsten Seite eines rechtwinkligen Dreiecks berechnen wollen und die Längen der beiden kürzeren Seiten kennen, verwenden Sie eine genaue Formel, mit der Sie ein präzises Ergebnis bekommen und alles ist gut. Hier benötigen Sie keine KI.
Wenn Sie Fertigungsaufträge mit mehreren Arbeitsschritten auf Produktionsanlagen einplanen wollen, gibt es solche einfachen Formeln nicht mehr. Sie müssen vielmehr zahlreiche Restriktionen berücksichtigen. Wenn Sie alle Restriktionen kennen und beschreiben, lässt sich die Lösung dann zwar theoretisch errechnen, praktisch aber nicht, da unsere Computer noch immer nicht schnell genug rechnen und vermutlich noch für lange Zeit nicht so schnell wie notwendig rechnen können werden. Hierfür haben nun Mathematiker und Informatiker clevere Tricks entwickelt, wie man diese Herausforderung trotzdem lösen kann. KI kann hier helfen, die Lösungen noch effizienter zu erarbeiten.
Drittes Beispiel: Sie wollen aus der historischen monatlichen Verkaufszeitreihe eines Artikels ermitteln, wie dieser Artikel in Zukunft monatlich voraussichtlich nachgefragt werden wird. Sie könnten dafür einfach einen Mittelwert berechnen und eine Wahrscheinlichkeit, wie stark die Nachfrage um den Mittelwert schwankt. Sie verwenden dann zwar konkrete Formeln, aber eigentlich berücksichtigen Sie nur die Mengen und Schwankungen der Vergangenheit, um daraus die zukünftige Nachfrage zu ermitteln. Welche Einflussgrößen zu den Nachfrageschwankungen in der Vergangenheit geführt hatten, wissen und berücksichtigen Sie nicht. Sicherlich können Sie sich viele Einflussgrößen vorstellen, die in der Vergangenheit dazu beitrugen, die Nachfrage zu steigern oder zu senken. Zum Beispiel Preisaktionen von Wettbewerbern oder die Konjunktursituation oder eine Pandemie. Die verschiedenen Einflüsse wirken dabei aber auch gegeneinander. Hier wird es praktisch unmöglich, die statistischen Zusammenhänge zu messen und zu erkennen. Auch und gerade hier kann KI weiterhelfen.

Was kann die KI denn besser als klassische Berechnungen und Statistiken?
Methoden der künstlichen Intelligenz sind, wiederum etwas vereinfacht ausgedrückt, Algorithmen, die entweder Zusammenhänge zwischen verschiedenen Größen erkennen, die vorher nicht bekannt waren – das ist z.B. relevant bei Prognosen oder Bilderkennung. Zudem gibt es KI-Lösungen die Ergebnisse schneller liefern als klassische mathematische Ansätze.
Der Nachteil aller KI-Ansätze der ersten Kategorie ist, dass sie nicht zwischen Korrelation und Kausalität unterscheiden können. Ob zwei Effekte zufällig synchron laufen oder aufgrund realer Zusammenhänge, erkennen die mir bekannten heutige KI-Methoden noch nicht.
Die meisten können darüber hinaus nicht darlegen, auf welchem Weg oder warum sie zu einem bestimmten Ergebnis gekommen sind. Die KI simuliert hier in gewisser Weise nur das menschliche Bauchgefühl, wobei sie aber – im Gegensatz zum Menschen – dabei nicht durch Emotionen beeinflusst wird und damit unter gleichen Voraussetzungen auch zu gleichen Antworten kommen sollte – zumindest theoretisch. Letztlich müssen die meisten KI-Methoden „eingelernt“ werden. Das bedeutet, man benötigt einen mehr oder weniger umfangreichen Datensatz, anhand dessen die Algorithmen lernen können.

Herr Prof. Kemmner, Sie setzen in der Software DISKOVER solche KI-basierte Methoden ein. Wo kommt die KI bei DISKOVER zum Einsatz?
Wir setzen aktuell bei drei Aufgabenstellungen KI-Methoden ein. Weitere sind zudem bereits in der Entwicklung.
Bei der Einplanung von Fertigungsaufträgen gegen begrenzte Kapazitäten und gegen weitere Restriktionen, bei der Optimierung der Gesamtlieferbereitschaft eines Produktportfolios und bei der Absatzprognose. Für die ersten beiden Fälle haben wir ein Software-Modul entwickelt, das wir „Optimizer-Engine“ nennen und das mit Heuristiken und Metaheuristiken aus dem Bereich der künstlichen Intelligenz arbeitet. Diese Optimizer Engine ist darauf ausgelegt, knifflige Optimierungsaufgaben im Hintergrund automatisch und sowohl zeitlich als auch von Seiten der benötigten Rechenleistung her effizient zu lösen. Vereinfacht ausgedrückt also dort, wo eine klassische Berechnung zu aufwändig, zu zeitintensiv, zu ressourcenintensiv oder gar nicht mehr möglich ist.
Für die Absatzprognose verwenden wir zudem sogenannte neuronale Netze die wir mit Simulationen kombiniert haben, wie sie bei DISKOVER schon seit vielen Jahren zum Einsatz kommen. Neuronale Netze können bei der Absatzprognose zahlreiche potenzielle Einflussgrößen berücksichtigen, die man den Algorithmen in Form von umfangreichen Daten zur Verfügung stellen muss, damit Sie lernen können, wie die verschiedenen Einflussgrößen sich auf die Absatzmenge auswirken. Da auch neuronale Netze chaotisches Verhalten nicht voraussagen können und mit ihren Voraussagen auch falsch liegen können, weil sie zufällige Effekte zu stark berücksichtigen, verifizieren wir die Ergebnisse zusätzlich noch in einer sogenannten empirischen Simulation, in der sich sie gegen z.B. statistisch bereits bewährte Berechnungsmethoden behaupten müssen. Dieser Clearingschritt halten wir für immens wichtig, um die Qualität des Ergebnisses abzusichern.

Wie können diese KI-Methoden den Unternehmen ganz konkret weiterhelfen im Vergleich zu klassischen Methoden? Welche Potenziale können freigesetzt werden?
Bei der Feinplanung in DISKOVER hilft uns KI, schneller zu guten Ergebnissen zu gelangen. Die Potenziale zeigen sich in besserer Produktivität, höherem Durchsatz und besserer Termintreue der Aufträge.
Bei der Optimierung der Gesamtlieferbereitschaft ermöglicht die Optimizer Engine innerhalb von ca. 90 Sekunden für eine vorgegebene Zielgröße – eben die Gesamtlieferbereitschaft – die dafür erforderlichen Teillieferbereitschaften einzelner Gruppen des Artikelportfolios zu ermitteln. Diese Berechnung war vorher nur sehr aufwändig und sehr grob durchführbar, sodass man in der Praxis zumeist darauf verzichtet hat. Die Potenziale liegen darin, dass einerseits eine Gesamtlieferbereitschaft gezielt vorgegeben werden kann und andererseits die dafür erforderlichen Bestände so gering wie möglich gehalten werden.
Bei der Erarbeitung von Absatzprognosen können zudem nicht nur zahlreiche Einflussgrößen berücksichtigt werden – das ist inzwischen in leistungsfähigeren Systemen Standard – sondern die Prognoseergebnisse werden auch empirisch verifiziert und um die richtigen Sicherheitsbestände ergänzt. So vermeiden wir, dass Sie sozusagen dem „Bauchgefühl“ der Algorithmen auf den Leim gehen. Auch stellen wir sicher, dass die Sicherheitsbestände die Prognoseunsicherheit sauber kompensieren. Im Ergebnis erhält man bessere Prognosen, genauer berechnete Sicherheitsbestände und erreicht damit eine geforderte Lieferbereitschaft mit geringeren Beständen bzw. mit geringeren Gesamtkosten.

An wen richten Sie sich mit dem Tool DISKOVER?
DISKOVER ist auf Produktions- und Handelsunternehmen ausgerichtet, die häufig komplexe Wertschöpfungsketten mit teilweise langen Wiederbeschaffungszeiten aufweisen. Als Add-On-System arbeitet es im Zusammenspiel mit ERP- oder Warenwirtschaftssystemen. Dabei kann es als APS-System in seiner gesamten Wirkungsbreite eingesetzt werden. Alternativ kann es auch gezielt einzelne Leistungslücken im Planungsprozess eines ERP-Systems ausmerzen. Unser Ziel ist es dabei immer, im Zusammenspiel zwischen Software und Beratung das Gesamtsystem sowohl effizienter als auch effektiver zu machen und nicht – platt ausgedrückt – möglichst viele ERP-Funktionen durch DISKOVER-Funktionen zu ersetzen.

Wie ist überhaupt die Idee zu Ihrer Lösung DISKOVER entstanden? Welche Motivation gab es dazu?
Die Ursprünge von DISKOVER gehen auf Ideen zurück, die an der RWTH Aachen Anfang der 90er Jahre entwickelt worden sind. Wir haben DISKOVER kontinuierlich als ein Simulationssystem ausgebaut, das zuerst die Auswirkungen von Planungs- und Steuerungsentscheidungen auf komplexer dynamische Wertschöpfungsketten durchspielen konnte und später Planungs- und Steuerungsmechanismen automatisch optimieren konnte.
Durch ein Beratungsprojekt beim Schreibgerätehersteller Montblanc kam es dazu, dass wir unser Simulationssystem zu einem operativen System ausbauten. Mund-zu-Mund Propaganda führte zu immer mehr Nachfrage nach dem operativen DISKOVER-Tool, sodass das Softwaregeschäft immer mehr zunahm. 2008 gründeten wir deshalb die SCT GmbH als Tochterunternehmen von Abels & Kemmner. Die SCT treibt heute – im Zusammenspiel mit den Beratern einerseits und den operativen Anwendern andererseits – die Weiterentwicklung von DISKOVER voran; Abels & Kemmner bringt die Kompetenz für die Gesamtoptimierung ein.
Diese besondere Konstellation spiegelt sich auch bei den Anwenderunternehmen von DISKOVER wider: Die meisten Anwender verstehen logistische Leistung als wesentlichen Erfolgsfaktor und streben an, ihre Prozesse und Algorithmen über den Stand des Wettbewerbs hinaus zu optimieren. Schnell und kostengünstig releasefähige kundenspezifische Anpassungen durchführen zu können, ist ein weiteres wesentliches Merkmal von DISKOVER.


Über den Interviewpartner

Professor Dr. Götz Andreas Kemmner, Jahrgang 1959, gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Hinzu kommen Tätigkeiten als Interim-Geschäftsführer in zwei Automobilzuliefer-Unternehmen und als Oberingenieur am Forschungsinstitut für Rationalisierung (FIR) e. V. In über 190 Veröffentlichungen hat Prof. Dr. Kemmner als Autor, Co-Autor oder Referent mitgewirkt, zudem hält er regelmäßig Vorträge und Seminare. Seit dem 12.06.2012 Honorarprofessor an der Westsächsischen Hochschule Zwickau.


Weitere Informationen unter:
www.ak-online.de

Bildquelle / Lizenz Aufmacher: Copyright-Anatoly-Stojko-Dreamstime-com

Brennstoffzellen-Triebzüge im Taunusnetz

Ab dem Jahresfahrplan 2023 werden insgesamt 27 wasserstoffgetriebene Züge – die bislang größte Flotten weltweit im Personenverkehr – auf den Strecken von Frankfurt nach Königstein und Brandoberndorf, von Frankfurt-Höchst nach Bad Soden und von Bad Homburg nach Friedberg unterwegs sein. Zur Betankung der Züge wird im Industriepark Höchst eine entsprechende Wasserstoff-Tankstelle errichtet. Das Land Hessen fördert den Bau der grundlegenden Schieneninfrastruktur für die Wasserstoff-Tankstelle mit rund 2,5 Mio. Euro, knapp 60 Prozent der hierfür anfallenden Kosten. Ergänzend wurden vom Land Hessen für die Erstellung vorbereitender Gutachten und den Bau einer mobilen Zugbetankungseinrichtung über 800.000 Euro zur Verfügung gestellt. Für die Betankungseinrichtung als solche stellt der Bund Fördermittel bereit.

„Dieses Projekt ist ein augenfälliger Beleg für die Innovationskraft der hessischen Wirtschaft und der hessischen Verkehrsverbünde“, sagte Verkehrsstaatssekretär Jens Deutschendorf im Industriepark Höchst. „Statt Dieseltriebzügen ermöglicht es der Brennstoffzellenzug, lokal emissionsfrei und nahezu geräuschlos zu fahren“, so Deutschendorf weiter. „In Hessen ist derzeit noch etwa ein Drittel der Bahnstrecken nicht elektrifiziert – das Potential für innovative Antriebe und die so ermöglichte saubere Mobilität damit groß.“

Ressourcenschonende Mobilitätslösungen

Auch Dr. Joachim Kreysing, Geschäftsführer von Infraserv Höchst, sieht in der Weiterentwicklung der Wasserstoff-Technologie eine wesentliche Herausforderung auf dem Weg zu zukunftsfähigen, umweltfreundlichen Mobilitätslösungen. „Dabei muss es auch möglich sein, Übergangstechnologien zu nutzen, mit denen wir sehr schnell CO2-Einspareffekte erzielen können“, sagte Dr. Kreysing. Weil in Deutschland noch zu wenig Strom aus erneuerbaren Quellen zur Verfügung steht, könne nur wenig „grüner“ Wasserstoff produziert werden. Der für die Betankung der Brennstoffzellen-Züge benötigte Wasserstoff entsteht im Industriepark Höchst im Rahmen der Chemieproduktion unter Einsatz von Strom.

Verkehrsstaatssekretär Jens Deutschendorf (rechts) überreicht den Förderbescheid im Beisein von RMV-Geschäftsführer Prof. Knut Ringat (Mitte) an Dr. Joachim Kreysing, Geschäftsführer Infraserv Höchst.
© Infraserv Höchst, 2021

Dr. Kreysing verwies auch auf die Innovationskraft der Chemiebranche, die bei der Entwicklung von nachhaltigen, ressourcenschonenden Energie- und Mobilitätslösungen unverzichtbar sei. „Infraserv Höchst ist schon seit 15 Jahren im Bereich der Wasserstoff- und Brennstoffzellentechnologie aktiv und im Industriepark Höchst sind mehrere Unternehmen dabei, neue Technologien voranzutreiben“, so Dr. Kreysing. Er betonte, dass politische Rahmenbedingungen und regulatorischen Vorgaben so gestaltet sein müssen, dass Innovationen erfolgreich umgesetzt werden können.

Wasserstoffbetriebene Regionalverkehre

Mit dem so genannten Taunusnetz werden vier Regionalzuglinien auf den innovativen Brennstoffzellen-Antrieb umgestellt. Die Bauarbeiten für die Wasserstoff-Tankstelle haben im April dieses Jahres begonnen und sollen bereits Anfang 2022 abgeschlossen werden.

„Unsere Wasserstoffzüge sind nicht nur die ersten ihrer Art, die in Hessen fahren werden: Sie zeichnen sich auch dafür verantwortlich, dass in Höchst Hessens erste Wasserstofftankstelle für Züge entsteht. Damit unterstreichen wir einmal mehr die Vorreiterstellung des Landes Hessen und des RMV im Bereich alternativer Antriebstechnologien und der Verkehrswende. Da Wasserstoff im Industriepark Höchst in großen Mengen als Nebenprodukt anfällt, können wir diesen ohne zusätzliche Emissionen für den ÖPNV nutzen – ein wichtiger Schritt in Richtung Klimaneutralität! Um jederzeit die Betankung sicherzustellen, baut Infraserv zudem einen Elektrolyseur, der mit grünen Strom grünen Wasserstoff herstellt. Etwa die Hälfte unserer 27 Züge werden hier täglich zum Auftanken einfahren – denn mit 1000 Kilometern ist die Reichweite so groß, dass die Fahrzeuge auch nach einem vollen Betriebstag noch ordentlich Reserve im Tank haben“, so Prof. Knut Ringat, RMV-Geschäftsführer und Sprecher der Geschäftsführung.

Wasserstoff ist vor allem im Hinblick auf die Sektorenkopplung oder die Speicherung überschüssiger Energie aus Wind oder Sonne ein wichtiger Baustein der Energie- und Ressourcenwende. Aus diesem Grund wurden bisher über 100 Wasserstoff- und Brennstoffzellenprojekte in Hessen umgesetzt. Allein in den letzten drei Jahren hat das Land Hessen rund 25 Projekte mit über 8,5 Millionen Euro finanziell gefördert.

Weitere Informationen unter:
www.infraserv.com

Diversität und Inklusion leben

„Diversität ist, zu einer Party eingeladen zu werden, Inklusion hingegen ist, zum Tanz aufgefordert zu werden.“

Kathleen Jaedtke, Head of Marketing DACH bei HubSpot und auch zuständig für das Hiring von Marketing-Talenten erläutert im Gespräch mit der Redaktion, warum Diversität und Inklusion Chefsache ist.

Frau Jaedtke, was verstehen Ihr Haus und Sie unter Diversity?

Diversität ist die Zusammensetzung der Belegschaft, ob auf das Geschlecht, die Herkunft oder das Alter bezogen. Diversität und Inklusion werden vermeintlich oft gleichgesetzt, aber es sind verschiedene Dinge. Inklusion ist die Unternehmenskultur, die eine diverse Belegschaft gedeihen lässt. Um es plastisch zu sagen: Diversität ist, zu einer Party eingeladen zu werden, Inklusion hingegen ist, zum Tanz aufgefordert zu werden. Um eine Wirkung zu entfalten, dürfen Diversität und Inklusion nicht in HR oder Recruiting aufgehängt sein, sondern ganz oben im Unternehmen.

Weshalb setzen Sie auf Diversity?

Wir haben eine Verantwortung, den gesellschaftlichen Wandel nachhaltig voranzutreiben und faire Gemeinschaften und Chancen aufzubauen. Eine herausragende Unternehmenskultur zieht talentierte Mitarbeiterinnen und Mitarbeiter an, und erlaubt es ihnen, sich weiterzuentwickeln und ihr volles Potenzial zu entfalten, was auf den Unternehmenserfolg einzahlt. Deshalb sind für uns Diversitäts- und Inklusionsziele Teil der Unternehmensziele. Für uns ist es wichtig, dass sich die Vielfalt unserer Kundschaft auch in unserem Team widerspiegelt.


„Managerinnen und Manager spielen eine entscheidende Rolle für die Erfahrungen der Mitarbeitenden mit Inklusion und Zugehörigkeit.“


Kathleen Jaedtke

Wie entwickeln Ihre Teams ein gemeinsames Mindset? Wie unterstützen Sie Ihre Führungskräfte dabei?

Wir haben einen Culture Code, der sowohl ein Leitfaden für unsere Mitarbeitenden darstellt als auch eine Sammlung von gemeinsamen Überzeugungen. Er spiegelt die Unternehmenskultur wider, die wir bei HubSpot tagtäglich leben, und dient auch als Wegweiser für Zukunft.

Zudem haben wir für alle Mitarbeiterinnen und Mitarbeiter ein verpflichtendes Antirassismus-Training eingeführt. Es ist notwendig, dass alle verstehen, wie systemischer Rassismus auf uns alle einwirkt und wie wir selbst aktiv einen Wandel herbeiführen können. Alle Mitarbeiterinnen und Mitarbeiter bei HubSpot sollen sich willkommen und wertgeschätzt fühlen für das, was sie sind, woran sie glauben und was sie erlebt haben.

Außerdem nehmen alle Führungskräfte zusätzlich zum allgemeinen Antirassismus-Training an einem speziellen Kurs mit dem Titel „Antirassismus für Führungskräfte bei HubSpot“ teil. Das ist wichtig, denn Managerinnen und Manager spielen eine entscheidende Rolle für die Erfahrungen der Mitarbeitenden mit Inklusion und Zugehörigkeit. Wir nehmen diese Verantwortung sehr ernst.

Wie haben Sie das Thema Diversity Management im Unternehmen und in Ihrer Unternehmenskultur dauerhaft verankert?

Vor vier Jahren haben wir uns unsere Zahlen rund um Diversität und Inklusion genau angeschaut und waren nicht sonderlich zufrieden. Wir waren nicht so divers aufgestellt, wie wir es gerne sein wollten. Seitdem hängen wir Diversität und Inklusion ganz oben im Unternehmen auf.

Unsere Zahlen und Fortschritte veröffentlichen wir jährlich in einem „Diversity, Inclusion & Belonging Report“. Damit zeigen wir unsere Verantwortung und legen gleichzeitig unsere Fortschritte für alle offen – für unsere Kundschaft, Mitarbeitenden, Bewerbenden und für alle Interessierten. Wir sind eines der wenigen börsennotierten Unternehmen, besonders im Technologie-Bereich, die so transparent sind.

Um eine diverse und inklusive Unternehmenskultur bei HubSpot kümmert sich das Global Culture Team. Sie organisieren verschiedene Aktivitäten oder entwickeln Schulungsprogramme, wie beispielsweise das Antirassismus-Training.

Inwieweit ist bei HubSpot Diversity bereits Alltag?

Ein Indikator für unsere Fortschritte in Sachen Diversity sind unsere aktiven und stets wachsenden Employee Resource Groups.  Das sind Mitarbeitergruppen, die als Rückzugsorte bei der Arbeit dienen und sowohl intern als auch extern Austausch- und Networking-Möglichkeiten bieten, beispielsweise Women@HubSpot, Families@HubSpot, People of Color at HubSpot (POCaH), BLACKhub oder LGBTQ+ Alliance.

Jede Gruppe wird von zwei C-Level-Führungskräften unterstützt, die an monatlichen Treffen teilnehmen, Feedback annehmen und die Ideen der Mitarbeiterinnen und Mitarbeiter in die Leitungsebene bringen.

Zudem produzieren wir externe Inhalte für unsere Kanäle unter Einhaltung von unseren internen Zielen zu Diversität und Inklusion. Dies spiegelt sich unter anderem in einer entsprechenden Bildsprache auf unseren Social-Media-Kanälen und auf dem Blog sowie in der Auswahl von Persönlichkeiten für unseren Podcast „The Digital Helpdesk“ wider. Wir haben einen Inclusive Language Guide entwickelt und bilden uns in diversen Workshops zum Thema weiter. Wir verpflichten uns, psychologische Sicherheit für unsere Mitarbeitenden sowie das Einhalten von Diversitätszielen beim Einstellen von neuen Mitarbeitenden sicherzustellen.


„Um eine diverse und inklusive Unternehmenskultur bei HubSpot kümmert sich das Global Culture Team. Sie organisieren verschiedene Aktivitäten oder entwickeln Schulungsprogramme, wie beispielsweise das Antirassismus-Training.“


Inwiefern schlägt sich Ihre Diversity-Management-Strategie auch im Unternehmenserfolg nieder?

Wir glauben daran, dass unterschiedliche Perspektiven HubSpot zu einem besseren Unternehmen machen. Deshalb sind wir bemüht, ein vielfältiges und integratives Umfeld zu schaffen, in dem sich unsere Mitarbeitenden zugehörig fühlen. Zufriedene Mitarbeiterinnen und Mitarbeiter sind produktiver. Wir zählen laut Glassdoor zu den vier beliebtesten Arbeitgebern 2021 und wurden unter anderem von Great Place to Work, Comparably, Fortune, Entrepreneur und Inc. für unsere Unternehmenskultur allgemein und auch im Bereich Diversity ausgezeichnet.

Woran erkennen Ihre Bewerber, dass das Thema „Diversity“ bei HubSpot auch gelebt wird?

Unser Culture Code und Diversity-Report sind öffentlich zugänglich. Der Report macht deutlich, wie groß unsere Bemühungen sind, ein diverser und inklusiver Arbeitgeber zu werden. Und wir können einige Fortschritte verzeichnen, auch wenn wir noch lange nicht dort sind, wo wir hinwollen. Seit 2017 ist der Anteil der Mitarbeitenden aus der BIPoC-Gruppe (Black, Indigenous and People of Color) in Nordamerika von 12 Prozent auf 27,4 Prozent gestiegen. Zudem stieg der Anteil an weiblichen und geschlechtsneutralen Personen in Führungspositionen weltweit um 6 Prozent. Auch unser Führungsteam ist divers aufgestellt. Seit September ist Yamini Rangan als CEO an der Spitze. Die ehemalige Chief Customer Officer bei HubSpot ist indisch-amerikanischer Herkunft.

Neben unseren Corporate-Accounts auf Social Media pflegen wir auch separate Kanäle für das (Arbeits-)Leben bei HubSpot beispielsweise auf Instagram oder Twitter. Dort können Bewerbende hinter die Kulissen blicken.

www.hubspot.com/careers

Aufmacherbild / Quelle / Lizenz
Photo by Zach Reiner on Unsplash

Liveshopping: Was deutsche Marken jetzt wissen müssen

von Cami Chiang

Über 780 Millionen Menschen folgen den Streams von Marken und sogenannten Key-Opinion-Leadern “KOLs” in China. Was dort bereits unter dem Oberbegriff Social Commerce fester Bestandteil aller großen E-Commerce Plattformen und mancher Social Media Apps ist, wird vermehrt auch von deutschen Unternehmen wie dem Kaffeehersteller Tchibo in die Marketingstrategie aufgenommen. Doch was genau steckt hinter dem Trend? Und wie funktioniert Social Commerce in der Praxis?

Seit Liveshopping vor fünf Jahren von E-Commerce Gigant Alibaba in deren Taobao App, einer zentralen Anlaufstelle für Commerce von B2B bis C2C, eingeführt wurde, hat sich viel getan. Die Technologie wurde von allen großen Wettbewerbern aufgenommen, weiterentwickelt und hat vor allem auch Chinas E-Commerce nachhaltig verändert. In 2021 ist Liveshopping essenzieller Teil des Social Commerce, also der Vermarktung von Produkten über Influencer, von denen die bekanntesten in der Volksrepublik als KOLs bekannt sind. Auch internationale Mitbewerber:innen wie der britische Hautpflegeexperte Dr.PAWPAW, bekannt vom Set der Erfolgsserie Bridgerton, setzen in ihrer Chinastrategie auf Liveshopping.

Was hat es mit Liveshopping auf sich?

Liveshopping bietet Marken die Möglichkeit, Produkte direkt durch Livestreams zu verkaufen. Kund:innen werden die vorgestellten Produkte live angezeigt, die sie mit einem Klick kaufen können, ohne die Plattform zu verlassen. Streaming, Rabatte, Produktauswahl und Zahlung—alles wird auf einer Plattform zusammengeführt.

„Liveshopping ist äußerst facettenreich und kann unterschiedlichste Ziele verfolgen.“

Cami Chiang, Senior Director Office Taipei bei oddity Asia

Theoretisch können Brands bereits mit einer funktionierenden Kamera und einer stabilen Internetverbindung direkt loslegen. Doch ganz so einfach ist erfolgreiches Liveshopping in der Praxis natürlich nicht. Neben grundlegenden Fragen wie Timing und Frequenz müssen Hosts, Kanäle, Produkte und weitere Aspekte des Liveshopping, spezifisch für die jeweilige Marke ausgewählt und zugeschnitten werden.

Soll beispielsweise mit einem KOL gearbeitet werden oder doch lieber ein firmeninterner “in-house livestreamer” Produkte vorstellen? Ähnlich wie in einem traditionellen stationären Geschäft, unterstützen Expert:innen beim in-house livestreaming potentielle Kund:innen im Onlineshop, beantworten Fragen live und verteilen sogar Coupons.  Die feste Integration von Livestreamer:innen in das Customer Service Team einer Marke kann für zusätzliche Vorteile sorgen, wenn Kund:innen auch detaillierte und einzelfallspezifische Fragen direkt und zutreffend live beantwortet werden können. 

Oft empfiehlt sich ein Mix. Dr.PAWPAW beispielsweise setzt sowohl auf bekannte Influencer:innen, um Sichtbarkeit zu erhöhen, als auch auf in-house Livestreamer:innen, um Konvertierungsraten zu erhöhen und Kundenloyalität zu schaffen. Ende August erreichte die Marke über einen Livestream außerhalb des eigenen Shops auf Taobao LIVE über 800.000 Zuschauer:innen, die innerhalb von 5 Minuten mehr als 1000 Mal Dr.PAWPAWs Original Balm kauften. In-house Livestreams finden bei Dr.PAWPAW während großer Kampagnen täglich statt.

Da jede Marke sich an einem anderen Punkt der Marktdurchdringung befindet, unterschiedlich bekannt ist, über bestimmte Budgets verfügt und andere Ziele verfolgt, muss auch für jede Marke eine eigene Strategie entwickelt werden, um Liveshopping erfolgreich zu betreiben. Es gibt nicht den einen Ansatz, der jede Marke zum Erfolg führt.

Welche Ziele sollten gesetzt werden?

Liveshopping ist äußerst facettenreich und kann unterschiedlichste Ziele verfolgen. Entsprechend muss die Strategie genau auf diese ausgerichtet werden. Soll die Bekanntheit der Marke erhöht werden? Soll Vertrauen zwischen Marke und Kund:in aufgebaut werden? Dann empfiehlt sich in diesen Fällen wahrscheinlich mit namhaften KOLs zusammenzuarbeiten, um deren Nutzerbasis zu aktivieren und für das Sortiment zu interessieren.

Liegt der Fokus stattdessen eher darauf, eine enge Kundenbindung zu schaffen und die Conversionrate im Onlineshop zu erhöhen? Hier könnte sogenanntes In-House Livestreaming mit authentischen Markenbotschaftern und geringerer Reichweite die passende Lösung sein. Diese können laut einem McKinsey Artikel die Conversionrate im Vergleich zu herkömmlichen E-Commerce bis zu verzehnfachen.

Bereits im Seedingprozess vor Markteintritt arbeitete Dr.PAWPAWs Partner für China, oddity Asia, mit Influencern zusammen, um das Interesse für die bis dato dort kaum bekannte britische Trendmarke bei potenziellen Kund:innen zu wecken. Seit Markteintritt im März 2021 folgen nun schon über 72.000 Fans dem Dr.PAWPAW Tmall Global Flagship Store—eine beachtliche Zahl im hochkompetitiven Beautymarkt China. Die strategische Verwendung von Liveshopping hat erheblich zum Erfolg des Shops beigetragen.


„Ob als großes, öffentlichkeitswirksames Event oder zunächst nur im kleinen Stil: Liveshopping bringt frischen Wind in die E-Commerce Landschaft und bietet kleinen wie großen Marken neue Vertriebs- und Marketingmöglichkeiten.“


Social Commerce in Deutschland

Influencermarketing ist auch in Deutschland nichts Neues. Besonders auf Instagram und YouTube arbeiten Marken hierzulande gerne mit externen Markenbotschafter:innen zusammen. Doch auch Liveshopping wird immer beliebter. Einige Marken haben bereits damit begonnen, ähnliche Funktionen in ihre Onlineshops zu integrieren, um dort Produkte live vorzustellen.

Besonders mit Blick auf die Covid-19 Pandemie wünschen sich Kund:innen immer mehr personalisierte und persönliche Shoppingerlebnisse online. Liveshopping ermöglicht es, Entertainment und Beratung wie in traditionellen Geschäften mit dem Komfort, den E-Commerce bietet, zu verbinden. Der Blick nach Fernost legt nahe, dass Liveshopping auch den deutschen E-Commerce mittel- bis langfristig verändern wird. Marken haben jetzt die Chance, von China zu lernen und den First Mover Advantage in Deutschland für sich zu nutzen. Ob als großes, öffentlichkeitswirksames Event oder zunächst nur im kleinen Stil: Liveshopping bringt frischen Wind in die E-Commerce Landschaft und bietet kleinen wie großen Marken neue Vertriebs- und Marketingmöglichkeiten.

https://www.oddity-asia.com/

Über Cami Chiang

Cami Chiang ist Senior Director Office Taipei bei oddity Asia, einem Full-Service-Partner für E-Commerce und digitales Marketing, der europäischen FMCG-Unternehmen bei der Expansion nach China zur Seite steht. Mit ihrer langjährigen Erfahrung im globalen Marketing und tiefgreifender Kenntnis des chinesischen E-Commerce unterstützt sie Marken wie dm-drogeriemarkt bei ihrem Markteintritt in den chinesischen Markt.

Aufmacherbild / Quelle / Lizenz
Photo by Samantha Borges on Unsplash