„Der Weg ist das Ziel“

Conrad Electronic befindet sich auf dem Weg der kompletten Neuausrichtung. Dazu sprachen wir mit dem CEO Ralf Bühler.

Wieso liegt für Sie die Zukunft Ihres Unternehmens im Wandel hin zu einer Sourcing Platform?
Das Ziel, uns zur Europas führender Beschaffungsplattform für die Deckung des kompletten technischen Betriebsbedarfs zu entwickeln, haben wir uns nicht von heute auf morgen gesetzt. Bereits seit geraumer Zeit fokussieren wir uns auf das B2B-Geschäft. Dies brachte und bringt die konsequente Digitalisierung unseres Geschäftsmodells mit sich. Die Conrad Sourcing Platform, wie wir sie heute bereits kennen, ist das Ergebnis dieser Entwicklung. Aktuell sind dort mehr als 6 Millionen Produktangebote zu finden. Doch ein umfassendes Sortiment alleine reicht nicht aus. Mit maßgeschneiderten Lösungen wollen wir Problemlöser für unsere Geschäftskunden sein, sie bei der Digitalisierung ihrer Beschaffung unterstützen und ihnen so Zeit und Kosten beim Einkaufsprozess sparen.

Wo befinden Sie sich auf diesem Weg und was sind die aktuellen Herausforderungen? Wie nehmen Sie die Mitarbeiter mit „auf die Reise“?
Die strategisch wichtigen Weichen fürs Erreichen unseres Ziels sind gestellt. Trotzdem ist und bleibt es wichtig, offen zu sein für Neues und sich im Bedarfsfall immer neu zu justieren. Das heißt auch, dort, wo sinnvoll, Partner an Bord zu holen, um neue Lösungen zu schaffen. Entscheidend für erfolgreichen Change ist es, die eigene Komfortzone zu verlassen und einen Blick über den Tellerrand zu werfen. Und natürlich trifft das nicht nur auf die Geschäftsführung, sondern alle Mitarbeitenden zu, von deren Kompetenzen und kreativen Ideen jedes Unternehmen lebt. Gerade in Zeiten von dezentralem Arbeiten ist es eine besondere Herausforderung, alle Beteiligten mitzunehmen. Genau hier greift aber unser Conrad-Spirit: Ärmel hochkrempeln und mit innovativen Konzepten und Teamspirit das gemeinsame Ziel erreichen. Exemplarisch dafür stehen unsere internen Conrad Experience Days, die wir dieses Jahr komplett virtuell veranstaltet haben und an denen drei Tage lang in mehr als 60 Live-Sessions die Themen Strategie, Kundenzentrierung und Digital Mindset behandelt und reflektiert wurden.

Weshalb setzt Conrad – im Gegensatz zu vielen Konkurrenten – trotz Automatisierung und Digitalisierung auf den Faktor Mensch?
Als traditionsreiches Familienunternehmen gehen wir unseren eigenen Weg und setzen auf Menschen und Maschinen. Auch wir digitalisieren und automatisieren unsere Prozesse, legen zugleich jedoch größten Wert auf regelmäßigen Austausch und direkten Kontakt. Nur wer versteht, was Geschäftskunden und -partner wirklich brauchen, kann sich entlang dieser tatsächlichen Anforderungen weiterentwickeln.

Wie wichtig ist Fachexpertise bei dieser Strategie und wie wollen Sie diese noch weiter stärken?
Regelmäßige Befragungen und Einzelinterviews helfen uns dabei, die Herausforderungen zu identifizieren und unsere Leistungen entsprechend anzupassen. Darüber hinaus sind und bleiben der persönliche Kontakt im Key Account Management und Inside Sales sowie die Geschäftskundenbetreuung in unseren Filialen zentraler Bestandteil unseres Angebots.

Die Filialen haben Conrad „das Gesicht gegeben“ und den Kunden eine Anlaufstelle. Welche Rolle spielen diese in der Zukunft?
Auch wenn sich unser Fokus in den vergangenen Jahren mehr in Richtung Online und B2B verschoben hat, verlieren wir den Stationärhandel nicht aus den Augen und setzen gemäß unserer Plattform-Strategie auch weiterhin auf die Vernetzung von Onlineshop und Filialen. Wir arbeiten intensiv an zukunftsfähigen und wirtschaftlich erfolgreichen Konzepten, um auch weiterhin mit unseren Kund*innen vor Ort in direkten Kontakt zu treten. Beim Konzept für eigene B2B-Filialen sind wir bereits einen Schritt weiter und haben zwischenzeitlich die Filiale in Hürth eröffnet.

Und welche Rolle kann Conrad mit seinen Lösungen und digitalen Services ganz speziell in der Technologie-Beschaffungsbranche spielen?

Unsere Umfragen haben Versorgungssicherheit, Kostenreduzierung und Lieferantenmanagement als wichtigste Herausforderungen im professionellen Einkauf identifiziert. Abgesehen vom maßgeschneiderten Sortiment geht es also auch bei der Technologie-Beschaffung darum, Prozesse zu verschlanken, indem man die Möglichkeiten elektronischer Beschaffung nutzt. Deshalb bauen wir unser Angebot im Bereich E-Procurement kontinuierlich aus und ermöglichen so jedem Unternehmen die passende elektronische Einkaufsanbindung, um auf unser umfassendes Angebot zugreifen zu können. Mit Conrad Smart Procure (CSP) bieten wir eine eigene kostenlose und browserbasierte Lösung für kleinere Betriebe, während größere Unternehmen mit eigenem Beschaffungssystem sich per OCI-Schnittstelle oder E-Katalog an die Conrad Sourcing Platform anbinden können. Dazu gesellen sich Features wie unsere Single-Creditor-Lösung, um professionelles Einkaufen bei Conrad noch einfacher zu machen.

Welche Vision zeichnen Sie für Conrad nach dem „Umbau“?
Für uns ist der Weg das Ziel, denn einen Umbau im klassischen Sinne gibt es nicht. Die Conrad Sourcing Platform wendet sich bereits heute mit ihrem Angebot an mehr als 2,3 Millionen B2B-Kunden in Deutschland und macht deren Beschaffung einfacher schneller und umfassender. Doch in einer Welt, die sich ständig wandelt, bieten sich natürlich auch für die Conrad Sourcing Platform immer wieder neue Möglichkeiten, um sich dynamisch mit den Anforderungen der Kund*innen weiterzuentwickeln.

Weitere Informationen unter:
www.conrad.de

Ethische Hacker: Lücken finden, bevor es andere tun

Laurie Mercer schildert in seinem Gastbeitrag, wie Unternehmen mit White Hat Hackern in Kontakt kommen können und noch vielmehr, wie sie diese Zusammenarbeit sinnvoll gestalten können. White Hat Hacker sind Spezialisten auf ihrem jeweiligen Gebiet und können mit einem kreativen und technischen Ansatz Sicherheitslücken finden und dokumentieren, bevor andere es tun.

Mit der sich zunehmend weiterentwickelnden digitalen Transformation von Wirtschaft und Gesellschaft steigt zwangsläufig auch der Grad der Vernetzung. Gerade in der Geschäftswelt lassen sich immer mehr Verbindungen hin zu Partnerunternehmen, Lieferanten und Kunden beobachten. Gleichzeitig nimmt die Komplexität der IT-Infrastrukturen immer weiter zu – nicht zuletzt aufgrund neuer Paradigmen sowie immer neuer Funktionen, die von den Systemen bereitgestellt werden. Daher spielt Cybersecurity eine zunehmend wichtigere Rolle, auch, weil das Bedrohungspotenzial stetig zunimmt: Schon 2019 kam eine Studie des Bitkom zu dem Ergebnis, dass drei von vier Unternehmen Ziel von Cyberkriminellen wurden. Seither hat sich die Situation nicht entspannt – ganz im Gegenteil. Dass sich Unternehmensverantwortliche daher nun verstärkt Gedanken hinsichtlich der Verbesserung der IT-Sicherheit machen, ist daher kaum verwunderlich.

Hersteller sind zwar im Regelfall darauf konzentriert, dass ihre Lösungen bereits ab Werk sicher sind, allerdings ist es mit der Sicherheit der Lösung, die „ab Werk“ integriert ist, alleine nicht getan. Denn auch die Implementierung im Anwenderunternehmen und die entsprechende Konfiguration der Software spielt in der Gesamtbetrachtung eine große Rolle. Und genau dies ist häufig der Knackpunkt, wenn es darum geht, Software-Lösungen im Unternehmen sicher zu betreiben.



Sicherheitsrisiken durch Fehlkonfigurationen

Wie häufig Falsch- bzw. Fehlkonfigurationen tatsächlich die Sicherheit von Unternehmen bedrohen, dazu gibt es nur wenige verlässliche Daten. Jedoch lassen die Webauftritte von Organisationen, die einen eigenen Online-Shop betreiben, darauf schließen, dass auch fernab der Quellcodes von Software Sicherheitsrisiken zu finden sind – wie ein Blick auf die Konfigurationen verrät.

In diesem Zusammenhang ist insbesondere IDOR (Insecure Direct Object Reference) ein gutes Beispiel. Hier handelt es sich um eine Fehlkonfiguration in der Zugriffskontrolle, bei der ein direkter Zugriff auf eine interne Datenbank erfolgt und dieser nicht authentifiziert bzw. kontrolliert wird. Nicht selten findet sich dieser Fehler in Web-Apps oder APIs. Angreifern wird es dadurch relativ einfach gemacht, diesen Fehler in ihrem Sinne auszunutzen. Haben Nutzer beispielsweise die Möglichkeit, Inhalte einer Web-Plattform zu ersetzen, kann dies bei einer fehlerhaften Konfiguration dazu führen, dass ein Cyberkrimineller das Verhalten der Plattform ändert, Daten stiehlt oder die Plattform sogar für die Verbreitung von Malware nutzt.

Die Anstrengungen, die Angreifer hierzu unternehmen müssen, halten sich dabei in Grenzen, denn IDOR-Attacken lassen sich einfach umsetzen. Denn es werden HTTP-Anfragen lediglich durch die Veränderung eines Parameters manipuliert. Auf diese Weise gelangt ein Cyberkrimineller an die entsprechenden Informationen. Voraussetzung dafür ist, dass bei der Erstellung von Webseiten oder Web-Apps zu wenig darauf geachtet wird, dass Zugriffe auf Informationen auch kontrolliert werden müssen. Bei böswilligen Hackern sind IDOR-Attacken sehr beliebt und diese können daher relativ oft bei tatsächlichen Angriffen festgestellt werden. Jedoch existieren verschiedene Ausprägungen dieser Angriffsform. Dazu zählen unter anderem:

  • Website- Modifikation: Hier sind Hacker in der Lage, den Wert einer Optionsschaltfläche, eines Kontrollkästchens, von APIs und Formularfeldern zu ändern, um so sich so Zugang zu Informationen von Website-Benutzern zu verschaffen.
  • URL-Manipulation: Dabei wird die URL des Clients durch Veränderung von Parametern der HTTP-Anfrage manipuliert.
  • HTTP-Anfragen: Diese können IDOR-Schwachstellen beinhalten.

Als Beispiel für eine bekanntgewordene IDOR-Schwachstelle kann hier auf die mitunter höchst umstrittene Social-Media- und Microblogging-Plattform Parler verwiesen werden. Diese hatte vor einigen Monaten mit einem umfassenden Datenleck zu kämpfen. Grund dafür war die sichtbare, aufsteigende Nummerierung der URLs von Beiträgen auf dem Dienst – ein meist eindeutiges Indiz für eine IDOR-Schwachstelle. Für Webseitenbesucher war es somit möglich, durch die Veränderung der Nummerierung in der URL jeden beliebigen Beitrag ohne Einschränkungen abzurufen.

Ein Hacker konnte daher – mit nur sehr geringem Aufwand – einen Code schreiben, mit dessen Hilfe jegliche Nachrichten, Bilder, Videos und sonstige Daten von Parler heruntergeladen wurden. Im Falle öffentlicher Beiträge konnten zudem sogar die Geodaten der Autoren abgegriffen werden, was die Wohnorte der Betreffenden offenbarte. Derlei Sicherheitslücken tragen nicht nur zur Rufschädigung einer für eine Webseite verantwortlichen Organisation bei, sondern können auch finanzielle Folgen nach sich ziehen. So zum Beispiel, wenn beim Diebstahl von Daten auch personenbezogene Daten erbeutet werden und in der Folge Strafen der Aufsichtsbehörden drohen.

Schwächen automatischer Tests

Doch wie lassen sich Sicherheitslücken vermeiden? Eine Frage, die sich viele Security-Verantwortliche stellen. In diesen Zusammenhang gibt es zwar eine ganze Reihe von Tools, die jedoch – wie im Falle von IDOR-Lücken – wenig oder nur begrenzt hilfreich sind. Selbst traditionelles Pentesting kann hier nur von Erfolg gekrönt sein, sofern der jeweilige Tester alle nur möglichen Parameter in sämtlichen Abfragepunkten prüft. Für die Sicherheitsverantwortlichen sind solche Angriffsversuche ferner eine Herausforderung und verlangen ihnen einiges ab. Denn ihre Verhinderung bedarf einem hohen Maß an Kreativität sowie zahllose Security-Tests. Nur so lassen sich derartige Schwachstellen identifizieren.

Hilfe kommt aus der White-Hat-Community

Technische Lösungen bieten kurz- und mittelfristig betrachtet keine Abhilfe, wenn es um die Behebung von Schwachstellen geht, da sie schlicht nicht den Einfallsreichtum und Kreativität von Menschen abbilden können. Die Verantwortlichen müssen somit neue Wege bestreiten, um sich dem Problem zu widmen. Nicht selten sind die IT-Teams der Unternehmen allerdings bereits vollends ausgelastet. Ihnen eine zusätzliche Aufgabe zuzumuten, die noch dazu ein hohes Maß an Sorgfalt erfordert, würde zwangsläufig zu einer Überforderung führen. Was also tun?

Abhilfe können hier unabhängige Profis bieten, die die Prüfung von Konfigurationen übernehmen – verständlicherweise vor dem Produktivbetrieb. Denn geschieht die Identifizierung von Schwachstellen erst im laufenden Betrieb, kann es bereits zu spät sein und ein Cyberkrimineller war schneller. Dies kann zur Folge haben, dass die Sicherheitslücke unter Umständen gewinnbringend versteigert wird.

Für Unternehmen ist es mitunter jedoch nicht einfach, mit entsprechenden Experten in Kontakt zu kommen. Auch wissen sie oft nicht, welche Budgets für externe Security-Leistungen einzuplanen sind.

Nur den wenigsten kommt in diesem Zusammenhang in den Sinn, dass für eine solche Aufgabe genau diejenigen am ehesten in Frage kommen, vor denen sich Unternehmen im Regelfall zu schützen versuchen: Hacker. Denn es gibt nicht nur Hacker, die in illegaler Absicht agieren. Neben Cyberkriminellen gibt es auch die sogenannten White-Hat-Hacker, also ethische Hacker, die zur Steigerung der Cybersicherheit beitragen können – und was noch wichtiger ist, dies auch wollen. Deren Kreativität und Fachkenntnis kann bei der Identifizierung von Schwachstellen in Unternehmen einen unschätzbaren Beitrag leisten.

Ethische Hacker tragen zur Sicherheit bei

Es ist vergleichsweise einfach, diese ethischen Hacker zu finden und mit ihnen in Kontakt zu treten. Voraussetzung dafür ist jedoch, dass man weiß, wo man suchen muss. An dieser Stelle kommen Bug-Bounty-Plattformen wie HackerOne ins Spiel. Diese dienen in der Praxis als Mittler zwischen Unternehmen und den White-Hat-Hackern. Außerdem gehört es zu ihren Aufgaben, dass alle Parteien von der gemeinsamen Arbeit profitieren.

Wenn sich eine Organisation dazu entschließt, auf die Hilfe von Hackern zu setzen, wird diesen gestattet – in Abhängigkeit der individuellen Vereinbarung und der Ziele – beispielsweise die Konfiguration von Anwendungen, Apps, Webseiten oder gar der gesamten Infrastruktur bezüglich etwaiger Schwachstellen zu untersuchen. Die Vergütung der Hacker orientiert sich an einem vorab vereinbarten Prämienmodell. Für ein Unternehmen entstehen folglich nur dann Kosten, sofern Hacker bei ihrer Suche auch auf Sicherheitslücken stoßen und diese entsprechend der festgelegten Verfahrensweise melden. Die Prämienhöhe richtet sich für gewöhnlich danach, wie schwerwiegend eine gefundene Schwachstelle ist – je gravierender die Lücke, desto höher die Prämienzahlung.

Ein weiterer Vorteil für die Organisationen ist die Skalierbarkeit des Ansatzes. Auf diese Weise lassen sich die Ausgaben und Kosten stets nachvollziehen und überblicken. Zudem müssen keine neuen Mitarbeiter eingestellt werden, da nun externe Fachleute das Aufspüren von Sicherheitslücken übernehmen.

Rechtlich auf der sicheren Seite

Grundsätzlich ist die Vorgehensweise von Hackern – also ein Einbruch in fremde Systeme – per se illegal. Daher muss für beide Seiten zunächst eine rechtliche Absicherung erfolgen und es muss vereinbart werden, was genau die Hacker dürfen und was nicht. Solche Vereinbarungen werden auf Basis sogenannter VDPs (Vulnerability Disclosure Program) getroffen. Diese VDPs bilden ein zentrales Element der Verträge zwischen Hackern und der jeweiligen Organisation. Dies spart den Unternehmen Zeit, da nicht mit jedem Hacker ein individueller Vertrag geschlossen werden muss – dies übernimmt die Bug-Bounty-Plattform.

Die Umgebung, in der die so rekrutierten White Hats versuchen, die Systeme der Organisation zu kompromittieren, muss so weit wie möglich den realen Gegebenheiten entsprechen. Die Hacker müssen also die gleichen Voraussetzungen für ihre Tests haben, wie sie auch kriminelle Hacker vorfinden würden. So lässt sich gewährleisten, dass eine entdeckte Sicherheitslücke auch bei einem realen Angriff das Eindringen von Unbefugten zur Folge hätte und eine Behebung der Schwachstelle notwendig ist. Zudem ermöglicht dies den Security-Verantwortlichen aufseiten der Organisation einen Einblick darin, welche Auswirkungen eine Attacke nach sich ziehen würde.

Sobald der Hacker eine Sicherheitslücke entdeckt, erstellt er eine umfassende Dokumentation, die das Unternehmen sodann zur Behebung der Schwachstelle nutzen kann. Durch diese Dokumentation profitiert eine Organisation nicht nur von den Informationen zur Schwachstelle selbst, sondern auch vom Know-how der Hacker, sodass ähnliche Lücken in Zukunft vermieden werden können.

Bei den Hackern, auf die die Unternehmen so zurückgreifen können, handelt es sich um ausgewiesene Experten auf ihrem Gebiet. Ebenso wie kriminelle Hacker sind sie in der Lage, Sicherheitslücken zu identifizieren und Systeme zu kompromittieren. Doch anders als ihr kriminelles Pendant tragen sie mit ihrem Tun zur Stärkung der IT-Sicherheit bei und leisten so einen wichtigen Beitrag zum Schutz von Unternehmen – auch von deren Kunden. Mittels dieses Ansatzes lassen sich zudem ein drohender Reputationsverlust sowie etwaige Strafzahlungen in Folge einer erfolgreichen Cyberattacke vermeiden.

Autor:

Laurie Mercer ist Security Engineer bei HackerOne. Er verfügt über einen starken technischen Hintergrund, da er sowohl als Entwickler als auch als Penetrationstester gearbeitet hat. Zuletzt arbeitete er als Solution Engineer für große SAST-Programme.

Weitere Informationen unter:
https://www.hackerone.com/

 

E-Commerce Studie 2021

Die E-Commerce Studie 2021 von Sendcloud: Neueste Erkenntnisse zum Verbraucherverhalten im E-Commerce

Der deutsche E-Commerce ist in den letzten Jahren stetig gewachsen: Letztes Jahr erreichte der Gesamtumsatz in Deutschland einen Rekordwert von über 72,8 Milliarden Euro, was gegenüber dem Vorjahr einem Wachstum von rund 23 Prozent entspricht. Ein wachsender E-Commerce bedeutet für stationäre Händler neue Herausforderungen. Wer nicht rechtzeitig auf eine Omni-Channel-Strategie umstellt, wird den Anschluss verlieren. Insbesondere die Corona-Krise, die zur vorübergehenden Schließung zahlreicher Geschäfte führte, hat dies deutlich gemacht!

Ergebnisse der E-Commerce Studie 2021

Was steckt hinter dieser Entwicklung im E-Commerce? Das haben sich auch die Versand-Experten von Sendcloud, der All-in-One Versandsoftware im Onlinehandel, gefragt. Sie haben daher die E-Commerce Studie 2021 ins Leben gerufen, mit dem Ziel, mehr darüber zu erfahren, wie europäische Verbraucher über den aktuellen Stand der E-Commerce Branche denken.

Die Ergebnisse der Studie basieren auf einer von dem Unternehmen in Zusammenarbeit mit Nielsen durchgeführten Online-Umfrage, innerhalb derer zwischen Februar und März 2021 europaweit in mehr als acht verschiedenen Ländern insgesamt 7.873 Verbraucher befragt wurden. In Deutschland nahmen 1.002 Verbraucher an der Umfrage teil.

In den anderen Ländern gestaltete sich das Teilnehmerspektrum wie folgt:

  • Vereinigtes Königreich: 1.003 Teilnehmer
  • Spanien: 1.000 Teilnehmer
  • Italien: 1.001 Teilnehmer
  • Niederlande: 1.002 Teilnehmer
  • Frankreich: 1.001 Teilnehmer
  • Österreich: 863 Teilnehmer
  • Belgien: 1.001 Teilnehmer

Teilnehmer an der Umfrage in Europa

Innerhalb der Umfrage wurden die Verbraucher zu jedem einzelnen Aspekt der Versandabwicklung befragt, vom Checkout bis zur Durchführung von Retouren. Darüber hinaus wurden Daten zum aktuellen Stand des internationalen Versands gesammelt. Daneben wurden ebenso länderspezifische Reportings erstellt, um die einzelnen Besonderheiten der jeweiligen Länder im internationalen Vergleich besser darstellen zu können.

Im Folgenden werden nun die wichtigsten Erkenntnisse der Sendcloud E-Commerce Studie 2021 vorgestellt. Um mehr Details zu den einzelnen Punkten der umfangreichen Studie zu erfahren, empfehle ich Ihnen, sich die komplette E-Commerce Studie 2021 kostenfrei herunterzuladen!

Der Checkout und seine Bedeutung für Kaufabbrüche

Betreiber eines Onlineshops erleben immer wieder das Phänomen, dass viele ihrer potenziellen Kunden ein Produkt in den Warenkorb legen, ihre Customer Journey aber anschließend nicht mehr fortsetzen und die Seite, ohne einen Kauf zu tätigen, wieder verlassen. Über die Höhe der Kaufabbrüche entscheidet insbesondere der Checkout.

Die E-Commerce Studie 2021 hat in Bezug auf den Checkout folgende Faktoren ermittelt, die einen Kaufabbruch des Kunden zur Folge haben können:

  • Der Onlineshop veranschlagt zu hohe Versandkosten (68 %)
  • Die angegebene Versanddauer ist zu lange (44 %)
  • Der Kunde hat mit dem Versandunternehmen, über das der Shop versendet, bereits schlechte Erfahrungen gemacht (20 %)

Insbesondere Versandkosten sind schon seit längerem ein schwieriges Thema. Viele Händler versuchen bereits, ihren Kunden kostenlosen Versand auf Basis eines Mindestbestellwerts im Onlineshop zu ermöglichen. Dadurch sollen Mehrverkäufe generiert werden, über die der Händler die Kosten für den Versand refinanziert.

Die E-Commerce Studie 2021 hat hierzu ergeben, dass diese Strategie in den meisten Fällen aufgeht: In Europa sind etwa mehr 69 Prozent der Verbraucher dazu bereit, mehr in einem Shop einzukaufen, um den Mindestbestellwert für kostenlosen Versand zu erreichen (69 %).

Internationaler Versand auf dem Rückzug?

Diverse Prognosen gehen davon aus, dass bis 2022 mehr als 22 % des E-Commerce auf internationaler Ebene abgewickelt werden wird.

Doch sind Verbraucher in Europa schon bereit dafür?

Auf die Frage der E-Commerce Studie 2021 hin, ob sie in den letzten 12 Monaten etwas in einem internationalen Onlineshop bestellt hätten, antworteten gerade einmal 45 % der Online-Shopper mit Ja. Während 2020 noch mehr als 53 % die Frage bejahten, so sind es in diesem Jahr deutlich weniger Verbraucher. Gründe hierfür sind womöglich externe Einflussfaktoren wie der Brexit oder das Auslaufen der Mehrwertsteuerbefreiung für Nicht-EU-Länder.

Doch was sind weitere versandbezogene Gründe, dass Verbraucher internationalen Onlineshops vermehrt den Rücken kehren? In Bezug auf die Versandabwicklung hat die E-Commerce Studie 2021 folgende entscheidende Gründe ermittelt:

  • 56 % der Befragten schrecken vor zu hohen Versandkosten zurück
  • 47 % befürchten, dass sie womöglich Zollgebühren bezahlen müssen
  • 43 % möchten sich nicht mit einem unter Umständen umständlichen Retourenprozess auseinandersetzen müssen

Verbraucherverhalten im Zeichen von COVID-19

Viele Händler und Verbraucher hat die Corona-Krise 2020 sehr überraschend getroffen. Schnell wurde klar, dass COVID-19 einen wahren Boom im E-Commerce ausgelöst hatte: Versanddienstleister verzeichneten etwa eine Zunahme des Bestellvolumens um durchschnittlich mehr als 90 %(!).

Wie hat die Corona-Situation, die unter anderem zu weltweiten Ladenschließungen geführt hatte, insgesamt die Erwartungen der europäischen Verbraucher umgekrempelt? Die Analyse unserer internen Kundendaten ergab dabei folgendes:

  • Während der Corona-Krise haben Verbraucher rund 2,3 Produkte mehr als üblich bestellt
  • Verbraucher waren im Durchschnitt während der Krise bereit, 1,2 Tage länger auf ihre Bestellung zu warten
  • 47 % haben den Großteil ihrer Bestellungen lieber über Onlineshops aus dem Inland als bei größeren Onlineshops wie Amazon getätigt

Durchschnittliche Verzögerungen beim Versand während der Corona-Krise

Fazit der E-Commerce Studie 2021

Die in Europa durchgeführte E-Commerce Studie 2021 hat es deutlich gemacht: Die Anforderungen der Verbraucher an den Onlinehandel unterscheiden sich kulturell stark je nach dem Land, das betrachtet wird und können sich im Rahmen einer Krisensituation wie Corona rapide ändern. Onlinehändler, die erfolgreich sein wollen, müssen stets adäquat auf die Bedürfnisse ihrer Kunden eingehen. Es liegt an ihnen, daraus einen Wettbewerbsvorteil für sich zu ziehen.

>>> Die vollständige Studie steht kostenlos für Sie zum Download bereit!

Weiterführende Informationen zum Unternehmen finden Sie unter:

https://www.sendcloud.de/

New Work, new problems

Arlett Chlupka, Gründerin von craftsoles, sorgt sich um die Gesundheit von Mitarbeitern in der Pandemie. Sie schlägt digitale Lösungen vor, die Arbeitnehmern niedrigschwellige Hilfsangebote machen, aber auch für die Arbeitgeber Vorteile generieren können.

Arlett Chlupka beschreibt, wie die digitale Transformation dabei hilft, Mitarbeiter gesundheitlich im Homeoffice zu unterstützen.

Wie Arbeitgeber ihre Teams in Zeiten von Remote Work in ihrem Wohlbefinden unterstützen können – und warum sie dies auch dingend tun sollten.

Seit Corona steigen die Zahlen der psychischen und körperlichen Beschwerden in der Bevölkerung. Die abrupten Umstellungen in vielen Lebensbereichen, nicht zuletzt in der Arbeitswelt, haben trotz neuer Flexibilität auch Herausforderungen und Stress heraufbeschworen. Dort, wo Arbeitnehmer auch bei Remote Work eine 40-Stunden-Plus-Woche leisten, braucht es flexible Gesundheitsangebote, um Prävention, Behandlung und Therapie auch weiterhin zu gewährleisten. Indem Arbeitgeber hier ansetzen, können sie die Mitarbeiterbindung steigern und eine zukunftsgerichtete Arbeitskultur beweisen. Der Schlüssel hierfür liegt in der Bereitstellung digitaler Gesundheitstools, die wertvolle Alternativen für klassische Versorgungswege bieten.

Die pandemischen Entwicklungen der vergangenen zwei Jahre haben den Arbeitsalltag für weite Teile der Bevölkerung deutlich verändert. Um die Ansteckungsgefahr zu minimieren, galt es größere Menschenansammlungen und belebte Orte, wie bspw. Großraumbüros, zu vermeiden. In der Folge veränderten sich nicht nur soziale Verhaltensweisen, sondern auch das Verständnis von Arbeit und die Bewegungsmuster von Arbeitnehmern. Und es zeichnet sich ab: Das Homeoffice hat sich zum neuen Standard gemausert, der gekommen ist, um zu bleiben. Digitale Gesundheitsmaßnahmen bieten hier eine Möglichkeit, um die neu entstandene Distanz zu überbrücken. Videokonferenzen und Remote Work haben zwar keine Auswirkungen auf Leistung und Qualität von Teams, doch körperliche Aktivitäten und Bewegung werden in unserem sowieso schon viel zu bewegungsarmen Alltag zusätzlich vermindert. Der Bewegungsradius von immer mehr Menschen beschränkt sich mehrheitlich auf die eigenen vier Wände. Das führt Studien zufolge zu Stress, Unzufriedenheit – und eben Bewegungsmangel. In der Folge steigen die Zahlen von Depressionen, Übergewicht und Gelenkbeschwerden.

Welche Verpflichtungen hat der Arbeitgeber?

Im Homeoffice und beim mobilen Arbeiten gilt der Arbeitsschutz ebenso wie im Büro. Für den Arbeitgeber bedeutet das, dass „eine Gefährdung für das Leben sowie die physische und die psychische Gesundheit möglichst vermieden“ werden muss (§ 4 Nr. 1 ArbSchG). In der Theorie müsste eine Prüfung des Arbeitsortes auf mögliche Gefahren durchgeführt und dementsprechend Maßnahmen ergriffen werden. Da dies aber nur schwer umzusetzen ist, verhält es sich in der Praxis meist so, dass Arbeitnehmer Ansprüche auf eine angemessene Ausstattung, sowohl mit Technik als auch Mobiliar, geltend machen können. Die nötigen Möbel und Arbeitsmittel müssen vom Arbeitgeber zur Verfügung gestellt werden, um den Arbeits-, Gesundheits- und Datenschutz garantieren zu können. Doch auch diese konkrete Option ist Arbeitnehmern nicht weitläufig bekannt. Und es braucht umfangreich angelegte und niedrigschwellige Lösungen, die dem abrupten Wandel unserer Arbeitswelt gerecht werden. Natürlich tragen Arbeitnehmer letztlich immer selbst die Verantwortung für ihre Gesundheit. Aber es ist gerade für Arbeitgeber wichtig, hier Anreize zu schaffen und Optionen zu bieten – nicht zuletzt auch, um krankheitsbedingte Ausfälle oder auch Abgänge zu vermeiden. Ebenso wie die Arbeitswelt müssen auch Gesundheitsangebote flexibler werden, um den neuen physischen und psychischen Herausforderungen gerecht zu werden und möglichst viele Arbeitnehmer zu unterstützen.

Flexible Alternativen für den Gesundheitsschutz

Auch in der Gesundheitsversorgung heißt das Zauberwort „Digitalisierung“. Das Gesundheitsministerium fördert bereits viele innovative Projekte im Bereich Digital Health. Zumeist sind es junge, kreative Startups, die wichtige Impulse geben, weil sie die klassischen Strukturen unvoreingenommen und mit kritischem Geist neu und digital denken. Dabei geht es aber letztlich nicht um den Ersatz der klassischen Versorgungswege, sondern um die Ergänzung der bestehenden Angebote, damit Arbeitnehmer eine größere Auswahl haben und flexibler planen und handeln können. Neuartige Technologien können Prävention, Diagnostik und Therapie optimieren und nicht nur während der Pandemie, sondern auch in Zeiten von Remote Work und 40-Stunden-Plus-Wochen (bei gleichzeitigem Fachkräftemangel) entscheidende Versorgungslücken schließen. Die Bereitstellung durch den Arbeitgeber und die gesetzlichen Krankenkassen ist ein wesentlicher Schritt, um genau dort anzusetzen.

Prävention: Neue Versorgungswege bieten

Mit einem Mangel an Bewegung und Aktivität gehen auch immer wieder Muskel- und Gelenkprobleme einher. Hier frühzeitig gegenzusteuern, vermeidet lange Leidenswege, die ansonsten zu Ausfällen und hohen medizinischen Kosten in der Zukunft führen können. Prävention ist das wichtigste Mittel, um einen Status guter Gesundheit aufrechtzuerhalten. Viel zu selten aber werden Hilfsmittel rechtzeitig eingesetzt, da das Bewusstsein und die Affinität für diese Produkte fehlen. Von den Menschen, die orthopädische Schuheinlagen benötigen, sind nur rund 30% auch tatsächlich versorgt. Mit unserem Startup meevo Healthcare wollen wir hier einen konkreten Beitrag leisten, indem wir hochwertige medizinische Hilfsmittel schnell und niedrigschwellig zugänglich machen und der Sanitätshauskultur im Allgemeinen eine neue Wahrnehmung im Alltag der Menschen geben. Anders als bei stationären Versorgern nehmen wir online rund um die Uhr und von überall Bestellungen entgegen und ermöglichen damit Abläufe ohne Präsenztermine. In den letzten zwei Jahren war Corona hier natürlich eine der größten Hürden bei der Versorgung vor Ort, aber auch in Zukunft wird es für verschiedenste Arbeitsmodelle von Vorteil sein, dass Berufstätige in der Hilfsmittelversorgung weder zeitlich noch örtlich gebunden sind. In diesem Jahr haben wir mit der BARMER Krankenversicherung eine erste Pilotphase gestartet, um deren Kunden auch in Pandemiezeiten bestmöglich zu versorgen. Damit konnten die neuartigen Hindernisse überwunden werden, um Versorgungslücken zu verhindern und damit langfristigen Schäden vorzubeugen.

Beratung: Effizient kommunizieren, schnell handeln

Seit Corona stehen immer mehr Menschen der Telemedizin aufgeschlossen gegenüber. Während aber viele darunter nur eine Videosprechstunde verstehen, liegt das wahre Potenzial in asynchronen oder hybriden Beratungslösungen: Unabhängig von Ort und Zeit können Menschen mit Beschwerden auf diese Weise ihre Probleme einem Facharzt schildern, ohne einen Termin mit langer Vorlaufzeit oder Wartezeiten vor Ort wahrnehmen zu müssen. Auch hier ist die digitale Lösung eine wertvolle Ergänzung zum klassischen Konzept der Sprechstunde und bietet Arbeitnehmern zusätzliche Flexibilität in der gesundheitlichen Versorgung. Und auch hier haben mehrere Krankenkassen bereits die Vorteile der Anwendungen für ihre Versicherten erkannt.

Gesundheitsmanagement: Betriebsintern vorsorgen

Erste Projekte arbeiten an digitalen Rundum-Lösungen konkret für das betriebliche Gesundheitsmanagement. Telemedizinische und Online-Angebote auch an Unternehmen heranzutragen, ist der nächste wichtige Schritt, um sie weiter im Alltag zu verankern. Fraglich wird aber wohl sein, inwieweit die dadurch entstehenden Daten für Arbeitgeber zugänglich sein werden und, ob diese Art der Versorgung in ihren Grundlagen Arbeitgebergebunden aufgebaut sein sollte. Idealerweise bestehen Versorgungsangebote unabhängig von einem speziellen Anstellungsverhältnis, sodass die Nutzung auch bei einem Jobwechsel oder dem Schritt in die Selbstständigkeit möglich bleibt, wenn auch zu anderen Konditionen.

Fakt ist jedoch, dass Arbeitgeber den Wandel in die digitalisierte Zukunft nicht nur in die Arbeits-, sondern auch in die Versorgungsabläufe integrieren sollten, um sowohl zukunfts- als auch wettbewerbsfähig zu bleiben und wertvolle Arbeitskräfte und Kapazitäten zu erhalten. Ein ergonomisch geformter Schreibtischstuhl allein wird diesem Anspruch auf Dauer nicht gerecht.

Wenn Kunden nach sicherer Software fragen


von Lucas von Stockhausen, Director Solutions bei Synopsys

Getrieben von Compliance-Anforderungen verlangen Kunden heute immer häufiger Garantien von Softwareentwicklern, die die Cybersicherheit ihrer Produkte betreffen, oder aber sie fordern detaillierte Einblicke ins Entwicklungsverfahren. Zugleich soll die Softwareproduktion agiler und flexibler ablaufen. Die Studie BSIMM12 liefert wertvolle Anhaltspunkte, wie der Zielkonflikt zwischen Geschwindigkeit und Sorgfalt gelöst werden kann – und zum Teil schon gelöst wird.

Kunden sind tendenziell fordernd: Von Softwareentwicklern erwarten sie agiles Vorgehen und neue Funktionen mit immer geringerer Vorlaufzeit. Gründe sind das allgemein rasante Innovationstempo und der hohe Wettbewerbsdruck. Firmen sind immer stärker davon abhängig, bestimmte Online-Funktionalitäten zumindest genauso schnell anbieten zu können wie die Konkurrenz. Diesen Druck geben sie weiter.

Zugleich aber stellen dieselben Kunden zunehmend detailliertere Sicherheitsanforderungen auf und verankern sie in Verträgen, Ausschreibungen und laufenden Überprüfungen. Wer Software anbietet, soll im Zweifelsfall genau belegen können, welchen Prinzipien einer sicheren Entwicklungsmethodik er folgt, welche Tests er zu welchen Zeitpunkten durchführt und welches Sicherheitsniveau seine Produkte einhalten. Praktisch läuft das Drama dann meist in zwei Akten ab: Der Kunde verlangt Einsicht in die Entwicklungsverfahren einerseits und prüft das Endprodukt andererseits – allerdings eher auf abstrakte oder absolute Sicherheitsanforderungen hin.

Softwareentwicklung „muss draußen bleiben“

Der letztgenannte Punkt verdient besondere Aufmerksamkeit. Hinter dem Wunsch, Softwareprodukte in einem perfekt sicheren Zustand übernehmen zu wollen, also ohne Sicherheitslücken jedweder Art, steckt bei vielen Kunden der verzweifelte Versuch, die Komplexität zu reduzieren. Software, die produktiv genutzt wird oder in Produkten zum Einsatz kommt, soll möglichst Black-Box-artig und sorgenfrei integriert werden können und auf keinen Fall eigene Probleme aufwerfen.

Damit stellt sich allerdings die drängende Frage, ob die Entwicklungsteams zu diesem Zeitpunkt genug darüber wissen, wie die Komponenten zukünftig genutzt werden – ein grundsätzliches Problem aus dem Themenkreis „sichere Softwareentwicklung“. Gemäß einem Defense-in-Depth-Ansatz und unabhängig vom jeweiligen Unternehmen ist es sinnvoll, Sicherheitsprobleme und Schwachstellen einer Software zu beheben, egal wie unwahrscheinlich ein konkreter Exploit nach heutigem Kenntnisstand erscheinen mag. Nicht selten aber wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.

DevSecOps löst mehr und mehr den zentralisierten Ansatz für Anwendungssicherheit ab. Und das aus gutem Grund. Im aktuellen Modell ist Sicherheit untrennbar mit der Softwareentwicklung verbunden. Sicherheit ist in jede Phase eingebettet, vom Design über die Implementierung bis hin zur Wartung automatisiert und so weit wie möglich in den Softwareentwicklungsprozess integriert.

Inzwischen übernehmen immer mehr App-Entwickler die volle Verantwortung für ihre eigenen Sicherheitsbelange – mit geeigneter Unterstützung durch das Sicherheitsteam. Für Anwendungsentwickler ein Grund mehr, verstärkt auf DevSecOps-Prozesse zu setzen. Damit schöpfen sie die Vorteile der Automatisierung aus, maximieren die Geschwindigkeit und etablieren im besten Fall eine Kultur der kontinuierlichen Verbesserung.


Die Softwareentwicklung sollte ihrerseits transparent und risikobasiert vorgehen. Also Sicherheitsmaßnahmen und Tests in den Entstehungsprozess der Produkte integrieren, die gegenüber den Kunden gut darstellbar sind – und die vor allem deren Sicherheitsmanagement-Konzepten aus einschlägigen Normen wie der ISO 270xx ähnelt.


Angemessen versus absolut

Die Ressourcen von Security-Teams sind begrenzt und können niemals so ausgebaut werden, dass ein perfektes Sicherheitsniveau für jeden Teil der eigenen Infrastruktur zu erreichen wäre.
Deshalb nutzen viele Unternehmen das Primat einer angemessenen statt einer absoluten Sicherheit. In manchen Normen ist das Prinzip des „gut genug“ sogar explizit verankert. Wer sich beispielsweise auf ein Audit gemäß der Kreditkarten-Sicherheitsnorm PCI-DSS vorbereitet wird darauf drängen, den sensiblen Kundendatenbereich in ein möglichst abgeschottetes Segment zu verlegen, einfach damit die Anforderungen der Norm nur dort umgesetzt und geprüft werden müssen.

Die präventive und reaktive Security hat in den vergangenen Jahren außerdem Verfahren entwickelt, welche die Kontext- und Risiko-bezogenen Priorisierungen von Maßnahmen erlauben. Dazu gehören geeignete Werkzeuge und eine gut ausgebaute Kommunikation zwischen den Betreibern der produktiven Systeme (z.B. den „Application Ownern“) und den Sicherheitsspezialisten. Zwischen diesen Gruppen tauscht man sich über abstrakte Mindestanforderungen und jene Risiken aus, die außergewöhnlichen Schutzbedarf aufweisen.

Maßnahmenbündel

Die Softwareentwicklung sollte in dieses risikobasierte Vorgehen integriert werden und nicht außerhalb des priorisierten Vorgehens operieren. Damit das möglich ist, müssen zwei Voraussetzungen erfüllt sein:

Die Kunden sollten Entwicklern Informationen über den Sicherheitskontext bereitstellen, in dem das Produkt arbeitet. Dazu gehören bestehende Risiken, potenzielle Bedrohungen, sowie das Sicherheitsniveau der Infrastruktur.

Die Softwareentwicklung sollte ihrerseits transparent und risikobasiert vorgehen. Also Sicherheitsmaßnahmen und Tests in den Entstehungsprozess der Produkte integrieren, die gegenüber den Kunden gut darstellbar sind – und die vor allem deren Sicherheitsmanagement-Konzepten aus einschlägigen Normen wie der ISO 270xx ähnelt.

Es gibt Organisationen und Branchen, in denen die entsprechende Verzahnung schon existiert – häufiger ist dies beispielsweise bei Finanzdienstleistern der Fall. Wie passgenaue Qualität und Sicherheit bei gleichzeitig maximaler Agilität auch in der Breite erreicht werden kann, zeigt die Studie BSIMM12 der Synopsys Software Integrity Group. Sie weist nach, dass Softwareentwickler in verschiedenen IT-Bereichen und Branchen zunehmend Prozesse anstoßen, welche die Produktionsmethodik(en) risikobasiert ausrichten und auf eine engere Kommunikation mit den internen und externen Kunden setzen. BSIMM steht dabei für Building Security in Maturity Model. Die Studie befragt Jahr für Jahr Organisationen im Bereich Softwareentwicklung, auf welche Security-Maßnahmen sie besonderen Wert legen und welche sie vor allem vorantreiben.

Die wichtigsten Punkte aus dem Maßnahmenkatalog der befragten Organisationen umfassen:

Lifecycle Instrumentation setzt ein risikobasiertes Vorgehen durch, wo immer dies möglich ist, und richtet die Produktion darauf aus, Fehler in der Software früher zu finden. Es gibt mehre, aber dafür kürzere Testphasen, die sich in den Produktionsprozess integrieren lassen und die Entwickler somit nicht immer wieder zurückwerfen. Das Verfahren ist nach außen gut als gelebte Governance darstellbar. Die kleinen, obligatorischen Tests ähneln den Pflicht-Sicherheitsbetrachtungen, zu denen sich Projekt-Teams in der IT während der Umsetzung von Projekten immer wieder zusammenfinden müssen.

  • Externe Tester einbinden: Für Statuserhebungen im Bereich Sicherheit externe Experten heranzuziehen, gilt in der ganzen Branche als sinnvoll und ist an einigen Stellen auch aus Compliance-Gründen notwendig. Übernehmen Entwickler diese Praxis, nähern sie sich den anderen Security-Arbeitsfeldern an.

  • Interaktion mit Incident Response: Softwareentwickler stimmen sich enger mit den Security-Spezialisten in der Organisation ab, die tatsächliche Angriffe und Bedrohungen identifizieren. So wandelt sich Sicherheit vom abstrakten Thema zur realen, nachvollziehbaren Anforderung

  • Datenschutzimplikationen frühzeitig erkennen: Entwicklerteams gehen dazu über, Risiken aus dem Einsatz ihrer Produkte im Bereich personenbezogener Daten gleich zu Beginn zu identifizieren und ihre Arbeit darauf auszurichten. Da Datenskandale für Unternehmen zu den größten Schreckgespenstern gehören, sollten sie dieses Vorgehen verstehen und honorieren – während die Entwickler es vermeiden, in diesem heiklen Bereich später aufwändig nachbessern zu müssen.

  • Sicherheits-Features einem Review unterziehen: Ebenfalls gleich zu Beginn prüfen Entwicklungsorganisationen vermehrt, ob die vereinbarte Sicherheitsfunktionalität der Produkte angemessen ist – etwa, ob verschlüsselt werden muss oder wie stark die Authentifizierungsmechanismen sein müssen. Dieser Check auf Angemessenheit ist ebenfalls gut vermittelbar und kommt den Kunden entgegen, bei denen das Endprodukt ja in die entsprechende IT-Umgebung möglichst passgenau integriert werden soll.

Weitere Maßnahmen lassen sich in der Studie selbst nachvollziehen. Betrachtet man die dort aufgeführten zehn wichtigsten, ist es allerdings unabdingbar, dass sich sowohl die Entwickler als auch die Kunden auf einen Perspektivenwechsel einlassen müssen. Kern ist dabei auf Entwicklerseite, Sicherheitsanforderungen nicht als einschränkende Hürden aufzufassen, sondern als Teil der Qualität und Funktion der neuen Produkte zu verstehen.

Das gilt aber auch auf Kundenseite. Denn für die wird „Resilience“ – also die Widerstandsfähigkeit gegen Angriffe oder Bedrohungen – immer wichtiger. Die aktuellen Maßnahmen der befragten Organisationen laufen deshalb darauf hinaus, eine Sicherheitskultur in der Softwareentwicklung zu verankern, die das Thema Security zum integralen Bestandteil des Arbeitsalltags macht.

https://www.synopsys.com/

Lesen Sie

einen weiteren Beitrag

von dem Experten Lucas von Stockhausen,

Director Solutions bei Synopsys:

Softwareentwicklung lernt Sicherheitskultur

So optimiert die Finanzbranche das Kundenerlebnis

Um sich von der Konkurrenz abzuheben, müssen Banken und Versicherungen auf neue Mitbewerber und auf veränderte Erwartungen ihrer Kunden reagieren. Entscheidend für den Erfolg ist ein optimiertes Kundenerlebnis: vier Faktoren sind dabei ausschlaggebend.

Von Carsten Dalquen, Account Director Digital bei Macaw

Carsten Dalquen, der Autor dieses Beitrags, ist als Account Director Digital beim internationalen Digital-Dienstleister Macaw beschäftigt (Quelle: Macaw).

Der Finanzsektor steht unter hohem Wettbewerbsdruck: Fintechs fordern traditionelle Banken und Versicherungen heraus und das Kundenverhalten hat sich grundlegend geändert. Die Kundschaft ist heute informierter und wechselwilliger denn je. Deckt sich das Angebot nicht mit ihren Erwartungen, wandern sie schnell zur Konkurrenz ab – schließlich ist diese nur ein paar Mausklicks entfernt.

Mobile Apps und Online-Portale reichen längst nicht mehr aus. Bei praktisch jeder Bank können Kunden mobil auf ihr Girokonto zugreifen und bei nahezu jeder Versicherung Policen auf einem Online-Portal abschließen. Wollen sich Unternehmen der Finanzbranche erfolgreich vom Wettbewerb abheben, müssen sie ihren Kunden echte Mehrwerte bieten. Ein optimiertes Kundenerlebnis ist hierfür von entscheidender Bedeutung. Dafür sind folgende Faktoren ausschlaggebend:

Kontinuierlich optimieren. Produkte und Dienstleistungen unterliegen einem kürzeren Innovationszyklus: Was heute auf den Markt kommt, kann morgen schon wieder veraltet sein. Deshalb sollten Finanzunternehmen ihre Angebote kontinuierlich analysieren und an die Wünsche und Bedürfnisse der Kunden anpassen. Welche Anforderungen haben sie und wie möchten sie ihre finanziellen Angelegenheiten am liebsten regeln? Bei der Beantwortung dieser Fragen sollten Finanzinstitute neue Wege gehen und zum Beispiel innovative Technologien wie Blockchain nutzen.

Auf Zusammenarbeit setzen. Die IT vieler Finanzinstitute ist veraltet. Noch immer existieren zum Beispiel viele Silos: Abteilungen mit eigenen Datensystemen, die kaum miteinander kommunizieren. Das hat zur Folge, dass Anwender Informationen oft mehrmals bereitstellen müssen und nicht alle Unternehmensbereiche auf dem aktuellen Stand der Customer Journey sind. Diese Silos müssen die Unternehmen beseitigen, um Kunden optimal bedienen zu können. Auch die Möglichkeit, mit externen Partnern aus anderen Branchen kooperieren zu können, etwa aus dem Gesundheits- oder Klimabereich, ist für eine nachhaltige Kundenbindung wichtig: So können Produkte entstehen, die die ganzheitlichen Interessen der Kunden berücksichtigen und somit einen echten Mehrwert für diese bieten.

Für Flexibilität und Skalierbarkeit sorgen. Neue Produkten und Dienstleistungen schnell einführen zu können, ist maßgeblich für den Geschäftserfolg. Cloud-Lösungen sind aufgrund ihrer Flexibilität und Skalierbarkeit dabei erste Wahl. Deshalb sollten Finanzinstitute den Einsatz von On-Premises-Lösungen überdenken und ihre Systeme zumindest teilweise in die Cloud migrieren. Damit können sie schnell auf steigenden Datenverkehr reagieren und in Echtzeit auf Kundendaten zugreifen. Im Vergleich dazu sind lokale Server nicht nur teuer und aufwendig in der Wartung – sie bringen auch Einschränkungen hinsichtlich Flexibilität und Skalierbarkeit mit.

Eine 360-Grad-Sicht auf die Kunden schaffen. Um ein optimales Anwendererlebnis zu bieten, müssen Finanzinstitute die Wünsche der Kunden vollständig erfassen. Grundlage hierfür sind Daten, die infolge der Interaktion mit ihnen entstehen. Damit können die Unternehmen Dienstleistungen und Produkte besser an die Erwartungen der Anwender anpassen. Das ist ein kontinuierlicher Prozess, bei dem Tools wie No-/Low-Code-Plattformen helfen, die großen Datenmengen für alle relevanten Stakeholder in der Organisation leichter zugänglich und nutzbar zu machen – und sie gezielt für die Schaffung echter Kundenmehrwerte einzusetzen.

Weitere Informationen unter:
https://www.macaw.net/de/

Interkulturelle Kompetenz

von Kai Grunwitz

Warum Unternehmen die Wichtigkeit von interkultureller Kompetenz erkennen müssen

In Deutschland reicht man sich – wenigstens bis zu Beginn der Corona-Pandemie – zur Begrüßung die Hand, in den meisten asiatischen Ländern nicht. Hierzulande ist Pünktlichkeit eine Tugend, anderswo ist das akademische Viertel Gang und Gebe.

Ganz nach dem Motto „Andere Länder – andere Sitten“ sind die Verhaltensweisen in der Arbeitswelt von Nation zu Nation verschieden. Wer sich dieser Unterschiede nicht bewusst ist, ist schnell frustriert und riskiert zudem, sich in den Augen des anderen unangebracht zu verhalten. Eine gute Zusammenarbeit ist dann nicht mehr möglich. In der Folge scheitern Geschäftsreisen und Entsendungen von Mitarbeitern an ausländische Standorte, internationale Teams werden handlungsunfähig.

Kai Grunwitz,
Geschäftsführer der NTT Ltd. in Deutschland

Dahinter verbirgt sich ein grundlegendes Problem: Der kulturelle Hintergrund des jeweils anderen wird nicht berücksichtigt. Im Gegenteil, das Verhalten, die Arbeitsweise, die Art zu verhandeln werden aus der eigenen Perspektive heraus betrachtet und beurteilt. Ein Denken in den Kategorien „besser“ oder „schlechter“ ist die Folge. Umso wichtiger ist interkulturelle Kompetenz. Unter diesem Fachbegriff wird die Fähigkeit verstanden, mit Menschen aus verschiedenen Kulturen zu interagieren, Unterschiede zu respektieren, Rücksicht zu nehmen und respektvoll miteinander umzugehen.

Im beruflichen Umfeld bedeutet interkulturelle Kompetenz, sich in die verschiedenen Arbeits- und Denkweisen hineinzuversetzen und sie anzuerkennen. Dazu gehört auch die Reflexion über das eigene Referenz-, Werte- und Verständnissystem und das des Gegenübers: Welche Gemeinsamkeiten gibt es, auf welche Unterschiede muss ich achten? Was kann ich von der anderen Kultur lernen?

Als Deutschland-Chef eines japanischen Mutterkonzerns wird mir die Wichtigkeit interkultureller Kompetenz regelmäßig vor Augen geführt – bei meiner täglichen Arbeit mit immer diverseren Teams und bei meinen regelmäßigen Besuchen in Japan. Natürlich sind sich Japan und Deutschland in vielen Punkten zunächst einmal sehr ähnlich: Beide Länder zählen zu den größten Volkswirtschaften der Welt, sind wichtige Exportnationen, haben für mich die gleiche Innovationskraft in puncto Engineering und das gleiche Qualitätsbewusstsein.

Auf der anderen Seite gibt es eklatante Unterschiede bei den Kulturen. So irritiert der typisch deutsche Wunsch, bei einem Geschäftstermin schnell zu einem konkreten Ergebnis kommen zu wollen und dabei auch einmal Kritik zu äußern, die Kolleginnen und Kollegen in Japan. Es wird ganz besonders großer Wert auf Höflichkeit und Zurückhaltung gelegt: Ein „Nein“ ist unbekannt, Direktheit wird als Respektlosigkeit ausgelegt, dementsprechend spielt auch der mögliche Gesichtsverlust eine deutlich größere Rolle als in Deutschland.

Teamgeist wird in Japan ebenfalls großgeschrieben, zudem werden möglichst viele Stakeholder in Entscheidungen eingebunden, längere Entscheidungszyklen bei Projekten sind deshalb Standard. Trotzdem sind die Hierarchien sehr viel starrer als in Deutschland und bestimmen alle unausgesprochenen Regeln der japanischen Arbeitskultur, einschließlich des Sitzplatzes beim Meeting, des Verhaltens bei Firmenfeiern und welche Höflichkeitsform angemessen ist.

Ist das jetzt schlechter? Nein! Keine Kultur ist gegenüber einer anderen besser, sondern einfach nur anders.

Wir können uns gegenseitig bereichern und voneinander lernen – wenn wir uns darauf einlassen.

Diese Fähigkeit, mit kultureller Vielfalt positiv umzugehen, ist eine Schlüsselkompetenz nicht nur für international agierende Führungskräfte, sondern auch für jeden Einzelnen, um am gesellschaftlichen Leben teilzunehmen und einen Beitrag zur sozialen Integration zu leisten. Nur mit der nötigen interkulturellen Kompetenz kann eine wertstiftende und respektvolle Zusammenarbeit gelingen. Denn: Wo unterschiedliche Hintergründe aufeinandertreffen, sind auch Fettnäpfchen nicht weit.

Daten und Data Analytics im Mittelstand: Aufbruch in eine digitale Welt

Alle Welt spricht vom datengetriebenen Unternehmen. Aber wie datenorientiert arbeitet der Mittelstand? Tobias Ganowski schildert in seinem Gastbeitrag, wie die Unternehmen die noch immer verborgenen Potenziale nutzen können.

Die Transformation von Unternehmen hin zu einer digitalen und datengetriebenen Organisation ist in so gut wie allen Sektoren im vollen Gange. Denn in einer digitalisierten Welt werden Daten nahezu überall generiert – sei es an Kunden-Touchpoints, durch Maschinen und Geräte oder an E-Commerce-Systemen. Daten tragen immer mehr dazu bei, innovative digitale Geschäftsmodelle und Services aufzubauen, Effizienzsteigerungen und Kosteneinsparungen – etwa durch Process Mining – zu ermöglichen und Prozesse durch eine stärkere Automatisierung zu vereinfachen. Doch wie „datengetrieben“ ist der deutsche Mittelstand bereits und welche Themen stehen in den kommenden Jahren im Fokus?

Gemeinsam mit dem Self-Service-BI-Anbieter Tableau ist Lünendonk & Hossenfelder diesen Fragen nachgegangen. Die zentralen Erkenntnisse finden sich im Whitepaper „Digital now: Wie datengetriebene Entscheidungsprozesse im Mittelstand Wettbewerbsvorteile schaffen“ wieder.

Use Case Customer Analytics: Datenplattformen werden noch nicht regelmäßig eingesetzt

Tobias Ganowski hat zusammen mit Tableau untersucht, wie datenorientiert der Mittelstand eigentlich arbeitet.

Um Daten bereichsübergreifend zu sammeln und analysieren zu können, bedarf es einer entsprechenden Infrastruktur und Architektur, welche Datensilos auflöst und zusammenführt (Interoperabilität). Einer der wichtigsten Use Cases zur Datennutzung stellt die Analyse von Kundendaten und Kundenprozessen dar (Customer Analytics). 47 Prozent der mittelständischen Unternehmen sehen sich jedoch bei der Nutzung einer zentralen Datenplattform, auf welcher Daten aller Kunden-Touchpoints gesammelt werden, noch am Anfang. Diesen Unternehmen gelingt es damit noch nicht, Daten zunutze zu machen, indem Kundinnen und Kunden anhand von Daten respektive Customer Insights verstehen werden. Die strukturierte Sammlung und Analyse von Daten ermöglicht es den Unternehmen nicht nur, Transparenz über den Kaufprozess und die Kundenaktivitäten entlang der gesamten Customer Journey zu schaffen, sondern auch, ein tiefes Verständnis über das Kundenverhalten zu erlangen und den Kunden und Kundinnen so individuelle Angebote unterbreiten zu können.

Investitionen in Datenlösungen sollen steigen

Als positive Nachricht lässt sich aber vermelden, dass 60 Prozent der Mittelständler für 2021 und 2022 einen großen bis sehr großen Fokus auf den Aufbau von Technologieplattformen, welche weitere Daten-Use-Cases ermöglicht, legen. Die Notwendigkeit, aber auch die Mehrwerte der Analyse von Daten, wird somit zunehmend erkannt. Gestützt wird diese Aussage durch die Erkenntnis, dass 39 Prozent der Unternehmen aktuell einen Investitionsfokus auf Maßnahmen legen, welche dazu beitragen, zu einer Data-Driven-Company zu werden. Auf die Frage, in welche konkreten Technologien CIOs in den kommenden zwei Jahren investieren wollen, antworten 60 Prozent, dass auf Data Analytics ein starker Fokus gelegt wird. Neben der IT-Modernisierung, der Cloud-Transformation und Cyber Security zählt Data Analytics damit zu den am höchsten priorisierten IT-Themen.


Frage: In welche Themen investiert Ihr Unternehmen in den kommenden zwei Jahren?; Werte beziehen sich auf die Antworten „eher stark“ und „sehr stark“; Häufigkeitsverteilung; n = 76; Quelle: Lünendonk®-Studie 2021 „Der Markt für IT-Beratung und IT-Service in Deutschland“

Nicht nur IT-Verantwortliche, sondern auch Fachbereiche haben einen hohen Bedarf und ein hohes Interesse an Datenlösungen. So zählen unter Marketing- und Vertriebsverantwortlichen Data-Management- und Data-Analytics-Plattformen zu den Investitionsschwerpunkten: 47 Prozent der Befragten wollen 2021 und 2022 eher bis sehr stark in diese Lösungen investieren, um Kundendaten im Marketing auf einer homogenen Datenbasis besser nutzen zu können für digitale Geschäftsmodelle und Prozessautomatisierungen. Auf strategischer Ebene steht die Entwicklung hin zu einem datengetriebenen Unternehmen daher für 49 Prozent der CMOs und CSOs im Fokus.

Auch Entwicklungs- und F&E-Verantwortliche wollen die im Zuge der Vernetzung von Maschinen, Geräten und ganzer Produktionsstätten – Stichwort Industrie 4.0 – gewonnen Daten nun stärker zunutze machen. So planen 41 Prozent der Industrieunternehmen aus dem gehobenen Mittelstand mit einem Umsatz von bis zu einer Milliarde Euro etwa Steigerungen für das extern vergebene Budget an Dienstleister und Beratungen zur Entwicklung datenbasierter Geschäftsmodelle. An Use Cases und Business-Benefits mangelt es somit nicht.

Herausforderungen auf dem Weg zur Data-Driven-Company

Ein Drittel (33%) der mittelständischen Unternehmen beklagt jedoch einen Mangel an einem grundlegenden Verständnis für Technologien, Daten und deren Einsatzmöglichkeiten. Daten-Experten sind jedoch stark nachgefragt und rar am Arbeitsmarkt. So hat sich etwa das Berufsbild des Data Scientists in den vergangenen Jahren etabliert und zählt zu den gefragtesten Berufen in der IT. Um diesen Mangel zu kompensieren, nehmen externe Dienstleister, aber auch Software-Lösungen, welche intuitive Analysen versprechen, IT-Abteilungen entlasten und keine tiefen Datenanalyse-Skills verlangen, eine wichtige Rolle ein. In einer Lünendonk-Studie aus dem Jahr 2020 berichteten 27 Prozent der Unternehmen, dass sie die Einführung von Self-Service BI (Business Intelligence) planen, wodurch Fachbereiche idealerweise unabhängig von der IT-Abteilung Analysen vornehmen können . Der Wandel zu einem datengetriebenen Unternehmen wird folglich durch Self-Service BI beeinflusst.

Neben dem Fachkräftemangel gibt es weitere Herausforderungen, die Unternehmen sich stellen müssen – vor allem technologischer Natur. So ist für ein Drittel der mittelständischen Unternehmen die eigene, zu geringe Datenqualität eine große Hürde auf dem Weg zum datengetriebenen Unternehmen. Ein wesentlicher Grund für diese schlechte Datenqualität ist oftmals, dass Daten in dezentralen Silos – etwa Data Warehouses – einzelner Abteilungen liegen und keine ausgereifte Data Governance vorliegt, wie der Umgang mit Daten zu handhaben ist. Ebenso ist für jedes vierte Unternehmen die komplexe und weit verzweigte IT-Landschaft, welche einen systemübergreifenden Datenaustauschs (Interoperabilität) erschwert, ein starker bis sehr starker Behinderungsfaktor.

Wie geht es weiter?

Die digitale Transformation ist in vollem Gange – und Daten sind dessen Treibstoff. Sowohl IT- als auch Fachbereichsverantwortliche investieren in Daten-Lösungen und digitale Technologien. Neben der technologischen Perspektive müssen jedoch auch die Organisation selbst, die Kultur, Prozesse und Steuerungsmetriken angepasst werden. Eine ganzheitliche Betrachtung der Digitalisierung ist somit erforderlich, um den Weg zur datengetriebenen Organisation erfolgreich zu meistern.

Quelle: Lünendonk-Whitepaper „Digital Now: Wie datengetriebene Entscheidungsprozesse im Mittelstand Wettbewerbsvorteile schaffen“

Über den Autor:

Tobias Ganowski ist Junior Consultant beim Marktforschungs- und Beratungsunternehmen Lünendonk & Hossenfelder. Er untersucht die Märkte IT-Beratung, IT-Services, Customer Experience Services, BI-Software und Engineering Services. Thematisch beschäftigt er sich unter anderem mit den Themen Cloud Sourcing, Künstliche Intelligenz, Data Analytics, Agilität und digitale Transformation.

Wie werden Städte zur Smart City?

Von Alexander Wojtek*

Bereits heute leben in Deutschland gut 77 Prozent der Einwohner in Städten, und nach Prognosen der UN werden es bis 2050 sogar mehr als 84 Prozent sein. Damit stehen die Städte vor enormen Herausforderungen, denn vielerorts ist schon jetzt der Wohnraum knapp und das Verkehrssystem überlastet. Allerdings genügt es nicht, lediglich mehr Wohnraum bereitzustellen sowie die Mobilitätsangebote auszubauen. Die Städte müssen ihre gesamte Infrastruktur – darunter auch Strom- und Wärmeversorgung, Wasserversorgung und Abfallentsorgung – auf eine steigende Bevölkerungszahl vorbereiten und gleichzeitig effizienter und nachhaltiger gestalten. Schließlich zählen sie zu den größten Energieverbrauchern und CO2-Produzenten weltweit und spielen dementsprechend eine wichtige Rolle im Kampf gegen die Klimakrise.

Digitale Technologien leisten bei dieser großen Aufgabe einen entscheidenden Beitrag und machen urbane Gebiete zu umweltfreundlicheren und lebenswerteren Orten. Mit ihnen entwickeln sich Städte zur Smart City weiter, in der Infrastrukturen weitreichend vernetzt sind und intelligente Anwendungen auf Basis von Daten viele Abläufe automatisiert steuern. Den Anfang machen meist kleine Dinge, die den Alltag der Menschen erleichtern und verbessern: Ampelschaltungen, die sich dem Verkehrsaufkommen anpassen und für Fahrzeuge des öffentlichen Nahverkehrs schneller auf Grün schalten oder die Grünphase verlängern. Parkhäuser, die freie Parkplätze erkennen und an Navigationssysteme melden. Strom- und Wasserzähler, die sich per Funk auslesen lassen, sodass niemand die Wohnung betreten muss. Straßenbeleuchtung, die sich passend zu den Lichtverhältnissen ein- und ausschaltet und nicht mehr zu festen Uhrzeiten.

Vieles davon ist in Städten längst Realität und wird häufig durch eine Vielzahl an Sensoren ergänzt, die Auslastungs- und andere Statusdaten von Bussen und U-Bahnen, Wasserpumpen und Leitungssystemen, Stromverteilern und vielem mehr liefern. Mit den Informationen können Verkehrsbetriebe den Fahrzeugeinsatz optimal steuern und Stadtwerke die Strom- und Wasserversorgung besser auf den Bedarf der Bevölkerung abstimmen. Ebenso ermöglichen die Informationen eine vorausschauende Wartung. Verkehrsbetriebe und Stadtwerke sind in der Lage, ihre Fahrzeuge, Anlagen und Geräte besser instand zu halten und Fehlfunktionen oder drohende Ausfälle oftmals schon zu erkennen, bevor sie auftreten.

Alexander Wojtek: „Die vielen Einzelprojekte rund um die Smart City gilt es, in den kommenden Monaten und Jahren zu verknüpfen und in übergreifenden Initiativen auszubauen.“

Die vielen Einzelprojekte rund um die Smart City gilt es, in den kommenden Monaten und Jahren zu verknüpfen und in übergreifenden Initiativen auszubauen. Nur so können ganzheitliche urbane Systeme entstehen, die beispielsweise die Daten von Individualverkehr, ÖPNV sowie Car- und Bike-Sharing-Angeboten mit Wetterinformationen und Messwerten zur Luftqualität vereinen. Diese Systeme könnten dann die Preise öffentlicher und umweltfreundlicher Verkehrsangebote sowie die Parkgebühren dynamisch anpassen, um Staus zu verhindern und die Feinstaubbelastung zu reduzieren. Diese intelligenten Systeme dürfen ihren Blick allerdings nicht nur auf die Stadt selbst richten, sondern müssen über den Stadtrand hinausschauen, da weder Verkehrsinfrastrukturen noch Verkehrsflüsse an den Stadtgrenzen stoppen.

Die Technologien für solche smarten Lösungen existieren bereits: Sie reichen von hybriden IT-Infrastrukturen über offene Plattformen bis zu KI-Anwendungen. Eine Schlüsselrolle kommt dabei der Cloud und Open Source zu. Die Cloud ist oft kostengünstiger als ein eigenes städtisches Rechenzentrum und bietet zudem die flexibleren Skalierungsmöglichkeiten. Zwar stehen manche Verantwortliche ihr weiterhin skeptisch gegenüber, doch sowohl Hyperscaler als auch lokale Service-Provider und IT-Dienstleister betreiben ihre Rechenzentren hochverfügbar und hochsicher. Zudem gibt es Mittel und Wege, Daten in der Cloud zu schützen oder hybride Konzepte umzusetzen, bei denen kritische Daten die eigene IT-Infrastruktur nicht verlassen.

Darüber hinaus stehen in der Cloud mächtige Software-Anwendungen, Plattformen und Entwicklungswerkzeuge bereit, die den Aufbau digitaler Services erleichtern. Gerade Open Source bietet Städten hier einen riesigen Werkzeugkasten für individuelle Lösungen – und das sicher, mit hervorragendem Support und vielen Freiheitsgraden. So hilft Open Source ihnen, Daten- und Anwendungssilos aufzulösen, Interoperabilität mit anderen Systemen herzustellen und Abhängigkeiten von einzelnen Anbietern zu vermeiden.

Die Herausforderungen rund um die Smart City müssen Städte allerdings nicht allein angehen. Lokale IT-Dienstleister, die Industrie, Gesundheitswesen und andere Branchen schon seit Jahren bei ihrer Digitalisierung unterstützen, stehen als Helfer bereit. Sie bringen wertvolle Erfahrung und Best Practices mit, wie man bestehende Daten geschickt einsetzt und neue Datenquellen anzapft, um Abläufe zu verschlanken sowie neue Services und Geschäftsmodelle zu entwickeln.

Ein Erfolg kann die Smart City aber letztlich nur werden, wenn die Menschen im Zentrum der Projekte stehen. Ihre Alltagsprobleme soll die digitale Stadt lösen, ihre Lebensqualität verbessern – gebraucht werden deshalb Beteiligungsmechanismen wie Umfragen, Workshops oder Stadtlabore, die Impulse für die Planer liefern und dafür sorgen, dass die neuen Dienste den Bedürfnissen der Menschen entsprechen und von diesen angenommen werden.

* Alexander Wojtek ist Business Development Manager IIoT bei akquinet

Weitere Informationen unter:
https://akquinet.com/de.html

Bildquelle / Lizenz Aufmacher: Foto von Peng LIU von Pexels

UNIT4s Experience4U

Es ist soweit: Nach einem turbulenten Jahr kommt die Unit4-Community am 16. und 17. November wieder zusammen für das globale Kunden-Event Experience4U!

Seien Sie im November dabei, wenn X4U wieder stattfindet – UNIT4´s zweitägiges globales virtuelles Event! Holen Sie sich wertvolle Infos, um das volle Potenzial Ihrer Mitarbeiter auszuschöpfen und sich optimal für die Zukunft aufzustellen.

X4U-Agenda

16. November:

People Experience Suite

Am ersten Tag gewinnen Sie einen tiefen Einblick in die People Experience Suite und was sie für Sie und Ihre Mitarbeiter tun kann, um Ihnen dabei zu helfen, echte Ziele zu erreichen.
Erfahren Sie was „People Experience“ für Sie bedeuten kann.

17. November:

Regional Spotlight DACH

Das Unternehmen lädt als besonderes Highlight dieses Jahr zum Regional Spotlight DACH ein – einem speziellen Programmpunkt für die deutschsprachigen Teilnehmer aus Deutschland, Österreich und der Schweiz.

Folgende Inhalte erwarten Sie am 17. November um 13 Uhr:

  • Aktuelle Produkt-News und Infos zu den neuesten Innovationen
  • Spannende Analysten-Einblicke zu den neuesten Branchentrends und Marktbedingungen
  • Exklusiver Blick hinter die Kulissen im Unit4-Servicebereich

Doch das ist noch lange nicht alles: Neben dem Regional Spotlight DACH bietet X4U noch eine ganze Fülle weiterer informativer Sessions, inspirierender Referenten und wertvoller Tipps, die Ihnen Ihre tägliche Arbeit erleichtern und Ihr Unternehmen fit für die Zukunft machen.

Sichern Sie sich jetzt Ihren Platz und stellen Sie sich Ihr individuelles Programm zusammen, das Sie ganz bequem von Ihrem Bildschirm aus verfolgen können!


Jetzt registrieren

Fakten zur Veranstaltung

Was: Experience4U

Wann: 16. und 17. November 2021

Wo: online

Jetzt registrieren

https://www.unit4.com/experience4u

Weitere Informationen finden Sie unter https://www.unit4.com/de. Folgen Sie uns auch auf Twitter @Unit4global
oder auf LinkedIn

Softwareentwicklung lernt Sicherheitskultur

von Lucas von Stockhausen, Director Solutions bei Synopsys

„Sicherheitskultur“ ist ein schillernder Begriff. Pragmatisch gesehen bedeutet er ein gemeinsames Handeln und Kommunizieren in einer Organisation, bei der alle Angehörigen die Anforderungen der Sicherheit fortwährend und ungezwungen mitdenken und dies als integralen Teil ihrer Arbeit betrachten. Für das Thema Cyber-Sicherheit sind viele Unternehmen diesem Idealzustand bereits recht nahe – der Studie BSIMM12 zufolge gelingt dies nun auch zunehmend den Softwareentwicklern. Aber wo liegt dort eigentlich genau das Problem?

Hinter den Bemühungen um eine Sicherheitskultur in ganzen Unternehmen oder Abteilungen steckt eine lange evolutionäre Entwicklung. Sie beginnt ein paar Jahre nach der Jahrtausendwende mit einer ersten Abkehr von der Vorstellung, die normalen Anwender müssten von Administratoren und Sicherheitsverantwortlichen permanent zu richtigem Verhalten gedrängt werden, und zwar am besten mit möglichst exakten Regeln und Sanktionen. Die Vorgaben allerdings waren oft nur für Fachleute verständlich. Wenig später, als Folge immer mächtigerer Hard- und Software-Werkzeuge in den Händen der „Nur“-Anwender und der gleichzeitig um sich greifenden Vernetzung, entstand zusätzlich die Vorstellung, dass „Insider“ gleichzeitig eine ebenso große Bedrohung für die Unternehmens-IT bedeuten wie schwer fassbare Hacker im Internet.

Sicherheitspartner statt „Nur“-Anwender

Beide Einschätzungen sind noch immer nicht ganz verschwunden. Aber nach und nach hat sich ein partnerschaftliches Verhältnis zwischen IT-Security-Abteilungen und Anwendern durchgesetzt, bei denen die Mitarbeiter für Security-Belange sensibilisiert werden und man sie befähigt, sich für die jeweils sicherste Vorgehensweise bei der Arbeit mit der IT zu entscheiden. Die Sicherheitsteams wiederum verstehen sich seltener als Oberlehrer in Sachen Security und stehen als Ratgeber bei schwierigeren Entscheidungen bereit.

Vergleichsweise schlecht hat der Paradigmenwechsel kurioserweise in einem Bereich funktioniert, in dem eigentlich alle Beteiligten IT-Spezialisten sind: Im Sektor der Software-Entwicklung. Woran das liegt, erschließt sich bei einem genauen Blick auf die Vorbedingungen von Sicherheitskultur einerseits und von typischen Software-Entwicklungsprojekten andererseits.

Sicherheitskultur bedeutet, wie schon erwähnt, dass die Angehörigen einer Organisation nicht nur Befehlsempfänger in Sachen sicheres Verhalten sind, sondern vertrauensvoll in Security-relevante Entscheidungen eingebunden werden. Dies kann zum Beispiel bedeuten:

  • Beteiligung an Risiko-Einschätzungen,
  • Beteiligung an der Klassifizierung von Informationen und
  • Mitarbeit an geeigneten Methoden zur Umsetzung von Sicherheitsvorgaben.

Sicherheit als Störfaktor

Vor allem der letzte Punkt verdient dabei Beachtung. Kommt Sicherheit nur als Vorgabe daher oder in Form von rigiden Vorschriften des Typs „one size fits all“, führt dies fast immer dazu, dass einige Anwendergruppen durch die Maßnahmen stärker in ihrer Arbeit behindert werden als andere. Aufwändige Anmeldeprozeduren mögen im Büro unproblematisch sein, in der Produktionshalle dagegen halten sie den Betrieb auf oder führen sogar zu gefährlichen Verzögerungen beim schnellen Zugriff auf eine Maschine. Ständige „Reviews“ eines Arbeitsprozesses stören eine Routinetätigkeit weniger als einen kreativen Entwicklungsprozess. Ob eine Sicherheitskultur entstehen kann, hängt also stark davon ab, ob Maßnahmen oder Prozesse zum Teil des Arbeitsalltags werden können oder nicht.

Darüber hinaus müssen die Security-Teams und Anwender Einverständnis darüber erzielen, dass hinter Sicherheitsmaßnahmen und -regeln keine abstrakten, willkürlichen Vorgaben stecken, sondern notwendige Schutzvorkehrungen für die Produktion, die Kommunikation, die im Unternehmen vorhandenen Daten und für die Produkte, wie sie die Kunden tatsächlich verlangen.

Zielkonflikte

Die problematische Situation im Bereich Softwareentwicklung resultiert aus mehreren Besonderheiten. Softwareentwicklung gerät heute häufig zu einer Art „kreativer Produktion im Akkord“. Sie findet in spezialisierten Unternehmen oder Abteilungen statt, welche innerhalb eines Unternehmens häufig abgekoppelt agieren. Die internen oder externen Kunden der Entwickler drängen angesichts der zunehmend dynamischen Entwicklung der Anforderungen seitens der Endanwender auf Agilität und Flexibilität. Das macht sorgfältiges Vorgehen und tiefgehende Tests unter Umständen schwierig. Belohnt wird hier, wer schnell neue Funktionen bereitstellen kann. Zugleich aber steigen die Anforderungen an die Sicherheit von Code, und zwar wieder aufgrund von Vorgaben oder Erwartungen der Endkunden. Im Business-to-Business-Sektor wird es Usus, von Softwarelieferanten Sicherheitsgarantien zu fordern oder Einblicke in die sicherheitsbezogenen Prozesse der Produktion zu verlangen. Aus dieser Perspektive werden Sorgfalt und Tests belohnt. Dass aber auch ein entsprechender Zeitrahmen für derartiges Vorgehen eingeräumt wird, kommt aufgrund des Agilitätsdrucks kaum vor.

„…nicht selten wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.“

Lucas von Stockhausen

Nun mag man einwenden, dass in der skizzierten Schere zwischen dem Agilitätsprimat und Sorgfaltspflicht heute fast alle IT-Services stecken. Was für die Software-Entwicklung aber noch hinzukommt, ist die ungünstige Form der Erfolgskontrolle. Sie besteht fast immer in einer Endabnahme zum geforderten Lieferdatum. Zu diesem Zeitpunkt müssen die geforderten Funktionen bereitstehen, und der Kunde prüft auf abstrakte Sicherheitsvorgaben hin – die er leider meist nicht risiko- und situationsbezogen aufstellt, sondern in Form einer absoluten Forderung: Die Software muss fehlerfrei sein. Im Extremfall könnte es sein, dass ein Produkt einfach deshalb nicht abgenommen wird, weil es Open-Source-Komponenten enthält, die bekanntermaßen eine Sicherheitslücke aufweisen.

Prinzipien der sicheren Softwareentwicklung

Auf den ersten Blick scheint dieses Prinzip der Sicherheit durchaus dienlich zu sein, auf den zweiten Blick allerdings führt es zu unnötigem Druck aus dem oben beschriebenen Zielkonflikt heraus. Programmierer greifen zu Open-Source-Komponenten, wenn es für Teilanforderungen ihres Projekts bereits erprobte Lösungen gibt. Sie tun dies, um Zeit zu sparen, das Lieferdatum einhalten zu können und Energie auf spezifische, neue Lösungen verwenden zu können. Damit stellt sich allerdings die drängende Frage, ob die Entwicklungsteams zu diesem Zeitpunkt genug darüber wissen, wie die Komponenten zukünftig genutzt werden – ein grundsätzliches Problem aus dem Themenkreis „sichere Softwareentwicklung“.

Gemäß einem Defense-in-Depth-Ansatz und unabhängig vom jeweiligen Unternehmen ist es sinnvoll, Sicherheitsprobleme und Schwachstellen einer Software zu beheben, egal wie unwahrscheinlich ein konkreter Exploit nach heutigem Kenntnisstand erscheinen mag. Und nicht selten wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.

Die letzten beiden Jahre haben uns bereits eine Reihe von Angriffen auf unwahrscheinlich anmutende Ziele beschert, und auch in Zukunft werden Angreifer von Vorteilen durch Software-Exploits profitieren. DevSecOps löst nicht ohne Grund mehr und mehr den zentralisierten Ansatz für Anwendungssicherheit ab. Über die Zeit mündete dieser in einen trägen und frustrierenden Prozess, der zuverlässig dafür gesorgt hat, dass Entwickler die Sicherheitsabteilungen als Verhinderer betrachten. Das Endergebnis sind Anwendungen, die kaum sicherer sind und die zudem verzögert auf den Markt kommen.

Im aktuellen Modell ist Sicherheit untrennbar mit der Softwareentwicklung verbunden und in jede Phase eingebettet, vom Design über die Implementierung bis hin zur Wartung, automatisiert und so weit wie möglich in den Softwareentwicklungsprozess integriert.

Damit gelingt es die Vorteile der Automatisierung auszunutzen, die Geschwindigkeit zu maximieren und im besten Fall eine Kultur der kontinuierlichen Verbesserung zu etablieren.
In anderen Bereichen Bereichen kommen laut den Ergebnissen von BSIMM12 Mechanismen der risikogesteuerten Sicherheit ins Spiel. Schwachstellen werden dort nur angegangen, wenn sie relevant sind. Genau deshalb hat die Security in den vergangenen Jahren Verfahren entwickelt, die eine Kontext- und Risiko-bezogene Priorisierung von Maßnahmen erlauben. Dies setzte allerdings neben dem Aufbau von Tool-Sets auch die Zusammenarbeit zwischen den Betreibern der produktiven Systeme in den Organisationen (z.B. den „Application Ownern“) und den Sicherheitsspezialisten voraus, bei denen man sich über abstrakte Mindestanforderungen und jene Risiken austauscht, die zusätzlichen Schutzbedarf indizieren.

Bedarfsgerechtes Sicherheitsniveau

Das bräuchte die Software-Entwicklung auch, um passgenaue Qualität und Sicherheit bei gleichzeitig maximaler Agilität zu erreichen. Die Studie „BSIMM12“ der Synopsys Software Integrity Group zeigt, dass Software-Entwickler in verschiedenen IT-Bereichen und Branchen zunehmend Prozesse anstoßen, die die Produktionsmethodik in die entsprechende Richtung bewegen. „BSIMM“steht dabei für „Building Security in Maturity Model“. Die Studie befragt Jahr für Jahr Organisationen im Bereich Software-Entwicklung danach, auf welche Security-bezogenen Qualitätsmaßnahmen sie besonderen Wert legen und welche wie besonders vorantreiben. Und hier zeigt sich in der aktuellen Ausgabe ein ganzes Bündel an Aktivitäten, die auf eine positive Sicherheitskultur hinauslaufen können. Ein paar der wichtigsten Punkte:

Risikobasierte Sicherheit: Laut den Resultaten von BSIMM12 werden Sicherheitsfunktionalitäten an den Risiken ausgerichtet, denen die fertige Software in ihrem Einsatzkontext ausgesetzt ist. Dazu wird es immer wichtiger, sich während der Entwicklung schon über das Sicherheitsniveau der Hosts und des Netzwerks abzustimmen, in der die Software arbeiten soll. „Kooperation“ ist hier der zentrale Aspekt.

Interaktion mit Incident Response: Software-Entwickler stimmen sich enger mit den Security-Spezialisten in der Organisation ab, die tatsächliche Angriffe und Bedrohungen erkennen. So wandelt sich Sicherheit vom abstrakten Thema zur realen, nachvollziehbaren Anforderung.

Häufigeres, kleinteiliges und integriertes Testen: Statt groß angelegter passiver und aktiver Security-Tests (deren Ergebnisse Entwicklungsprojekte auch immer wieder zurückwerfen können) werden einzelne Module möglichst automatisiert getestet und auch bei kleineren Fortschritten fokussierte Prüfungen durchgeführt. Damit verliert die Sicherheitsbewertung ihren Charakter als „Angstgegner“ dem man tunlichst aus dem Weg gehen sollte.

Insgesamt findet ein Perspektivenwechsel statt, der „Resilience“ – also die Widerstandsfähigkeit von Software gegen Angriffe oder Bedrohungen – zum integralen Qualitätsmerkmal macht. Es genießt als Ziel während der Entwicklungsarbeit den gleichen Stellenwert wie die funktionalen Aspekte und kann mit ähnlichen Mitteln erreicht werden.

https://www.synopsys.com/

Aufmacherbild / Quelle /Lizenz
Photo by Markus Spiske on Unsplash

Der größte Hebel der Klimatransformation: Die Lieferkette

Warum die Lieferkette besondere Beachtung bei den eigenen Klimaschutzvorgaben haben sollte, erläutert Lara Obst, Mitgründerin und Geschäftsführerin von THE CLIMATE CHOICE in einem ausführlichen Gastbeitrag

Obwohl die Dringlichkeit einer ganzheitlichen Klimatransformation mittlerweile deutlich zu spüren ist, befinden wir uns heute noch immer in den Startlöchern der Klimatransformation. Der Wille ist da: Fast jedes zweite Unternehmen in Deutschland will perspektivisch klimaneutral werden (Quelle: Bitkom). Doch gesetzte Ziele und die Realität passen bislang noch kaum zusammen. So melden bisher nur 7 Prozent der Unternehmen, die den Fortschritt umfassender Klimaziele messen, auch tatsächliche Emissionsreduktionen (Quelle: World Economic Forum).

Lieferkette mit größtem Anteil an Treibhausgasen

Woran liegt das und welcher Hebel könnte den dringend nötigen Umschwung bringen? Die Antwort liegt ganz eindeutig in der Lieferkette. Hier entstehen bis zu 90 Prozent der Treibhausgasemissionen eines Unternehmens (Quelle: World Economic Forum). Eine erfolgreiche Umsetzung der eigenen Klimaziele ist daher für die meisten Unternehmen nur möglich, wenn sie ihre Lieferkette genau verstehen und Lieferanten aktiv in ihre Klimatransformation einbeziehen.

Das wissen auch die meisten Unternehmen. Trotzdem bleibt die Lieferkette und ihr Klimaeinfluss auf die eigene Klimaleistung häufig eine “Black Box”. Das kann die Zusammenarbeit zwischen Klimaabteilung und Einkauf ändern! Beim Procurement Barometer 2021 gaben bereits 69 Prozent aller Befragten an, dass sie die Nachhaltigkeitsleistung bei der Auswahl sowie bei Vertragsverlängerungen ihrer Lieferanten mit berücksichtigen. 2019 gaben dies nur 51 Prozent an. Der Trend zum klimarelevanten Einkauf steigt also. Aber trotz der Steigerung bedeutet das Studienergebnis auch, dass nach wie vor 31 Prozent der befragten Unternehmen die enorme Klimarelevanz der eigenen Lieferkette unterschätzen bzw. keine entsprechenden Maßnahmen für ihre Dekarbonisierung bereitstellen können.

Herausforderungen der Lieferkettendekarbonisierung

Lara Obst beschreibt, wie Unternehmen ihre Lieferkette in den Carbon Footprint miteinbeziehen können.

Durch steigende Marktanforderungen, Kundennachfrage und internationale Regulation stehen Unternehmen heute vor der Herausforderung, ihre Lieferkette zu transformieren. Allerdings verfügen sie hierfür häufig nicht über die nötigen Ressourcen und entsprechenden Tools. So wundert es kaum, dass die Einschätzung der Klimaleistung einzelner Lieferanten oft noch manuell und kompliziert via Excel-Tabellen erfolgt. Hinzu kommt, dass die Daten meist unzureichend bleiben und kaum mit den sich immer weiter entwickelnden Klimastandards abgestimmt sind. Klimabeauftragte und Einkäufer:innen stehen somit gleichermaßen vor der Problematik, klimarelevante Daten erheben zu müssen, ohne die sich keine umfassende Dekarbonisierung der Lieferkette einleiten lässt.

Analyse und Kommunikation im Zentrum des Lieferantenmanagements

Um diese Hürden zu überwinden, gilt es zunächst, im Einkauf mit der Klimaabteilung zusammenzuarbeiten und die ganzheitliche Klimaanalyse der eigenen Lieferkette als erste Priorität zu setzen. Spezialisierte und softwaregestützte Analyse-Tools können hierbei sowohl helfen, die Datenerfassung von einzelnen Lieferanten schneller und effizienter zu gestalten, als auch sämtliche für die Klimatransformation relevanten Daten gemäß international anerkannter Standards in einem gemeinsam zugänglichen Klima Scoring abzudecken. Auf Basis dieser gründlichen Status-Quo-Analyse entsteht ein genauer Überblick über die ganzheitliche Klimaleistung entlang der Wertschöpfung sowie die Möglichkeit, Klimaziele handlungsorientiert umzusetzen.

Zur Erreichung der gesetzten Ziele kommt ein zweiter zentraler Faktor ins Spiel: Kommunikation. Denn die Dekarbonisierung der Lieferkette lässt sich nur in der Zusammenarbeit mit den eigenen Lieferanten umsetzen. Ohne eine transparente Kooperation sowie die geteilte Bereitschaft, die eigene Klimaperformance zu verbessern, ist kein Fortschritt möglich. Anstatt also Vorgaben nach unten zu diktieren, sollten Unternehmen einen offenen Austausch auf Augenhöhe suchen. Ebenso wichtig für den Erfolg der Umsetzung ist es, Lieferanten im Prozess zu unterstützen, kleine Schritte schnell zu realisieren und langfristige Ziele als gemeinsame Verbesserung der Klimawirkung anzustreben.

Von Transparenz zu Climate Actions

Um den Erfolg der laufenden Dekarbonisierungsmaßnahmen sicherzustellen, müssen Zwischenergebnisse regelmäßig gemessen und sichtbar gemacht werden. So lassen sich Prozesse gegebenenfalls anpassen sowie Handlungsfelder weiterentwickeln und optimieren. Transparenz bildet hierfür die grundlegende Voraussetzung – sowohl auf Seiten der Lieferanten als auch auf der Seite einkaufender Unternehmen. Die Offenlegung der eigenen klimarelevanten Daten wird dabei ohnehin in der vorgeschriebenen Kommunikation durch Klima-Reportings immer wichtiger, unterstützt aber auch maßgeblich den Vertrauensaufbau zu sämtlichen Stakeholder:innen. Politische Vorschriften wie die Corporate Sustainability Reporting Directive (CSRD) oder die EU-Taxonomie verpflichten Unternehmen bereits dazu, ihre ganzheitliche Klimaperformance in jährlichen Berichten sichtbar zu machen. Dazu zählt nicht nur die eigene CO₂-Bilanz, sondern besonders die Themen Governance, Strategie und Metriken. Die Offenlegung dieser kann über ein entsprechendes Klima Scoring erfolgen, welches Aufschluss über den Reifegrad der eigenen Klimastrategie, des Klimarisikomanagements sowie der eingesetzten Dekarbonisierungsmaßnahmen gibt.

Transparenz, Kommunikation und eine umfassende Datengrundlage ermöglichen letztlich eine zukunftsorientierte Zusammenarbeit – sowohl im eigenen Unternehmen zwischen Klimaabteilung und Einkauf als auch entlang der Lieferkette. Diese bildet die Grundvoraussetzung für echte Klimatransformation, die Unternehmen dabei unterstützt, ihre Klimaziele in die Tat umzusetzen und Dekarbonisierungsmaßnahmen entlang der Lieferkette zu realisieren.

Über die Autorin

Lara Obst ist Mitgründerin und Geschäftsführerin von THE CLIMATE CHOICE. In ihrer Masterthesis entwickelte sie ein Modell zur Sustainability-Performance-Messung auf Geschäftsebene, welche den europäischen Philipp-De-Wood-Preis von Deloitte erhielt. Seitdem war sie u. a. Co-Founder von MOWEA (modulare Windenergieanlagen), Venture Developer von Weeve.network (Blockchain IoT Platform) und Corporate Accelerator Manager DACH

Augen auf für Bedrohungen jenseits von Ransomware

Warum man bei der Abwehr von Ransomware nicht nur auf Ransomware-Attacken schauen sollte, erläutert Pieter Arntz, Malware-Analyst bei Malwarebytes

Ransomware-Attacken sorgen immer wieder für Schlagzeilen und dominieren in den letzten Jahren die Diskussionen rund um Cybersicherheit. Dabei geraten eine Reihe anderer Bedrohungen der IT-Sicherheit und Cybersecurity-Trends in den Hintergrund, die mehr Aufmerksamkeit verdienen. Einige der im Folgenden zu besprechenden Punkte können im Zusammenhang mit Ransomware relevant werden, sind aber grundsätzlich unabhängig von Erpressungssoftware.

Bekannte Sicherheitslücken

Sicherheitsexperten können häufig nur den Kopf schütteln, wenn sie die Ursachen von Datendiebstählen untersuchen oder die IT-Sicherheit eines Unternehmens in Form eines Penetrationstests auf die Probe stellen: nicht selten finden sie Sicherheitslücken, die seit Monaten oder gar Jahren bekannt, aber noch immer nicht behoben sind. Das gilt keineswegs nur für Software-Produkte, die unzureichend gepatcht sind. Noch verblüffender ist, dass bekannte Schwachstellen in Netzwerkapparaten, IT-Unsicherheit ab Werk sozusagen, oft nicht behoben werden.

Ein prominentes Beispiel ist eine bekannte Schwachstelle in der Pulse Connect Secure (PCS) SSL-VPN-Appliance, einem Netzwerkgerät, das ironischerweise durch Verschlüsselung von Datenströmen für mehr Sicherheit sorgen soll. Cyberkriminellen war es gelungen Schadsoftware auf Pulse Secure-Geräten zu installieren, um Anmeldedaten zu stehlen und Zugang zu kompromittierten Netzwerken zu erhalten. Bevor die Sicherheitslücke vom Hersteller gestopft wurde, war es Hackern sogar gelungen, die internen Netzwerke von US-Verteidigungsunternehmen und Regierungsbehörden zu kompromittieren. Inzwischen aber ist Abhilfe längst verfügbar und dennoch finden sich in vielen Organisationen noch immer die Appliances mit offengelegter Sicherheitslücke.

Pieter Arntz sensibilisiert für IT-Gefahren abseits von Ransomware, die leider derzeit ein wenig aus dem Fokus geraten, aber alle für Ransomware-Angriffe genutzt werden können.

IT-Abteilungen sollten sich auch keineswegs dem Irrglauben hingeben, dass die großen, bekanntesten Hersteller ihnen höhere Sicherheit bieten. Auch die Router des Marktführers Cisco fallen beispielsweise immer wieder durch Sicherheitslücken auf, die es umgehend zu beheben gilt.

Hintertüren

Neben den bekannten Schwachstellen in Netzwerkgeräten sollte die IT-Abteilung auch den nicht bekannten bzw. nicht offiziell zugestandenen Sicherheitslücken ihre Aufmerksamkeit widmen. Viele Hersteller bauen in ihre Geräte „Back Doors“ ein, über die sie auf Abstand und gegebenenfalls ohne Wissen der Anwender auf ihre Geräte und die angeschlossenen Netzwerke zugreifen können. Oft werden Hersteller auch von den Regierungen im Land der Unternehmenszentrale zum Einbau solcher Hintertüren verpflichtet, die es den Geheimdiensten des jeweiligen Landes erlauben, durch die Hintertüren in Netzwerke von Unternehmen und Behörden einzudringen. Insbesondere chinesischen, aber auch US-amerikanischen Herstellern wird immer wieder der Einbau solcher Hintertüren vorgeworfen, die im übrigen auch Cyberkriminellen als Einfallstor dienen können. Letztlich sollte die IT-Abteilung also bereits bei der Herstellerwahl den Sicherheitsaspekt einbeziehen und sich garantieren lassen, dass die fraglichen Produkte keine Hintertüren enthalten. Viele deutsche Behörden machen eine solche Garantie inzwischen zum Bestandteil ihrer Ausschreibungen.

Falsche Freunde

Eine beliebte Methode von Cyberkriminellen, um sich Zugang zum Netzwerk ihres Opfers zu verschaffen, besteht in der Benutzung von Sicherheits-Tools für ihre Zwecke. Das perfide an dieser Methode ist, dass es sich um bekannte, weithin genutzte Tools handelt, deren Aktivitäten darum häufig von den Sicherheitsmechanismen eines Unternehmens nicht entdeckt werden. Besonders populär bei Hackern ist ein Tool namens „Cobalt Strike“. Der Eintrag in Wikipedia bringt dessen legale und illegale Funktionsweisen gut auf den Punkt: „Cobalt Strike ist eine Software mit flexiblen Funktionen, um Wirtschaftsspionage auf dem eigenen Netzwerk zu simulieren, Abwehrmaßnahmen zu testen und die eigene Computersicherheit zu erhöhen. Es wird aber auch häufig von echten Angreifern wie APT-Gruppen oder Ransomware-Gangs verwendet. Zum Funktionsumfang gehören die Angriffs-Aufklärung, das Eindringen, das Errichten eines stabilen Zugangs mit einer soliden Operationsbasis im Netz des Opfers sowie der anschließende Diebstahl von Daten.“ Gegen die illegale Nutzung von Sicherheits-Tools kann sich ein Unternehmen am besten durch den Einsatz oft frei verfügbarer Lösungen schützen, die bei Experten unter Akronymen wie „SIEM“, „YARA“ oder „SNORT“ bekannt sind.

RDP-Angriffe

RDP-Angriffe haben in der Pandemie aufgrund des Homeoffice-Booms stark zugenommen. RDP steht für „Remote Desktop Protocol“. Es handelt sich um ein von Microsoft entwickeltes Kommunikationsprotokoll, mit dem ein Benutzer eine Verbindung zu einem entfernten Windows-Computer oder -Server herstellen kann. Die Verbindung wird standardmäßig über Port 3389 aufgebaut und über ein Passwort gesichert. Für Cyberkriminelle ist der Zugriffsort also einfach zu identifizieren; nur das Passwort steht zwischen ihnen und dem Netzwerkzugang. Durch die enorme Verbreitung des RDP ist es für Hacker zusätzlich attraktiv. Oft sind ihre RDP-Angriffe mit einfacher, roher Rechenkraft (Brute-Force-Methode) erfolgreich. Sie bombardieren die Schnittstelle mit Millionen von Passwörtern pro Minute und verschaffen sich so Zugriff. Dass die meisten Anwender bei der Wahl ihrer Passwörter wenig Fantasie walten lassen, erschwert ihnen die Sache nicht eben. Hauptproblem des RDP-Protokolls ist allerdings, dass sich der Zugang überhaupt durch bloße Rechenkraft erzwingen lässt und nicht nach einigen missglückten Versuchen gesperrt wird, wie wir es z.B. vom Online-Banking oder unserem Webmail-Konto kennen. Bei Aktivierung des Protokolls erlaubt die Grundeinstellung beliebig viele Versuche der Passworteingabe. Die IT-Abteilung muss diese Möglichkeit explizit deaktivieren. Das ist sehr simpel, wird aber häufig übersehen oder vergessen. Ein kleiner Fehler, der schwerwiegende Folgen haben kann.

Der menschliche Faktor

Bereits im vorangehenden Absatz wurde auf mangelnde Fantasie von Mitarbeitern bei der Wahl ihrer Passwörter erwähnt. Allgemein sind die Menschen einer Organisation der entscheidende Faktor für ihre IT-Sicherheit oder -Unsicherheit. Die besten technischen Maßnahmen können nichts gegen Cyberkrimelle ausrichten, wenn Angestellte ihre Passwörter nicht sorgfältig wählen oder gar unbedarft an Dritte weitergeben. Eine gute Schulung der Mitarbeiter ist darum zentraler Bestandteil jeder guten IT-Sicherheitsstrategie.

Als Teil der Schulung müssen die Mitarbeiter verstehen, wie wichtig sichere Passwörter sind und wie sie auszusehen haben. Ein entscheidender Grund, warum viele Mitarbeiter sich keine Mühe bei der Erstellung ihrer Passwörter geben und darüber hinaus vielfach dasselbe Passwort für verschiedene Anwendungen und Konten nutzen, ist die vermeintliche Notwendigkeit Passwörter häufig zu wechseln. Diese Anforderung kann die Verwendung sicherer Passwörter zugegebenermaßen zur mnemotechnischen Herausforderung machen. Glücklicherweise ist ein Wechsel der Passwörter nach neueren Erkenntnissen gar nicht erforderlich. Wichtig ist lediglich, dass ein Passwort möglichst lang und komplex ist und sich nicht in gängigen Lexika finden lässt, die für Brute Force-Angriffe herangezogen werden.

Das zweite wesentliche Thema der Mitarbeiterschulung ist Phishing. Als „Phishing“ bezeichnet man Versuche Cyberkrimineller, sich über digitale Kommunikationsmittel als vertrauenswürdiger Partner auszugeben, um beispielsweise an persönliche Daten des Opfers zu gelangen oder es zur Ausführung einer Tat zu bewegen, die dem Cyberkriminellen zugutekommt. Mitarbeiter müssen lernen Phishing-Versuche zu erkennen und der IT-Abteilung zu melden. Das wird zunehmend schwierig, weil Cyberkriminelle viel besser darin geworden sind, offizielle Kommunikationsformen sprachlich und im Aussehen nachzuahmen. Die Zeiten schlecht übersetzter, holpriger Phishing-E-Mails sind vorbei. Allerdings ist auch zu beachten, dass Cyberkriminelle häufig informelle Wege der Kommunikation wie Social Media für Phishing einsetzen. Mir sind schon häufiger derartige Fälle untergekommen. Zuweilen geben die Opfer via Social Media sogar die Fragen und Antworten preis, die ihnen das Zurücksetzen ihrer Passwörter erlauben. Da die Cyberkriminellen also ihre Maschen fortlaufend weiterentwickeln, müssen die IT-Sicherheitsschulungen für das Personal regelmäßig aufgefrischt werden.

Jenseits von Ransomware

Die behandelten Themen bieten einen Querschnitt im Bereich IT-Sicherheit jenseits der Fixierung auf Ransomware. Alle genannten Schwachstellen und Probleme können auch als Basis für Ransomware-Angriffe genutzt werden und sollten deshalb vorrangig betrachtet werden, will man Ransomware ebenso bekämpfen wie Datendiebstahl oder Spionage. 100prozentige IT-Sicherheit kann es nicht geben, aber wer die erwähnten Sicherheitsmaßnahmen sorgfältig umsetzt, macht sich damit deutlich weniger leicht angreifbar als viele andere Unternehmen und somit zu einem viel weniger attraktiven Ziel Cyberkrimineller. Schließlich gehen diese gerne den Weg des geringsten Widerstands.

Weitere Informationen unter:
https://de.malwarebytes.com/

Marketing und KI: KPIs kanalübergreifend prognostizieren

Best Practice

Innovatives Marketing bei Generali Schweiz: KI optimiert Kampagnen und Budgets

Generali Schweiz geht neue Wege: Die Versicherungsgesellschaft hat sich das Start-up nexoya an die Seite geholt, das auf maschinelles Lernen und künstliche Intelligenz für datengestützte Voraussagen setzt. Auf dieser Basis optimieren die Marketing-Verantwortlichen Multi-Channel-Kampagnen und Budgetzuteilung – und sind so der Konkurrenz einen Schritt voraus.

Generali ist eine der größten Versicherungs- und Vermögensverwaltungsgesellschaften der Welt. Das 1831 gegründete Unternehmen beschäftigt fast 72.000 Mitarbeiter und betreut 61 Millionen Kunden in 50 Ländern. Generali Schweiz entwickelt innovative Lösungen für Produkte genauso wie für interne Prozesse. Und das aus gutem Grund: Auf dem Markt herrscht ein hoher Wettbewerbsdruck. Hier den Überblick zu behalten und schnell auf Veränderungen zu reagieren, ist eine enorme Herausforderung.


„Im Unterschied zu einfacher Automatisierung von Prozessen lernen KI-Algorithmen über verschiedene Muster und verbessern ihre Ergebnisse kontinuierlich.“


Gastautor: Manuel Dietrich, nexoya

Für die Versicherer wird es daher immer wichtiger, die Kunden zum richtigen Zeitpunkt auf dem richtigen Kanal mit der richtigen Botschaft anzusprechen. Generali Schweiz setzte daher eine Always-On Strategie in Zusammenarbeit mit der Media-Agentur Dentsu Aegis Network und der Kreativ-Agentur TBWA um. Mit einer ausgefeilten Zielgruppen-Strategie mittels Audience Analysen auf Google Analytics 360 werden Nutzer in Echtzeit mit kontextabhängigen Botschaften auf verschiedenen Kanälen und Endgeräten angesprochen.

KI-Algorithmus steigert Effizienz um 24 Prozent

Seit dem Sommer 2020 arbeitet Generali Schweiz mit dem Zürcher Start-up nexoya zusammen, das für seine Lösung „nexoya Marketing Analytics“ auf maschinelles Lernen und künstliche Intelligenz setzt. Das Marketing ist so in der Lage, die zukünftige Performance einzuschätzen, die Kampagnen zu optimieren und die Budgets auf Grundlage von KI-basierten Vorhersagen ideal auszurichten.

Bei der Auswahl war entscheidend, dass die Lösung auch beim Einsatz modernster Technologien der hohen Datenschutzrichtlinie entspricht. nexoya erfasst ausschließlich nicht personalisierte Daten, die in zertifizierten Schweizer Rechenzentren liegen. In einer ersten Simulation ermöglichte eine gezielte Cross-Channel-Optimierung zwischen Google Display Netzwerk (GDN), Programmatic, Facebook und Instagram eine Effizienzsteigerung von 24 Prozent.

„Bei Generali Schweiz ist der Einsatz von KI-basierten Ansätzen zur Kampagnenoptimierung nichts Neues. Die meisten Lösungen sind jedoch kanalspezifisch gebaut und eine holistische Sicht fehlte nach wie vor. Mit nexoya haben wir den idealen Partner gefunden, um unsere KPIs kanalübergreifend zu prognostizieren und auf deren Basis datengetriebene Budget-Anpassungen vorzunehmen“, sagt Maurizio Miggiano, Head of Customer Journey bei Generali Schweiz.

KI ermöglicht tiefe Einblicke in die Daten

60 Prozent der Unternehmen nutzen für die tägliche Entscheidungsfindung bereits künstliche Intelligenz. Im Online-Marketing leistet die auf KI basierende Automatisierung weit mehr, denn Marketingverantwortliche erhalten durch den Einsatz von prädiktiver Analytik tiefe Einblicke in ihre Daten. nexoya arbeitet mit modernen Methoden der KI: Diese berechnet auf Basis der historischen Performance, wie sich jede einzelne Kampagne und jedes einzelne Asset in der Zukunft verhalten werden. Zusätzlich berücksichtigt die KI für ihre Vorhersagen exogene Faktoren wie etwa Wetterdaten.

Auf Grundlage der so vorhergesagten Performance berechnet der Algorithmus die optimale Ausrichtung der einzelnen Budgets über viele verschiedene Kanäle und Kampagnen hinweg. Das Marketing hat zudem die Chance, kanalübergreifend die Effizienz zu steigern: KI aggregiert und verarbeitet problemlos riesige Mengen von Daten verschiedener Kanäle und deckt auf dieser Basis Erkenntnisse und Zusammenhänge auf, die zu einem signifikant besseren Return-on-Investment führen.


Das neue Kampagnentool zeigt Marketingverantwortlichen grafisch aufbereitet das Potenzial ihrer Kampagnen in der Zukunft. (Grafik: nexoya ltd.)
Die Lösung erzeugt per Mausklick automatisierte Reports, zum Beispiel zur Performance der Website, die viele Marketingabteilungen noch mühsam mit Hilfe von Excel erstellen.

Grafiken: nexoya ltd.


nexoya im Pool der innovativsten Projekte der Generali-Gruppe

Im Unterschied zu einfacher Automatisierung von Prozessen lernen KI-Algorithmen über verschiedene Muster und verbessern ihre Ergebnisse kontinuierlich. Auf diese Weise lassen sich Kampagnen laufend optimieren und die Kosten um bis zu 30 Prozent reduzieren, so die Erfahrung des Unternehmens. Das Potenzial steigt, wenn Marketingverantwortliche die Kampagnen-Optimierung mit Always-On Marketing verbinden. So konnte Generali Schweiz dank des Wechsels zu einer modernen Always-On Strategie in Kombination mit dem Einsatz von künstlicher Intelligenz, die CPL, also die Kosten pro Lead, um bis zu 90 Prozent reduzieren.

Die Generali Gruppe hat die Pilotphase in der Schweiz mit nexoya in einen globalen Innovation-Pool aufgenommen. Somit gehört der Pilot zu den innovativsten Projekten von Generali.

Über nexoyaÜber Generali
Das Start-up nexoya ltd. mit Sitz in Zürich und Berlin realisiert seit 2018 automatisierte Analysen für das digitale Marketing mittelgroßer und großer Unternehmen – nutzerfreundlich und datenschutzkonform. Auf Basis von Maschinellem Lernen optimiert die SaaS-Plattform „nexoya Marketing Analytics“ Multi-Channel-Marketingkampagnen: Hierfür aggregiert die Lösung Kennzahlen aus unterschiedlichen Kanälen wie Google Ads, Instagram oder Facebook, stellt sie übersichtlich dar und übernimmt das Monitoring der Kennzahlen. Auf Basis der erfassten Daten und unter Einsatz von künstlicher Intelligenz (Predictive Analytics) optimiert nexoya anschließend die Kampagnen-Budgets. So entlastet die Lösung Marketingteams von operativen Routineaufgaben, vereinfacht automatisierte datengetriebene Entscheidungen und reduziert die Marketing-Kosten um bis zu 30 Prozent. nexoya erfasst ausschließlich nicht personalisierte Daten, die in zertifizierten Schweizer Rechenzentren liegen. Zu den Kunden gehören bekannte Unternehmen wie die Emmi Group, Generali, CSS oder The House Agency. Generali ist eine der größten Versicherungs- und Vermögensverwaltungsgesellschaften der Welt. Unser 1831 gegründetes Unternehmen ist in 50 Ländern der Welt vertreten und verzeichnete 2019 ein Prämieneinkommen von insgesamt rund 70 Milliarden Euro. Mit fast 72.000 Beschäftigten und 61 Millionen Kunden nimmt unsere Unternehmensgruppe in Europa eine führende Marktstellung ein und baut ihre Präsenz in Asien und Lateinamerika kontinuierlich aus. Wir wollen ein lebenslanger Partner für unsere Kunden sein und ihnen über unser konkurrenzloses Vertriebsnetz innovative, individuell abgestimmte Lösungen anbieten.
www.nexoya.comwww.generali.ch

Redaktionskontakt
Sabrina Ortmann, nexoya
E-Mail: press@nexoya.com

Aufmacherbild / Quelle / Lizenz
Image by Fathromi Ramdlon from Pixabay

Lager- und Versandkapazitäten erfolgreich steigern

Printus startet Erweiterungsoffensive im Logistikzentrum

Starkes Wachstum zieht sich als roter Faden durch die über 40-jährige Unternehmensgeschichte von Printus. Das Offenburger Unternehmen zählt zu den größten Online-Händlern Europas und hat seine Marktposition durch die Übernahme der Büroversandhandelssparte der OTTO Group („OTTO Office“) nachhaltig gefestigt. Zeit, die Logistik an die neuen Herausforderungen anzupassen. Unterstützt von den Hamburger Logistikexperten von Fortna | Pierau erweitert Printus die Lager- und Versandkapazitäten – stufenweise und im laufenden Betrieb.

Ursprünglich rein auf Büroartikel spezialisiert, umfasst das Sortiment von Printus inzwischen auch Media- und Kommunikationsartikel sowie Unterhaltungselektronik. Mehr als 1.600 Mitarbeiter setzen sich heute täglich dafür ein, dass über 3 Mio. Kunden ihre Bestellungen über 18 verschiedene Online-Shops sowie zahlreiche Kataloge innerhalb von 24 Stunden erhalten.

Stark wachsende Unternehmen stehen vor der typischen Herausforderung, dass die Logistik im gleichen Tempo mitwachsen muss. Im Zuge der anhaltend positiven Unternehmensentwicklung wird Printus daher seit mehr als 30 Jahren von Fortna | Pierau unterstützt und hat kontinuierlich notwendige Investitionen getätigt – das bisherige Highlight geht zurück ins Jahr 2005: Damals war am Stammsitz Offenburg ein neues Versand- und Verwaltungszentrum mit innovativer Logistiktechnologie gebaut worden.

Retrofit, Erweiterung, Neubau – neue Logistik für veränderte Sendungsstrukturen

Nicht nur moderner, sondern auch leistungsstärker: Der neue Sorter erreicht im Wareneingang eine Maximalkapazität von 5.000 Sendungen/Stunde.

„Nach der erfolgreichen Eingliederung eines neuen Geschäftsbereichs haben wir unsere hauptsächlich auf den B2B-Sektor ausgerichteten Aktivitäten um das Endkundengeschäft erweitert“, erklärt Dietmar Mahler, Bereichsleiter Logistik bei Printus. „Dadurch verändert sich die Sendungsstruktur, denn Privatkunden tätigen in der Regel kleinteiligere Bestellungen in geringeren Mengen. Weil wir darüber hinaus in diesem Bereich starkes Wachstum verzeichnen, bestand Handlungsbedarf.

Wir mussten unsere Kapazitäten erhöhen, um auch bei steigenden Liefermengen leistungsfähig zu bleiben und unser 24-Stunden-Lieferversprechen einhalten zu können.“ Das aktuelle Logistikprojekt vertrauten die Offenburger erneut dem Expertenteam von Fortna | Pierau an: Die Projektleiter Andreas Spitzki und Jan-Hendrik Plumhoff entwickelten ein Stufenkonzept, das mit Rücksicht auf den laufenden Betrieb sukzessive umgesetzt wurde.

Die erste Realisierungsstufe betrifft den Kartonstart: Maschinell aufgerichtete Leerkartons werden auf ihrem Weg zur Kommissionierung zu einer neuen Etikettendruckstation befördert. Gegenüber dem bisherigen Inkjetsystem gewährleistet diese eine konstante Druckqualität. Das erhöht die Lesequote der Scanner wesentlich.

Das neu implementierte Shuttlelager mit zwei Gassen
ist auf eine maximale Kapazität von 35.000 Behältern
ausgerichtet und ergänzt das bestehende AKL.

Eine weitere Ausbaustufe zur Kapazitätserhöhung umfasst die Erweiterung des bestehenden AKL um ein zusätzliches Shuttlelager mit zwei Gassen. „Das Shuttlesystem ist auf eine maximale Kapazität von 35.000 Behältern und eine Leistung von 400 Doppelspielen pro Stunde je Gasse ausgerichtet“, so Andreas Spitzki. „In der AKL-Vorzone entzerrt ein Loop die Ein- und Auslagerungsprozesse und reduziert Wartezeiten.“

Eine zusätzliche Behälterbefüllstation ergänzt außerdem die Bestandslogistik und sorgt künftig dafür, dass Artikel aus angelieferten Kartons mit den AKL-Behältern verheiratet werden; sie werden umgefüllt und fahren anschließend zur Einlagerung ins AKL oder Shuttlelager. An jedem Arbeitsplatz sorgt flexible Höhenverstellbarkeit dafür, dass die Mitarbeiter die Behälter in der ergonomisch optimalen Höhe zur weiteren Bearbeitung erhalten.

Im Bereich der Kommissionierung hat sich die bereits 2005 mit Fortna | Pierau entwickelte und integrierte Technik bewährt: „Die artikelreinen zur Kommissionierung benötigten Behälter werden aus dem AKL ausgelagert und in die Picktower transportiert“, erklärt Jan-Hendrik Plumhoff. „Mit Lastaufnahmemitteln ausgestattete Hubbalken holen die Behälter aus der jeweiligen Höhe. Die Mitarbeiter entnehmen mithilfe von Pick-by-Light-Technik die Bedarfsartikel zur weiteren Befüllung der teilkommissionierten Kartons.“

Während in einigen Bereichen der Fördertechnik bestehende Komponenten gezielt modernisiert wurden, ist im Erdgeschoss der Verpackungsbereich grundlegend erneuert worden. Ein neuer Schuhsorter erreicht im Warenausgang die Spitzenleistung von 5.000 Sendungen pro Stunde. Darüber hinaus kommt mit neuen Kartondecklern mit automatischer Volumenreduzierung Technik der neuesten Generation zum Einsatz: Der höchste Artikel im Karton wird ausgemessen, danach werden die Ecken entsprechend eingeschnitten, die Laschen gefaltet und automatisch gedeckelt. Anschließend werden die Sendungen mithilfe neu eingeführter Versandetikettierer gekennzeichnet, und die versandfertigen Sendungen gehen auf die Endstellen zur Routenverteilung.

Im grunderneuerten Verpackungsbereich erhöhen
neue Kartondeckler mit automatischer Volumenreduzierung
Effizienz und Wirtschaftlichkeit.

„Mit der Umsetzung der nächsten Stufe des Maßnahmenpakets erzielen wir eine Verdoppelung unserer Lagerkapazitäten im automatischen Paletten-Hochregallager. Die vorhandenen fünf Gassen werden um weitere sechs Gassen erweitert – wir können so auf über 20.000 Palettenplätze aufstocken“, sagt Dietmar Mahler.

„In diesem Zuge wurde auch ein Erweiterungsbau für eine zusätzliche Kanalballenpresse zur Altpapierentsorgung errichtet. Außerdem befinden sich dort neuerdings die Staplerladestationen.“ Ihr Umzug war nötig, um Platz für die Palettenfördertechnik des neu errichteten HRLs zu schaffen.

„Zusammenfassend ist die Komplexität des aktuellen Projekts hervorzuheben – die größte Aufgabe, die wir rückblickend sehr erfolgreich erfüllt haben, bestand darin, die Retrofit-Maßnahmen im laufenden Betrieb umzusetzen“, erklärt Dietmar Mahler. „Insgesamt erreichen wir durch die mit Fortna | Pierau gemeinsam erarbeiteten und umgesetzten Maßnahmen einen Durchsatz von über 3.000 Sendungen pro Stunde und erzielen damit die maximal mögliche Effizienz im Bestandsgebäude.“

Über Fortna | Pierau
Fortna | Pierau ist seit 60 Jahren ein fest etabliertes Beratungsunternehmen für Intralogistik- und Supply-Chain-Lösungen. Bis heute haben die Hamburger Spezialisten über 2.500 Projekte in ganz Europa und darüber hinaus erfolgreich abgeschlossen. Das Portfolio umfasst die komplette Bandbreite der Optimierung, Erweiterung oder der Neuplanung und Realisierung von Logistikanlagen und Logistik-IT-Systemen. Seit Anfang 2020 gehört Fortna | Pierau zu dem US-amerikanischen Beratungsunternehmen Fortna®, The Distribution Experts™.

www.fortna-pierau.de

Ihr Kontakt zum Unternehmen:
Herdis Seibt
Grotenbleken 33, D-22391 Hamburg
Tel.: +49 – (0)40 606 899-12
Fax: +49 – (0)40 606 899-14
E-Mail: marketing@fortna-pierau.de

Beitragsbilder / Quelle / Lizenz:
Bildmaterial (©PRINTUS GmbH)

Aufmacherbild / Quelle / Lizenz
Image by Thanks for your Like • donations welcome from Pixabay

Cross-Border-Versand

Herausforderungen beim Cross-Border-Versand erfolgreich meistern

Es ist ein unaufhaltsamer Trend: 23 Prozent aller Onlineverkäufe in Europa finden bereits über Grenzen hinweg statt – und immer mehr E-Tailer wollen diese Exportchancen für sich nutzen. Doch mit dem Eintritt in neue Märkte entstehen auch neue Herausforderungen. Seven Senders, die führende Delivery-Plattform für den Paketversand in Europa, hat die Lösung für langfristigen Erfolg im Cross-Border-Versand.

Neue Märkte = neue Herausforderungen

Selbst bei großem Erfolg im nationalen Onlinehandel sind vor der Expansion viele Punkte zu klären, um die guten Ergebnisse auch über die Grenze zu tragen: Neben sprachlichen Barrieren und rechtlichen Hürden ist es im Ausland häufig auch schwierig, zuverlässige Logistikpartner zu finden. Ebenfalls relevant ist die Frage: Welche Kundenpräferenzen gibt es im Zielland? Denn nur mit zufriedenen Kunden erzielen Onlinehändler langfristigen Erfolg im Ausland. Das zeigt auch eine von Seven Senders in Auftrag gegebene YouGov-Studie: 53 Prozent der Kunden würden nicht erneut beim selben Händler kaufen, wenn sie schlechte Erfahrungen bei Einkauf, Versand und Co. gemacht haben. Um die Kundenpräferenzen zu kennen und erfüllen zu können, ist der Einsatz von lokalen Carriern vor Ort entscheidend. Eine Expansion ist somit meist mit neuen Anwendungen, neuen Ansprechpartnern und zusätzlichem Personal verbunden. Das treibt nicht nur die Kosten in die Höhe, sondern sorgt gleichzeitig für komplexere Abstimmungsprozesse und erschwert logistische Aufgaben.

Der Kunde ist König

Ob nationaler oder internationaler Versandhandel: Eine professionelle Customer Experience ist hier wie dort unverzichtbar. Das Wissen über die Kundenpräferenzen kann außerdem helfen, die Kundenbindung zu stärken. Allerdings sind die Kundenwünsche von Markt zu Markt verschieden. Das betrifft die verschiedensten Faktoren, darunter Versand, Bezahlung und Retouren. In Italien sind etwa Online-Bezahlanbieter wie PayPal sehr beliebt. 51 Prozent der italienischen Kunden nutzen sie. In der Schweiz sieht das allerdings anders aus: Nur 12 Prozent nutzen sie, hier bestellt jeder zweite Onlinekunde lieber auf Rechnung. In Frankreich bezahlen 58 Prozent mit Kreditkarte, in Deutschland hingegen nur 10 Prozent. Die Anpassung von Währung und Sprache bildet zudem die Basis, um in den einzelnen Ländern konkurrenzfähig zu sein. Eine individuelle Lösung für jedes Land ist demnach ausschlaggebend für Erfolg im internationalen E-Commerce.


„Mit einem eigenen Carrier in jedem Land können Kunden ihre Pakete an den gängigen Drop-off-Points abgeben.“

Autor:

Dr. Johannes Plehn, Gründer und Geschäftsführer von Seven Senders

Als COO des Project-A Onlineshops Wine in Black lag sein Fokus auf der Optimierung von Einkaufs-, Payment-, Fulfilment-Prozessen und Customer Service, sowie der Erarbeitung eines ganzheitlichen Order Management Systems. Während seiner Doktorarbeit an der ETH Zürich, entwickelte er ein Framework zur Optimierung der Eco-Efficiency von produzierenden Unternehmen, analysierte die Auswirkungen von bestehenden Freihandelsabkommen auf globale Supply Chains und erarbeitete eine Operationsstrategie für einen OEM aus der Transportindustrie.


Internationale Versanddienstleister oder lokale Carrier?

Wer Cross-Border-E-Commerce betreibt, entscheidet sich meist zwischen einem internationalen Versanddienstleister oder lokalen Carriern im Zielland als Partner. Eine auf die Kundenpräferenz optimierte Herangehensweise ist oft mit hohen Kosten und Aufwand verbunden. Denn internationale Versanddienstleister decken nicht immer alle vom Kunden und Endkunden gewünschten Services ab. Mit dem Einsatz lokaler Carrier, die vor Ort und damit nah am Markt sind, werden jedoch Abstimmungsprozesse komplexer, wachsen die logistischen Aufgaben, die Anzahl der Kontaktpersonen und entsprechend auch die Kosten. Eine Lösung bietet das Carrier-Netzwerk aus über 100 lokalen Paketzustellern des Unternehmens: Über die zentrale Delivery-Plattform können Onlinehändler exakt diejenigen Versanddienstleister auswählen, welche die Zustell- und Abholoptionen anbieten, die die Kunden vor Ort wünschen.  

So vermeiden sie, dass viele Onlinekäufer den Kaufvorgang abbrechen, weil die Lieferoptionen nicht ihren Anforderungen entsprechen. Aber auch beim Retourenmanagement ist die Zusammenarbeit mit lokalen Paketzustellern von Vorteil: 27 Prozent der Onlinekunden nennen bequeme Rücksendeabläufe als wichtigstes Entscheidungskriterium für Ihre Shop-Wahl. Hierbei ist es wichtig, dass die Abgabe der Retoure einfach und vor allem überall möglich ist. Mit einem eigenen Carrier in jedem Land können Kunden ihre Pakete an den gängigen Drop-off-Points abgeben. Über eine zentrale Delivery-Plattform decken Onlinehändler eine breite Palette an Zielländern mit nur einem zentralen Ansprechpartner und auf Basis eines einzigen Vertrags ab. Das reduziert die Komplexität des grenzüberschreitenden Versands und spart gleichzeitig Zeit und Geld.

Datenanalyse: Voraussetzung für Flexibilität und Optimierung

E-Commerce ist ständig im Wandel; Rahmenbedingungen und Kundenwünsche ändern sich hier sehr schnell. Für langfristig gute Ergebnisse sind daher Offenheit und die Bereitschaft, alles neu zu denken, wichtige Voraussetzungen. Die Zusammenarbeit mit einer Delivery-Plattform wie Seven Senders bietet eine Lösung, mit der Händler Märkte und Abläufe jederzeit im Blick behalten können. Das Carrier-Netzwerk ermöglicht zudem viel Flexibilität: Deckt ein gewählter Partner die Kundenbedürfnisse nicht mehr ab, können Onlinehändler innerhalb des Zustellernetzes von Seven Senders schnell und unkompliziert wechseln. Wertvoll ist dabei die umfangreiche Datenanalyse mit dem Analyse-Tool Analytics.

Der Überblick über alle Prozesse beim Cross-Border-Versand macht Unregelmäßigkeiten, wie etwa Abweichungen im Lieferprozess, unmittelbar sichtbar und ermöglicht eine schnelle Reaktion. Automatische Alerts versorgen Onlinehändler beispielsweise mit Informationen über Zustellzeiten und Zustellqualität. Dadurch lassen sich Prozesse schnell und flexibel anpassen – ohne dass die Kunden es bemerken. Auch Lieferentwicklungen und Trends können durch ein zentrales Analytics-Tool präzise vorausgesagt und analysiert werden. Vor allem in Peak-Zeiten, die ein wachsendes Paketvolumen mit sich bringen, kann das zum entscheidenden Vorteil gegenüber der Konkurrenz werden.

Seven Senders unterstützt international aufgestellte Onlinehändler, Prozesse zu optimieren und die Komplexität zu reduzieren. Und hilft gleichzeitig dabei, langfristig erfolgreich international zu versenden und von dem aktuellen E-Commerce-Boom zu profitieren, indem Online-Händler ihren Versand einfach an die jeweiligen Lieferbedingungen der Kunden vor Ort anpassen können.

Aufmacherbild / Quelle / Lizenz
Photo by Mika Baumeister on Unsplash

Neue Impulse für den Wandel hin zur Kreislaufwirtschaft

Weniger reden, mehr handeln – das ist Nachhaltigkeit. Was Lexmark in diesem Bereich unternimmt, schildert Maxime Furkel, Head of Government Affairs in seinem Gastbeitrag.

Nach dem Abschluss des Pariser Klimaabkommens verfolgen Länder und Unternehmen auf der ganzen Welt mit Nachdruck ihre Pläne zur Verwirklichung einer kohlenstoffneutralen Wirtschaft. Auch wenn der große Willen zu dieser tiefgreifenden Transformation Hoffnung macht, kann sich auf dem Weg dahin aber wegen der gewaltigen Aufgabe auch immer wieder ein Gefühl der Überforderung einschleichen. So schätzen z. B. Experten (World Bank, What a Waste 2.0, Seite 25), dass das weltweite Abfallaufkommen weiter steigen wird. Für das Jahr 2050 wird eine Abfallmenge von rund 3,4 Milliarden Tonnen erwartet, wenn sich nichts ändert – zum Vergleich: Im Jahr 2016 lag dieser Wert noch bei 2,02 Milliarden Tonnen. Die Motivation, den Umkehrschwung zu schaffen, muss daher befeuert werden. Und manchmal hilft auch ein Blick auf die Fortschritte, die in einzelnen Branchen schon erreicht wurden, um die eigenen Ziele mit neuer Kraft anzugehen.

Kreislaufwirtschaft in Europa

Die Kreislaufwirtschaft ist ein solcher Ansatz für Unternehmen, durch den sich Wachstum neu definieren lässt und der den Verbrauch endlicher Ressourcen durch die Priorität auf der Wiederverwendung von Komponenten reduzieren kann. Die Druckbranche ist hier teilweise schon sehr aktiv. So beteiligt sich mein Unternehmen als weltweiter Player zum Beispiel bereits als Mitglied im European Remanufacturing Council und engagiert sich bei C-SERVEES, einem von der Europäischen Union finanzierten Projekt zur Vermeidung von Elektroschrott (WEEE). Neben dem Recycling muss in einem Kreislaufmodell aber auch die Reparatur und Aufarbeitung von Produkten für die Wiederverwendung eine hohe Priorität haben – Geräte dürfen in Zukunft einfach nicht mehr nach einmaliger Verwendung nur noch gut genug zum Wegzuwerfen sein.

Eine im Rahmen des C-SERVEES-Programms durchgeführte Untersuchung des Drucker-Sektors hat aber auch auf wichtige Faktoren hingewiesen, die als Marker dafür dienen können herauszufinden, wo noch mehr getan werden muss , um die Akzeptanz von Wiederaufbereitungsprozessen zu fördern und so den Übergang zu einer Kreislaufwirtschaft zu beschleunigen. Interessanterweise geben etwa nur sehr wenige Unternehmen ihre Altgeräte an den jeweiligen Originalgerätehersteller (OEM) zurück. Selbst dort, wo OEMs eine Aufarbeitung durchführen und wiederaufbereitete Geräte anderweitig verkaufen, handelt es sich oft nicht um die zahlreicheren kleineren Geräte wie A4-Drucker. Das liegt wahrscheinlich daran, dass fabrikneue A4-Drucker bereits als erschwinglich gelten und es dann aus Unternehmens- oder Verbrauchersicht einfacher, schneller und zuverlässiger ist, einen defekten Desktop-Drucker durch einen neuen zu ersetzen, als sich damit zu beschäftigen, was mit dem Gerät nicht stimmt, oder ein wiederaufbereitetes Modell zu kaufen.

Nach Angaben der Vereinten Nationen produziert jeder Mensch auf der Welt im Jahr 2021 durchschnittlich 7,6 kg Elektroschrott. Nur 17,4 Prozent des weltweiten – hochgerechnet 57,4 Millionen Tonnen – Elektroschrotts werden bisher ordnungsgemäß gesammelt und recycelt. Das C-SERVEES Projekt der Europäischen Union zur Vermeidung von Elektroschrott informiert in einem  neuen Video über die aktuelle Lage und neue Ansätze beim Kauf und der Nutzung von Elektronikgeräten (Quelle: C-SERVEES EU-Projekt).

Darüber hinaus ergab die Studie, dass Preis und Qualität weiterhin ein Problem darstellen, wenn es darum geht, den Aufarbeitungsmarkt zu fördern. Die Gleichung ist einfach: Im idealen Fall muss die Qualität hoch genug sein, um Käufern ein wiederaufbereitetes Gerät schmackhaft zu machen, und auf der anderen Seite müssen die Kosten für die Aufarbeitung niedrig genug sein, dass der Prozess für OEMs wirtschaftlich bleibt. Natürlich ist die Versuchung groß, alles beim Alten zu belassen und den Umweltaspekt zu vernachlässigen, wenn Kunden lieber neue Produkte kaufen, weil diese die für sie billigste und einfachste Lösung sind.

Chancen, wie der klimaschonende Kreislauf gefördert werden könnte

Es gäbe viele Möglichkeiten, wie sich die Transformation zur Kreislaufwirtschaft und die Akzeptanz von wiederaufbereiteten Produkten im Markt durch Maßnahmen auf Seiten der Regulierungsbehörden und Unternehmen erhöhen ließe. Zum Beispiel durch die Gesetzgebung – warum könnte man Herstellern nicht einen Bonus bieten, wenn sie die Kreislauffähigkeit ihrer Produkte bereits in der Entwicklungsphase mitberücksichtigen. Flankierend zu jedem neuen Gesetz müssten auch im öffentlichen Beschaffungswesen ehrgeizige Ziele eingeführt werden, um den Kauf aufgearbeiteter Produkte zu fördern und zu fordern. Werbekampagnen könnten darauf abzielen, Verbraucher detailliert aufzuklären, damit sie besser verstehen, wie sie durch den Erwerb und die Nutzung aufgearbeiteter Produkte aktiv zu einer umweltfreundlichen Zukunft beitragen. Verbraucher sollten Daten erhalten, die ihnen schon vor dem Kauf verraten, wie sich der ökologische Fußabdruck eines generalüberholten Geräts im Vergleich zu einem neuen Gerät unterscheidet. Sie sollten genau wissen, welche CO2-Belastung sie mit einem von ihnen gewählten Produkt “mitkaufen”. „Grüne“ Zertifikate, die den positiven Umweltbeitrag schwarz auf weiß bescheinigen, könnten den Kauf eines gebrauchten Geräts sehr viel attraktiver machen.

Akzeptanz fördern – und das schnell

So könnten beispielsweise QR-Codes als geeignetes Instrument dienen, um die Akzeptanz von Wiederaufbereitungsmaßnahmen zu erhöhen und den wirtschaftlichen Nutzen zu verbessern. Werden sie mit einer Blockchain verknüpft, so dass die gespeicherten Informationen nicht manipuliert werden können, könnten QR-Codes etwa dazu dienen, Käufer mit detaillierten umweltbezogenen Informationen zum CO2-Fußabdruck oder zum Energieverbrauch des Geräts bereits ab der Produktion zu versorgen. Über sie könnten sich Informationen über die Geschichte eines Produkts abrufen lassen (z. B. Installationsdatum, Drucknutzung und Reparaturhistorie). Am Beispiel von Druckern wäre es über auf einem QR-Code gespeicherte Daten möglich, den Wertes eines alten Geräts und seiner Ersatzteile besser einzuschätzen und so einen besseren Preis beim Verkauf von Altgeräten an OEMs zu erhalten. Angefangen bei QR-Codes über die Gesetzgebung bis hin zur zukunftsweisenden Kundenaufklärung – die Argumente für die Wiederaufbereitung müssen auf wirklich jeder Stufe der Wertschöpfungskette so überzeugend sein, dass die Kaufdiskussion nicht mehr allein vom Preis bestimmt wird.

Maxime Furkel: „Der beste Ansatz für OEMs besteht darin, ein bewusstes Engineering zu betreiben.“

Kreislaufwirtschaft von Anfang integrieren

Neben der Einführung von “Reverse-Logistik”-Prozessen und der Intensivierung der Marketingbemühungen für aufgearbeitete Produkte besteht aber der beste Ansatz für OEMs darin, ein bewusstes Engineering zu betreiben. Produkte müssen von Anfang an so entwickelt werden, dass ihre Lebensdauer maximiert und ihr Wert über das Ende der Nutzungsdauer hinaus gesteigert wird. Dies verbessert sowohl die Kostenbilanz als auch die Zeiteffizienz der Aufarbeitungsprozesse. Produkte müssen modular aufgebaut sein, so dass ein “End-of-Life”-Gerät sich problemlos mit der neuesten Software und Firmware aktualisieren lässt und auch neueste Sicherheitsfunktionen unkompliziert integriert werden können. Ein weiterer Bereich, der optimiert werden muss, ist die Lebensdauer von Ersatzteilen. Da sie einen der größten Kostenfaktoren bei der Aufarbeitung darstellen, müssen auch sie für eine längere Haltbarkeit und eine längere Lebensdauer entwickelt werden. Alle genannten Maßnahmen haben das Potenzial, das Geschäftsmodell der Wiederaufbereitung für OEMs, Händler, Recyclingunternehmen und letztlich für die Kunden sehr viel attraktiver machen. Mit ihnen ließe sich die Transformation zu einer echten Kreislaufwirtschaft in Europa beschleunigen – einer Kreislaufwirtschaft, die sich im Einklang mit unseren Umweltzielen entwickelt und uns auf dem Weg zur Erreichung der Klimaneutralität weiterbringt. Ich bin sehr zuversichtlich, dass solche Maßnahmen dem Markt für wiederaufbereitete Produkte in den kommenden Jahren ein sehr großes Wachstumspotenzial eröffnen werden – ein Wachstum, dass gleichzeitig auch gut für unsere Umwelt ist.

Weitere Informationen unter:
https://www.lexmark.com/de_de.html

Steuerung internationaler Unternehmen in turbulenten Zeiten

Gastautorin Verena Maas ist Marketing Managerin bei Board Deutschland

Das Jahr 2020 hat ein noch nie dagewesenes Maß an sozialen, politischen und wirtschaftlichen Turbulenzen mit sich gebracht. Für die Management-Ebene in Unternehmen bedeutete dies, dass sie schneller denn je reagieren, Entscheidungen fällen und Lösungen liefern mussten. Dabei sind den Unternehmen und vor allem den verantwortlichen Führungskräften durchaus die Risiken der Entscheidungen bewusst, denn sie können das Geschäft von morgen entweder beleben oder gefährden. Je volatiler die Märkte und je internationaler die Unternehmen aufgestellt sind, desto schwieriger ist es, die richtigen Entscheidungen zu treffen. Deshalb brauchen die Verantwortlichen die bestmöglichen Informationen, auf denen sie ihre Entscheidungen abstützen können. Unternehmen, die ihre Daten aktuell und verfügbar haben und die das Know-How und die Technologie besitzen, die Daten effizient zu analysieren und die Ergebnisse zu nutzen, haben hier einen deutlichen Wettbewerbsvorteil.

Entscheidungen auf unterschiedlichen Ebenen

Es lohnt sich, die Arten von Entscheidungen mal näher anzuschauen und ihre Auswirkungen, aber auch ihr Zustandekommen, zu betrachten. Auf der obersten Ebene stehen strategische Entscheidungen. Dies sind Entscheidungen, die langfristige und substanzielle Auswirkungen auf ein Unternehmen haben. Dabei handelt es sich z. B. um Jahresbudgets, Übernahmen von anderen Unternehmen, den Verkauf von Unternehmensteilen oder Vermögenswerten, oder die Eröffnung neuer Geschäftszweige. Dies sind typische Entscheidungen für die oberste Managementebene. Obwohl hier in die finale Entscheidung in der Regel nur wenige Personen eingebunden sind, gibt es in der Vorbereitung der Entscheidung eine große Anzahl von Mitarbeitern, die Daten und Fakten zusammentragen und einzelne Aspekte beurteilen.

Die zweite Ebene bilden taktische Entscheidungen. Diese beschäftigen sich mit der Umsetzung der Unternehmensstrategie und haben mittel- bis langfristige Auswirkungen auf das Unternehmen. Dazu gehören Vertriebs- und Marketingstrategie, Größe und Struktur der Belegschaft oder auch große Einkaufsentscheidungen. Hier sind für die Entscheidungsfindung neben dem Top-Management in der Regel die Abteilungsleiter der betroffenen Bereiche eng eingebunden.

Schließlich gibt es die Ebene der operativen Entscheidungen. Hier fallen die Entscheidungen über die alltägliche Bereitstellung der Produkte und Dienstleistungen des Unternehmens. Diese Entscheidungen sind von kurzfristiger Natur, haben aber massiven Einfluss auf das Tagesgeschäft und die Leistungsfähigkeit des Unternehmens. Hier geht es häufig um Zuweisung von Tätigkeiten und die Sicherstellung notwendiger Ressourcen.

Vor allem die strategischen und taktischen Entscheidungen haben bei internationalen Unternehmen globale Auswirkungen. Fraglich ist allerdings, ob und wie diese Auswirkungen in den Ländern und Regionen bei der Entscheidungsfindung berücksichtigt werden. Wie muss sich ein Unternehmen aufstellen, um die globale Tragweite der Entscheidungen richtig einzuschätzen? Wie kann sichergestellt werden, dass alle Daten und Fakten, die relevant für eine Entscheidung sind, zuverlässig und zeitgerecht zur Verfügung stehen?

Technologischer Fortschritt als Treiber datenbasierter Entscheidungsfindung

Nahezu jede Aktivität in einem Unternehmen führt heute zu neuen Daten – und doch scheinen viele Unternehmen diese nicht für ihre Entscheidungsfindung zu nutzen. Bei einer kürzlich durchgeführten Umfrage von Board in Großbritannien gaben nur etwas mehr als die Hälfte (54 Prozent) der Befragten an, dass sie Geschäftsentscheidungen auf der Grundlage von Daten und Erkenntnissen treffen. 45 Prozent der Manager gaben zu, dass sie Entscheidungen meistens aus dem Bauch heraus treffen – etwas, das in einem turbulenten und schwer einzuschätzenden Markt durchaus zum Problem werden kann.

Doch welche Werkzeuge helfen dabei, fundierte Entscheidungen auf Basis valider Daten zu treffen? Fragt man in den Unternehmen nach, dann sind immer noch Tabellenkalkulationen die Hauptquelle für Informationen. Dies, obwohl sich die meisten Unternehmen bewusst sind, dass die Zahlen in Tabellenkalkulationen nicht immer fehlerfrei und zuverlässig sind. Zu komplex ist das Handling der verschiedenen Tabellenblätter, zu fehleranfällig das Zusammenführen verschiedener Tabellen und zu gering die Möglichkeiten, Änderungen und Eingaben zu protokollieren, um den Prozess sicher durchzuführen.

Mit der Zusammenführung unterschiedlicher Daten können Unternehmen zum Beispiel aus dem Handel automatisiert bessere Entscheidungen treffen.

Dabei gibt es heutzutage Technologien, die Zuverlässigkeit und Agilität in Planung, Analyse und Reporting bringen und die zudem so benutzerfreundlich sind, dass sie breite Akzeptanz bei den Mitarbeitern finden. Nicht nur in der Zentrale oder im Finanzwesen, sondern breit gefächert über Länder und Abteilungen hinweg. Wenn alle Verantwortlichen auf die gleichen, akkuraten Zahlen zugreifen können und Analysen schnell, problembezogen und ohne tiefgehende IT-Kenntnisse durchgeführt werden können, dann wird die Entscheidungsfindung deutlich fundierter und in der Folge erfolgreicher für die Unternehmen.

Die Zusammenführung unterschiedlicher Daten und die Vereinheitlichung von Business Intelligence (BI), Planung und Predictive Analytics in einer einzigen Umgebung schafft einen vollständig integrierten Ansatz für eine zuverlässige Entscheidungsfindung. Sie erzeugt eine ganzheitliche Sicht auf das Unternehmen und verbindet Strategie, Finanzen und Betrieb miteinander. Gleichzeitig bekommen die Entscheidungsträger die historischen und zukunftsorientierten Informationen, die sie für die Entscheidungsfindung benötigen.

Künstliche Intelligenz vereinfacht und beschleunigt die Analysen

Zunehmend wird Künstliche Intelligenz (KI) als Teil einer Entscheidungsfindungsplattform eingesetzt, um die datengesteuerten Ergebnisse, Simulationen und prädiktiven Modellierungsfunktionen zu unterstützen. Dank KI können Unternehmen viele grundlegende Aufgaben automatisieren und immense Datenmengen in viel kürzerer Zeit als je zuvor verarbeiten – und so bessere und genauere Ergebnisse für die Entscheidungsfindung erzielen. KI macht auch komplexe Daten leichter verständlich und auf mehr Arten verfügbar, bis hinunter zur granularsten Ebene. So bietet sie neue Möglichkeiten, Daten zu untersuchen und Erkenntnisse zu gewinnen. Damit unterstützt KI die mit der Auswertung befassten Mitarbeiter und beschleunigt den Prozess.

Mit Hilfe dieser Erkenntnisse sind die Entscheidungsträger in der Lage, bessere Entscheidungen zu treffen. Sie stützen sich ab auf große Mengen valider Daten, während ein Bauchgefühl immer nur auf einer begrenzten Menge von Informationen beruht.

Moderne Unternehmen als Vorreiter

Entscheidungen, die wichtig sind für die weitere Entwicklung von Unternehmen und die großen Einfluss darauf haben, wie erfolgreich Unternehmen in der Zukunft am Markt agieren, stehen für Manager in allen Unternehmen auf der Tagesordnung. Einige Unternehmen setzen bereits auf zeitgemäße Tools, um diese Entscheidungen bestmöglich vorzubereiten und zu unterstützen.

Puma ist eines der Unternehmen, das mit Hilfe von Board ein durchgängiges digitales Transformationsprojekt durchgeführt hat. Puma stand vor der Herausforderung, auf Trends und Nachfrageveränderungen schnell zu reagieren. Als weltweit tätiges Unternehmen mit einer langen Firmenhistorie ist Puma in vielen Ländern präsent. Jedes Land hat sein eigenes Geschäftsmodell und seine eigenen Prozesse. Diese Struktur hat zu einer Vielzahl von ERP-Systemen, Tabellenkalkulationen und anderen fragmentierten Werkzeugen geführt, deren Ergebnisse in der Zentrale zusammengefasst werden müssen. Die mangelnde Integration der Systeme führte zu Effizienzeinbußen entlang der Lieferkette. Mit der Planungslösung von Board hat Puma die Forecast-Qualität und Geschwindigkeit spürbar erhöht und ist in der Lage, Angebot und Nachfrage kontinuierlich genau auszutarieren. Es verbessert zudem die internationale Zusammenarbeit und die Effizienz von der Zielsetzung bis hin zur Ausführung.

Datenbasierte Entscheidungen für eine erfolgreiche Zukunft

Effiziente Entscheidungsfindung setzt voraus, dass Unternehmen durch eine echte Integration von interaktivem Reporting, Planung, Forecasting und Predictive Analytics die Steuerung übernehmen. Neue Technologien sind der Schlüssel, um Unternehmen einen vollständigen Überblick über die Performance des gesamten Unternehmens zu verschaffen. Sie ermöglichen es Entscheidungsträgern, alle wesentlichen Informationen von KPIs bis hin zu operativen Abläufen zu berücksichtigen und generieren sofortige Einblicke. Das ermöglicht dem Management schnelle, zuverlässige und zukunftssichere Entscheidungen

Weitere Informationen unter:
www.board.com/de

Finanzbildung trifft auf Digitale Bildung


An der MLP School of Financial Education wird erstmals in Kooperation mit der BG3000 ein Training der neuen Generation angeboten, das Finanzbildung und Digitale Bildung ganzheitlich abdeckt. Um die Digitale Transformation erfolgreich zu meistern, benötigen Young Professionals und Unternehmen ein kombiniertes Wissen aus beiden Bereichen – von zukunftsweisenden Finanzprodukten und Anlageformen im Business-Kontext über IT-Sicherheit bis hin zu digitalen Marketing- und Service-Strategien. Wir sprachen darüber mit der Geschäftsführerin Simone Stein-Lücke von BG3000 und dem Vorstandsmitglied der MLP Finanzberatung SE Jan Berg.

Warum benötigen Nachwuchskräfte in Unternehmen ein kombiniertes Wissen aus den Bereichen Finanzbildung und Digitalbildung?
Jan Berg: Beide Themenbereiche vereint, dass sie – mehr denn je – von großer Bedeutung sind, aber leider weder in Schule noch im Studium systematisch angeboten und erschlossen werden. Diese Lücke schließen wir mit unserem Angebot. Neben der fachlichen Seite sind beide Themen auch wichtig für die Weiterentwicklung von Persönlichkeiten. Wir bringen die beiden Sphären gemeinsam mit BG3000 in einem motivierenden Seminarkonzept zusammen.
Simone Stein-Lücke: Finanzbildung und Digitale Bildung sind ein winning team für Young Professionals, weil sie sich mit dem gebündelten Knowhow einen Vorsprung auf dem Arbeitsmarkt der Zukunft sichern können. Bei beiden Themen geht es darum, die enormen Risiken zu minimieren und die großen Chancen zu nutzen. Digital Natives sind meist digital naiv. Sie kommen in aller Regel naturbelassen aus den Schulen in die Betriebe. Es fehlt das Verständnis für die Grundlagen von IT, Algorithmen, dem Internet als Wirtschaftsraum, den Herausforderungen der sozialen Medien – vom Nutzungsverhalten bis hin zum Datenschutz. Wir wollen nicht weiter im Stillstand verharren und darauf warten, dass die Digitalisierung vom Himmel fällt, sondern Unternehmen motivieren, selbst den ersten Schritt zu gehen.

Welche Finanzbildungsinhalte vermittelt das neue Young Professional Training von MLP und BG3000?
Jan Berg: Im Mittelpunkt steht das Thema „Behavioral Finance“, vereinfacht gesagt geht es also darum zu erschließen, wie Anlageentscheidungen zustande kommen und welche Fehler häufig gemacht werden. Menschen wissen nicht immer alles und handeln effizient und rational, sondern menschliche Verhaltensweisen beeinflussen unser Handeln stark – gerade auch bei Finanzentscheidungen. Die Teilnehmer entwickeln also die notwendige Expertise, um das eigene Verhalten einzuordnen und Fehlentscheidungen zu reduzieren.

Welche Themen stehen im Bereich Digitalbildung auf der Agenda?
Simone Stein-Lücke: Wir sensibilisieren die jungen Talente für Datenschutz, IT-Sicherheit, Urheberrecht, Fake News und Hate Speech, Social Media Policy und nicht zuletzt für das Thema Digitale Gesundheit. Und wir inspirieren die Young Professionals für die Gestaltung von Videos, Fotos oder Text-Beiträgen. Im Fokus unserer Workshops stehen die Unternehmenswebsite und Social Media Kanäle wie Instagram oder Youtube. Mit unserem neuen Young Professional Training können sich Digital Natives zu verantwortungsvollen digitalen Vorreitern und Markenbotschaftern des Unternehmens entwickeln.

Wann und in welcher Form geht das neue Young Professional Training an den Start?
Simone Stein-Lücke: An der eintägigen Pilotveranstaltung am 15. November nehmen 24 junge Talente teil. Keynote-Speaker sind Jan Berg, Vorstand der MLP SE, und Stephanie zu Guttenberg, Pionierin für Internet-Aufklärung in Deutschland und Mitgesellschafterin der BG3000. Im ersten Workshop-Modul geht es um das Thema „Behavioral Finance: Wie unser Verhalten Finanzentscheidungen beeinflusst“. Das zweite Modul widmet sich der Fragestellung „Digital Native oder Digital Naiv?“ Young Professionals werden für digitale Risiken sensibilisiert und für Chancen inspiriert – von Internetsicherheit bis hin zu professionellen Posts für die Social Media Kanäle des Unternehmens. In einem nächsten Schritt werden wir das neue Format auch als Leadership Training für Führungskräfte und Unternehmer*innen anbieten, die sich in Richtung Zukunft positionieren und absichern wollen. Das Training ist aktives Risikomanagement im Finanzbereich und im Digitalen.Wir sind davon überzeugt, dass wir sehr relevante Themen für unsere Zielgruppen ansprechen und planen für 2022 mehrere Angebote über das Jahr verteilt.

Wer kann sich anmelden?
Jan Berg: Wir sprechen mit unserem neuen Angebot Unternehmen an. Sie haben die Möglichkeit, ihre Mitarbeiter mit dem Fokus auf Young Talents bei uns anzumelden – entweder über die Website der MLP School of Financial Education oder über BG3000.

Weitere Informationen unter:
www.bg3000.de
https://mlp-se.de/sofe/

Klimadaten und Investmentprozesse einfach integrieren

Dies ist ein Gastbeitrag von Naciye Atalay, Prof. Dr. Rüdiger Hahn und Dario Foese unter Mitwirkung der Universitäten Hamburg und Kassel sowie der Radboud University und des WWF. Die Autoren gehen der Frage nach, warum sich die Finanzbranche bei der Integration von Klimadaten in Investmentprozesse weiterhin so schwer tut. In einem Pilotprojekt zeigen die Autoren Alternativen auf.

Nachteilige Auswirkungen des Klimawandels auf unternehmerische Tätigkeiten sind bereits heute in Form von physischen Risiken, Reputationsrisiken, regulatorischen Risiken und so weiter absehbar. Entsprechend erfordern solche Risiken bereits heute eine Berücksichtigung in der Unternehmensstrategie.

Tools, wie Investoren eine zielgerichtete Klimastrategie enwickeln und berücksichtigen, sind bereits vorhanden: Die Task Force on Climate-related Disclosures (TCFD) gibt zum Beispiel Empfehlungen, wie Klimarisiken und Chancen von Banken und Finanzmarktdienstleistern in Geschäftsprozessen berücksichtigt werden können. Eine solche Integration erfordert auch, dass Klimakennzahlen von Wertpapieren und Krediten erfasst werden – was jedoch noch nicht gängige Praxis in der Branche ist. Viele Asset Manager und Banken beschränken sich lediglich darauf, die regulatorischen Mindestanforderungen im Rahmen des Reportings oder des Risikomanagements umzusetzen.

Um ein Verständnis von Gründen für die unzureichende Nutzung von Klimadaten in Investmentprozessen zu erhalten, wurden im Rahmen eines vom BMBF geförderten Forschungsprojekts 50 Tiefeninterviews mit Expert*innen aus Finanzwirtschaft und Unternehmen durchgeführt, um Beweggründe, Motivation und Hürden im Umgang mit Klimadaten in Investmentprozessen zu erforschen. Präsentiert werden im Folgenden fünf Konfliktfelder, die eine umfangreiche Klimadatenintegration hemmen.


Unternehmensbezogene Information über die ESG-Performance und zu klimarelevanten Themen tragen zum Abbau von Informationsasymmetrien bei und sind daher für die Informationseffizienz und damit Funktionsfähigkeit der Kapitalmärkte wichtig.
Eine verpflichtende unternehmensbezogene Offenlegung von Treibhausgasemissionen führt im Vergleich zu freiwilliger Offenlegung zu signifikant stärkerer Emissionsminderung betroffener Unternehmen.
Unternehmensbezogene Treibhausgasemissionen gehen in die Unternehmensbewertung ein, wobei Unternehmen mit besonders hohen Emissionen niedrigere Marktwerte aufweisen.
Aus dem Policy-Brief: „Verpflichtende klimabezogene Unternehmensberichterstattung als Mittel zur Reduzierung von CO2-Emissionen“ des CRed-Projektes.

Interne Prioritäten: Der Klimawandel ist zwar ein wichtiges Thema in der Finanzbranche, jedoch wird aktuell die Umsetzung einer Klimastrategie nicht priorisiert.

Klimaaspekte werden noch nicht branchenübergreifend in Investmentprozesse integriert. Doch warum sind Investor*innen noch unentschlossen, wenn es darum geht, materielle Emissionen in ihren Entscheidungen zu berücksichtigen? Zum einen fehlt vielen Investor*innen nach eigener Aussage das Know-How darüber, welche Klimadaten relevant sind, wie Emissionsgrenzen gezogen, Daten erfasst oder interpretiert werden. Es besteht die Herausforderung, materielle, vergleichbare und zuverlässige Emissionsdaten zu erhalten. Zum anderen ist der Prozess des Datenmanagements zeitintensiv und komplex. Der Erwerb von Klimadaten über externe Ratingagenturen ist möglich und üblich, aber mit Kosten verbunden. Zudem legen die Expertengespräche nahe, dass aktuell schlichtweg die Bereitschaft fehlt, interne Ressourcen – sowohl personelle als auch finanzielle – zu mobilisieren, um Klimainformationen umfassend im Research und bei der Auswahl der einzelnen Investments zu berücksichtigen. Dies steht im Widerspruch zu der betonten Dringlichkeit des Klimawandels – denn die Interviewpartner*innen lassen keinen Zweifel daran, dass der Klimawandel eine wichtige Herausforderung der Finanzbranche darstellt.

Investmentzeithorizont: Der Investmenthorizont ist kurzfristig, sodass die langfristig zu erwartenden Auswirkungen nicht in heutigen Entscheidungen berücksichtigt werden.

Ein maßgeblicher Faktor, der die Entscheidung zu mehr Klimadatenintegration beeinflusst, ist der Investmentzeithorizont. Denn der mitunter recht lange Zeithorizont von Nachhaltigkeitsrisiken kollidiert mit der eher kurzfristig renditeorientierten Perspektive der konventionellen Finanzmarktakteure. So werden kurz- oder mittelfristige Risiken und Veränderungen effizient und schnell im Rahmen des Asset Managements eingepreist. Langfristige Unsicherheiten werden hingegen weniger stark berücksichtigt. Klima- beziehungsweise allgemein Umweltrisiken manifestieren sich oftmals erst, wenn Investitionen und Projekte bereits abgeschlossen sind. Erschwerend kommt hinzu, dass vorhandene Tools wie Szenarioanalysen und Stresstests methodische Herausforderungen und Datenlücken aufweisen, sodass die Anfälligkeit von Investitionen für physische und transitorische Risiken schwer vorherzusagen ist.

Datenverarbeitung: Die Datenbeschaffung und Verarbeitung ist komplex und geht zulasten von Transparenz und Vergleichbarkeit.

Damit Investor*innen Umweltaspekte in ihren Investmententschiedungen berücksichtigen können, benötigen sie Daten, die über die traditionelle Bonitätseinschätzung hinausgehen. Die Beschaffung von Informationen zur Nachhaltigkeitsperformance von Unternehmen ist in aller Regel wesentlich aufwendiger als die Nutzung finanzieller Kennzahlen. Quantitative und qualitative Daten zur Nachhaltigkeitsperformance können Corporate Social Responsibility (CSR)-Berichten  entnommen werden. Anders als für Geschäftsberichte sind für diese Berichte jedoch keine unabhängige Prüfung oder einheitliche Bilanzierung vorgeschrieben. Die Berechnungsmethoden der verschiedenen Klimaprotokolle, die von Unternehmen für die Offenlegung ihrer Klimadaten genutzt werden können, geben keine spezifischen und verbindlichen Regeln vor, wie Emissionen kalkuliert und Emissionsgrenzen gezogen werden sollen. Dies verleitet unter Umständen Unternehmen dazu, Kennzahlen und Informationen zu beschönigen und für Investoren bleiben Bemessungsgrundlagen und Abgrenzungen unklar.

Somit ist es eine Herausforderung für Analysten, unternehmerische Klimadaten auszuwerten und miteinander zu vergleichen. Ein Großteil der Finanzdienstleister nutzt das breite Angebot verschiedener Ratingagenturen und erwirbt die notwendigen Klimainformationen in Form von Ratings. Nachhaltigkeitsratingagenturen sammeln relevante Nachhaltigkeitsdaten und Leistungsindikatoren und werten sie mit Blick auf die unterschiedlichen Erhebungs- und Bilanzierungsmethoden aus. Die aus unternehmerischen CSR-Berichten, durch Fragebögen, direkten Gesprächen mit Unternehmen und öffentlich zugänglichen Informationen erlangten Daten fließen in hauseigene ESG (also Environmental, Social & Governance)-Ratingprodukte ein. Die Ergebnisse können je nach Datenquelle und Bewertungsmethodik der Agenturen teilweise erheblich voneinander abweichen. Für das Investmentfondsmanagement erscheint dieser Vorgang oftmals undurchsichtig – vor allem bei fehlenden Fachkenntnissen im Klima- und Umweltbereich. Der Zugang zu unbearbeiteten und vergleichbaren Primärdaten erleichtert es dem Asset Management, Unternehmen auf ihre Nachhaltigkeitsgesichtspunkte zu bewerten – vorausgesetzt, dass ein Grundverständnis für Klimakennzahlen vorhanden ist. Wie die Interviews jedoch verdeutlichen, fehlt vielfach noch die Expertise sowie die nötigen Ressourcen, um sich dem Thema anzunehmen. Daher greift der Großteil der Investor*innen auf Ratingprodukte zurück, wobei Datennutzer*innen auch eigene Informationen hinzuziehen und die Daten re-interpretieren, um so eine Informationsbasis für Investmententscheidungen zu schaffen, die den eigenen Nachhaltigkeitsansprüchen genügen – oft jedoch zulasten von Transparenz und Vergleichbarkeit.


Anreize für klimaresiliente Investitionen schaffenKurz- und langfristige Perspektiven annähern: Datenbasis stärken
• Regulatorische Impulse setzen und Anreize schaffen
• Negative und positive Externalitäten in die Bepreisung einbeziehen, z.B. durch Ausweitung des Zertifikatehandels oder Einführung eines CO2-Preises 
• Angemessene Informationsbasis schaffen, um ein besseres Verständnis für langfristige Klimarisiken zu erreichen
• Ausweitung der Berichtspflicht im Rahmen der CSR-Berichtserstattung
Standardisierte Erhebungs- und BerichtsmethodenSzenario-Analysen und Klimastrategien
• Klare Datenverarbeitung, Transparenz und Vergleichbarkeit gewährleisten
• Standardisierte Bilanzierungsregeln und Berichtsformate in allen Klimaberichten
• Größerer Fokus auf vorausschauende Klimainformationsformate
• Szenario-Analysen und klimabezogene strategische Positionierungen nach TCFD Vorgaben können einen einheiltichen Standard schaffen
Handlungsempfehlungen

Datenformat: Den Investoren liegen vorwiegend historische Kennzahlen vor, die jedoch nicht ausreichen, um die Zukunftsfähigkeit von Investitionen zu bewerten.

Gerade um die Zukunftsfähigkeit von Unternehmen und Projekten zu bewerten, benötigen Analyst*innen Informationen über Klimastrategien und Szenarioanalysen. Mit Szenarioanalysen lassen sich anhand von komplexeren Modellen Investitionserfolge und Unternehmensstrategien hinsichtlich verschiedener Klimaprognosen evaluieren. Dies ist notwendig, damit Unternehmen die Risiken und Chancen zukünftiger Klimaentwicklungen verstehen und das Geschäftsmodell auf Resilienz prüfen können.

Immer mehr börsennotierte Unternehmen geben Einblick in ihre Klimazielsetzung und unternehmerischen Emissionsreduktionsziele. Durch die Formulierung der Strategien werden Ambitionen sicht- und messbar und bieten Investor*innen eine gute Datengrundlage, um zu ergründen, ob Unternehmen für ein mögliches Investment infrage kommen.

Auch wenn es mittlerweile zum Standardrepertoire großer Unternehmen gehört, unternehmenseigene Klimastrategien zu entwickeln, gibt es insbesondere für kleine und mittelständische Unternehmen noch Aufholbedarf. Erste Modelle werden zwar für unternehmensinterne Zwecke entwickelt und genutzt, jedoch nicht umfangreich an externe Stakeholder kommuniziert. Zum Bedauern der Investor*innen, denn Klimaszenarioanalysen und die Zielsetzungen bezüglich der Emissionsreduktion sind Informationen, die nicht nur über den Status Quo berichten, sondern auch erahnen lassen, in welcher Tiefe sich Unternehmen mit der eigenen Klimabilanz auseinandersetzten. Die ausschließliche Betrachtung von historischen Kennzahlen zur Klimaperformance ist für eine angemessene und zukuntsorientierte Bewertung nicht ausreichend.

Fehlendes Angebot und fehlende Nachfrage wird sowohl auf Unternehmens- als auch Investorenseite beklagt.

Dass aktuell noch zu wenig Klimadaten in Investmentprozessen berücksichtigt werden, führen Investor*innen auf mehrere Faktoren zurück: Unternehmen würden aktuell noch nicht die Daten in Form und Umfang bereitstellen, die für eine klimabezogene Analyse gebraucht sind. Darüber hinaus sei der Wunsch der Anleger*innen nach Investmentprodukten mit Klimabezug einfach noch zu gering – selbst wenn sich immer mehr Kund*innen mit den ESG-Aspekten ihrer Anlagen beschäftigen. Ähnlich sieht es aus der Unternehmensperspektive aus: Hier sei weder die Nachfrage der Investor*innen nach Klimadaten groß genug, noch würden Unternehmen im ausreichenden Ausmaß nach Produkten fragen, die eine umfangreiche Klimadatenerhebung voraussetzen. Erschwerend kommt hinzu, dass ein Großteil der Unternehmen aktuell noch nicht verpflichtend über Nachhaltigkeitsaspekte berichten müssen. Vor diesem Hitergrund überarbeitet die Europäische Kommission aktuell die CSR-Berichtsrichtlinie. Es ist davon auszugehen, dass die endgültige Verabschiedung des Gesetzes im kommenden Jahr erfolgt. Auch für Investoren ist in diesem Zuge von einer Verschärfung der Berichtspflichten auszugehen. In der Tat bereiten sich viele Finanzdienstleister auf die kommenden regulatorischen Pflichten im Rahmen der Offenlegungsverordnung vor. Dies schlägt sich bisher jedoch selten in realen Änderungen in Investmentprozessen nieder, da hier weiterhin vielerorts noch keine Klimadaten berücksichtigt werden. Besonders konventionelle Asset Manager und Asset Owner agieren bei der klimaverträglichen Ausgestaltung ihrer Investments zurückhaltend. So bleibt unklar, ob die zaghafte Berücksichtigung von Klimadaten in Investmentprozessen am fehlenden Angebot unternehmerischer Klimadaten scheitert, an den noch zu lockeren Regulierungsvorhaben oder an der fehlenden Nachfrage der Finanzmarktakteure nach Klimainformationen – es bleibt ein Henne-Ei-Problem.


Das Projekt CRed „Klimaberichterstattung als Instrument zur CO2-Reduktion“ wird im Rahmen der Forschung für Nachhaltige Entwicklung (FONA) des Bundesministeriums für Bildung und Forschung (BMBF) gefördert. Das dreijährige Projekt wird gemeinsam von der Heinrich-Heine-Universität Düsseldorf (Projektkoordination), dem Forum Nachhaltige Geldanlagen, der Universität Hamburg, der Universität Kassel, dem WWF Deutschland und der Radboud University (Nijmegen, Niederlande) durchgeführt. Es untersucht den Beitrag von Klimaberichterstattung zur CO2-Reduktion und erarbeitet Empfehlungen zur Verbesserung von Klimaberichterstattung, um eine CO2-neutrale Wirtschaft zu fördern.


Die Autoren:

  • Naciye Atalay, Forum Nachhaltige Geldanlagen
  • Prof. Dr. Rüdiger Hahn, Heinrich-Heine-Universität Düsseldorf
  • Dario Foese, Heinrich-Heine-Universität Düsseldorf