„Wir leben das Thema ESG, da es ein Herzensthema ist“

Unsere Investmentstrategie ist sicherlich einmalig in Europa und basiert in erster Linie darauf, dass wir zum größten Teil in Junior Unternehmen investieren, uns die Minen direkt vor Ort anschauen und dass wir bereits seit Auflegung unserer Fonds einen sehr großen Wert auf die Nachhaltigkeit unserer Investments legen.

Social Media Trends und Automatisierung 2021

Die Corona Pandemie hat enorme Anforderungen an die Neuordnung von Business-Strukturen gestellt und die Bedeutung der sozialen Netzwerke weiter verstärkt. Unternehmen stehen vor der großen Herausforderung, neue Themen und Entwicklungen in den Social Media in erfolgreiche Unternehmens- und Marketing-Strategien umzusetzen.

Neuer Social Media Boom

Social Distancing und HomeOffice haben Business-Strukturen und die Unternehmenskultur nachhaltig verändert und viele neue Möglichkeiten und Wege geschaffen, um mit Kunden und Geschäftspartnern zu kommunizieren und zu kooperieren. Dabei spielen vor allem die Social Media eine große Rolle. Denn im Lockdown war und ist für viele Unternehmen das soziale Netz zu einer noch viel wichtigeren Lebensader für die Kommunikation mit Kunden und Geschäftspartnern geworden.

Alleine von Oktober 2019 bis Oktober 2020 stieg die Zahl der Social-Media-Nutzer nochmal um ganze 490 Millionen. Und der Social Media Boom wird sich auch im Jahr 2021 weiter fortsetzen. Mehr als die Hälfte der Weltbevölkerung nutzt Social Media – in Zahlen 4,41 Milliarden aktive Social-Media-Nutzer.

Nicht nur die Anzahl der Nutzer, sondern auch die Vielfalt und Intensität der Netzwerk-Nutzung hat sich verändert. Ein Nutzer hat im Durchschnitt 8,5 Social Media Accounts und nutzt diese 144 Minuten pro Tag und somit 876 Stunden im Jahr. Die sozialen Netzwerke werden daher immer mehr zu einem täglichen Begleiter für Freizeit, Job und Business.

Die Social-Media-Zukunftsthemen 2021

Die Studie Social Media Trends 2021 stellt die wichtigsten Zahlen, Trends, Expertenprognosen und Tipps für das Social Media Marketing zusammen. Dafür wurden aus dem Datenpool von über 60.000 Usern der Social-Media-Automatisierungs-Plattform Blog2Social und der FirstSignals® Analysemethode von pressrelations sowie Interviews mit namhaften Social-Media-Experten ausgewertet.

Die Corona Pandemie hat der Digitalisierung einen weiteren Schub beschwert. VR, Augmented Reality (AR) und Cross Reality (CR) bieten neue Konzepte für Wirtschaft, Arbeitswelt, Kultur und Alltag. Mit Data Mining und KI-Technologien gewinnen Predictive Analytics (Vorhersagen) im Business- und Finanzbereich, aber auch für das Nudging im Marketing neue Bedeutung. KI-gestützte Robo-Advisor helfen bei der Optimierung von Anlagestrategien.

Digitalnomaden, Workation und Telemigration sind nur einige neue Trends, die die Ortsungebundenheit der Digital-Jobs widerspiegeln. Mit dem verteilten Arbeiten im HomeOffice kommen aber auch neue Arbeitsmethoden: WoL (Working-out-loud).

Durch FemTec werden Frauen in den Technologie- und Healthcare Bereichen selbstbewusster und präsenter.

Das sogenannte Splinternet und Deep Fakes zeigen aber auch die Schattenseite der neuen Technologien, die auch neue Möglichkeiten für Fälschungen, Überwachung und Zensur schaffen.

Mit Slow Fashion folgt nun auch die Modebranche dem Megatrend der Slow Food Bewegung hin zu mehr Nachhaltigkeit in Produktion und Handel.

Naturkapital steht im Zentrum der Green Economy und versucht eine umweltökonomische Komponente in den Kapitalfaktor einzubringen.

Diese Zukunftsthemen Buzzwords gehören auf die Watchlist für die Kommunikationsstrategie 2021 und darüber hinaus. Wer sich frühzeitig zu aufkommenden Trend-Themen positioniert, hat gute Chance, sich als Meinungsführer in der jeweiligen Branche zu etablieren und viel Aufmerksamkeit und Reichweite für diese Themen zu erzielen.

Doch es gibt auch weitere Trends und Themen, die die Marketingkommunikation nachhaltig verändern:

Tipps für die Marketing- und Social-Media-Strategie 

Digitale Events

Der Trend zu Digitalen Events wird sich auch im Jahr 2021 fortsetzen. Mit virtuellen Events lassen sich räumliche Grenzen überwinden und neue Zielgruppen erschließen. Livestreams und Hybride Events mit digitalen Interaktionen bieten neue Möglichkeiten für Webinare, virtuelle Messen, Konferenzen und Barcamps. Aber auch Incentives, Kunden-Events und Small-Talk-Runden lassen sich in Form von digitalen Wein-Tastings, Vitual Dinner oder Digital Breaks für die Mittagspause gestalten. Das Business-Netzwerk XING bietet vielfältige Möglichkeiten, digitale Events einfach anzulegen und zu vermarkten und erledigt das komplette Ticketing mit Erfolgsauswertung. Aber auch Facebook, LinkedIn und Twitter stellen zusätzliche Möglichkeiten zur Verfügung, Online-Events zu veranstalten und bekanntzumachen.

Social Selling

Auch im Vertrieb sind neue Konzepte für das Social Selling gefragt. Ausgefallene Messen und Konferenzen erschweren den so wichtigen Kontakt zu Kunden und Interessenten. Der durchschnittliche CEO auf LinkedIn hat über 900 Kontakte und 47 % aller XING-Mitglieder arbeiten in leitender Führungsebene. Aber nichts nervt mehr als plumpe Kaltakquise. Erfolgreicher ist der Aufbau von vertrauensvollen Beziehungen mit mehrwertigen Inhalten. Besonders gefragt sind Wissensbeiträge und Listen mit praktischen Tipps und Tools für die Umsetzung, denn nur so finden die geteilten Inhalte auch zu Kunden und Geschäftspartnern.

Visuals und Story Styling

Neue Funktionen in den sozialen Netzwerken fordern Unternehmen auch kreativ immer wieder neu heraus. Mit Fleets bei Twitter und Reels bei Instagram sind vor allem Video-Formate weiter auf dem Vormarsch. Aber auch Pinterest bietet mit Video-Pins, Story Pins und Collection Pins neue Möglichkeiten für die Präsentation von Produkten und Dienstleistungen. Für 2021 gilt daher, ein besonderes Augenmerk auf die Entwicklung von kreativen Stories und Videos zu setzen.

Cross-Social-Media-Strategien

Um die richtigen Zielgruppen in den Netzwerken zu erreichen, sind viele verschiedene Faktoren entscheidend, die die Reichweite und die Interaktion in den Social-Media-Kanälen beeinflussen können. Die sozialen Netzwerke sind sehr unterschiedlich und werden von verschiedenen Zielgruppen zu unterschiedlichen Zwecken und Zeiten aktiv genutzt.

So sind auch die „Besten Zeiten” zum Posten so unterschiedlich, wie die Netzwerke selbst. Während Frühaufsteher eher auf Twitter, XING und LinkedIn anzutreffen sind, geht es nach der Arbeit eher zu Facebook und Instagram und die Nachtschwärmer sind besonders aktiv bei Reddit und VK.

Auch die Lebenszeit von Social Media Posts kann die Sichtbarkeit von geteilten Inhalten beeinflussen. Während ein Tweet nur ca. 18 Minuten sichtbar bleibt, ist ein Beitrag bei Facebook bis zu 4 Stunden und bei LinkedIn sogar 21 Stunden sichtbar. Eine Anpassung der Frequenz für die einzelnen Netzwerke kann sich daher auch sehr positiv auf die Sichtbarkeit und Reichweite der Inhalte auswirken.

Mehr als die Hälfte (54%) der Social-Media-Nutzer nutzen die Netzwerke auch als Suchmaschine speziell für die Recherche nach Produkten und Marken. Keywords und Hashtags in den Beitrags-Texten und Bildbeschreibungen unterstützen die Zuordnung und Auffindbarkeit der Inhalte. Besonders bei Instagram, Twitter, Pinterest und LinkedIn spielen Hashtags eine große Rolle, seit 2020 steigt die Bedeutung auch bei Facebook. Besonders Pinterest ist inzwischen mehr Suchmaschine als Social-Media-Netzwerk. Mit Kreativität und Pinterest-SEO kann sich das Netzwerk schnell in einen wirkungsvollen Traffic-Lieferanten für Ihr Business verwandeln. 

Die Ausrichtung der Beiträge an die jeweiligen Besonderheiten der Zielgruppe und Netzwerke sind daher das Fundament einer erfolgreichen Cross-Social-Media-Strategie. Social Media Tools die eine individuelle Anpassung der jeweiligen Kommentare und eine nach Netzwerken optimierte Format- und Zeiteinstellung bereitstellen, können eine große Unterstützung bei der Planung und Automatisierung von Cross-Social-Media-Strategien bieten.

Die komplette Social Media Studie mit allen Zukunftsthemen, Prognosen und Experten-Tipps (97 Seiten) kostenlos zum Download

Unsere Autorin


Melanie Tamble, Geschäftsführerin Adenion GmbH

Aufmacherbilde / Quelle / Lizenz
Photo by Merakist on Unsplash

KI im Weltraum

Dr. Alen Berta, Head of Advanced Analytics Knowledge Hub bei CGI AI & Smart Data Practice in Deutschland im Interview mit der TREND-REPORT-Redaktion

Herr Dr. Berta, welche Möglichkeiten haben die neuen Technologien rund um KI, um Satellitendaten effizient auszuwerten?

Heute fliegen mehr als 3.000 Satelliten über unseren Köpfen, die täglich jeden Punkt der Erde abbilden können. Einige dieser Satelliten senden einen kontinuierlichen Datenstrom, der die Erde in Auflösungen von 20 cm bis zu einigen hundert Metern abbildet. Der Mensch alleine kann diese enorme Datenmenge mit bloßem Auge nicht durchsuchen oder analysieren. Das liegt nicht nur an der schieren Datenmenge, sondern auch daran, dass unser Auge nur einen kleinen Teil des elektromagnetischen Spektrums (EM-Spektrum) sehen kann, das durch die Regenbogenfarben dargestellt wird. Große Teile des EM-Spektrums wie Nahinfrarot, kurzwelliges Infrarot oder Mikrowellen, die von Satelliten erfasst werden, werden nicht voll ausgeschöpft. Durch den Einsatz von KI können jedoch auch diese Daten ausgewertet und dadurch bessere Vorhersagen getroffen werden, die deutlich präziser und detaillierter als in der Vergangenheit sind.

Dr. Alen Berta, Executive Consultant im Bereich Space und Head of Advanced Analytics Knowledge Hub der AI und Smart Data Practice bei CGI in Deutschland (Quelle: CGI)

Welche Anwendungsfelder und Einsatzszenarien sind in Zukunft denkbar?

Satellitendaten und entsprechende KI-gestützte Analysen können und werden von Behörden und Unternehmen aus unterschiedlichsten Branchen wie Versicherungen, Land-, Forst- und Energiewirtschaft oder dem Transportwesen genutzt.

Energieversorgungsunternehmen und Bahnnetzbetreiber etwa setzen die Bilddaten ein, um Bäume und Vegetationen zu erkennen, die eine Gefahr für ihre Infrastruktur darstellen. Auch für Pipelinebetreiber im Gas- und Ölsektor sind Daten aus dem All die Basis, um potenzielle Schadensquellen und kritische Veränderungen im kleinskaligen Bereich rechtzeitig zu erkennen.

Satellitenbasierte Lösungen können vor allem auch für die effiziente und nachhaltige Nutzung von Land- und Bodenressourcen eingesetzt werden. Sie liefern Informationen für die Stadt-, Verkehrs- und Grünflächenplanung, für die Landwirtschaft oder für das Forst- und Wassermanagement. Nicht zuletzt helfen satellitengestützte Daten auch bei Naturkatastrophen, um Hilfsmaßnahmen zu optimieren, etwa bei Waldbränden, Überschwemmungen, Dürren oder Erdbeben.

Welche Rolle spielt dabei das maschinelle Lernen (ML-Algorithmen)?

AI (Artificial Intelligence), ML (Machine Learning) und verwandte Algorithmen können verwendet werden, um Zeitserien zu analysieren, Muster in Datensätzen zu erkennen oder Beziehungen zwischen verschiedenen Datensätzen zu identifizieren. Dabei wird zunächst ein Algorithmus durch Trainingsdaten angelernt, um anschließend ein Modell zur Nutzung dieser Daten zu generieren.

Der Einsatz von KI und ML unterstützt zum Beispiel die Transformation von Satellitenbildern in detailgenaue und aktuelle Straßenkarten, die etwa Ersthelfer bei größeren Katastrophen wie Erdbeben benötigen. Grundlage dafür sind Machine-Learning-Algorithmen, die mit Trainingsdaten angelernt und zur Berechnung von Bild-zu-Bild-Transformationen verwendet werden. Die Trainingsdaten sollten dabei eine möglichst große Anzahl an Satellitenbildern umfassen. Durch den Einsatz der KI-Technologie können so aktuelle Veränderungen der Straßentopologie kurzfristig in Karten abgebildet werden.

„Am Einsatz von KI bei der Erdbeobachtung wird kein Weg vorbeiführen, um die benötigten Informationen kontinuierlich zu analysieren und zu extrahieren.“

Dr. Alen Berta

Welche Lösungen bieten Sie in diesem Kontext an?

CGI hat die Lösung SAT2MAP entwickelt, mit welcher Straßenkarten aus Satellitenbildern schnell und genau generiert werden können. Sie nutzt CycleGAN (Cycle consistent Generative Adversarial Network) und Pix2Pix-Algorithmen, die eine Bild-zu-Bild-Transformation mit ungepaarten oder gepaarten Trainingsdaten durchführen. Sobald das Training abgeschlossen ist, kann ein erstelltes Modell auch in Bereichen angewendet werden, die nicht beim Training verwendet wurden.

Welche Voraussetzungen benötigen Technologien rund um KI, wenn es z.B. um die Erdbeobachtung geht?

Voraussetzung für den Einsatz von KI ist die Nutzung von Lösungen mit hoher Rechenleistung, hohem Automatisierungsgrad und effizienten Datenverarbeitungsfunktionen, die aktuelle und valide Informationen zeitnah bereitstellen. Eine solche Lösung bietet CGI mit GeoData360, einer Plattform für die Bereitstellung von Erdbeobachtungs- und Geo-Services. GeoData360 ist als Plattform-as-a-Service konzipiert und bietet eine Big-Data-Verarbeitungsmöglichkeit für Services, die auf Bild- und Geo-Daten wie Klimadaten oder meteorologischen Daten basieren.

Inwieweit werden die Datenmengen in Zukunft anwachsen und umfangreicher werden?

Sicher ist, dass das Datenvolumen exponentiell ansteigen wird. Dazu muss man sich nur vergegenwärtigen, welche Datenmengen täglich gesammelt werden: Die europäische Raumfahrtbehörde und die NASA sammeln mit ihren Satelliten fast 30 Terabyte an Daten, während kommerzielle Anbieter von Satellitenbildern weitere rund 100 Terabyte hochauflösende Daten liefern. Im Zuge der technologischen Weiterentwicklung werden auch viele neue Missionen geplant. Zudem starten neue Satelliten mit bestehenden Sensoren, um die Überflugrate zu erhöhen. Auch ganze Flotten von Klein-/Nanosatelliten werden jetzt in regelmäßigen Abständen gen Himmel geschickt.

Angesichts dieser Datenmengen wird noch einmal deutlich, dass am Einsatz von KI bei der Erdbeobachtung kein Weg vorbeiführen wird, um die benötigten Informationen kontinuierlich zu analysieren und zu extrahieren.


Zur Person


Dr. Alen Berta ist Head of Advanced Analytics Knowledge Hub bei CGI AI & Smart Data Practice in Deutschland. Als Executive Consultant ist er in der CGI Space Business Unit in Darmstadt tätig und bringt dabei mehr als 10 Jahre Erfahrung in den Bereichen Remote Sensing und Earth Observation (EO) mit. Er unterstützt Kunden aus verschiedenen Sektoren bei der Nutzung von Satellitendaten und der Entwicklung von EO-Daten nachgelagerter Lösungen sowie Applikationen. Seine Kundenreferenzen reichen von der ESA über öffentliche Verwaltungen bis hin zu Unternehmen aus den Bereichen Transport, Energie und Landwirtschaft.


Inwieweit werden die Satelliten selbst schon mit KI-Technologien ausgerüstet und warum?

KI wird nicht auf Kontrollzentren oder Cloud Processing Platforms auf der Erde beschränkt bleiben, sie wird auch zunehmend am Edge, also direkt am Satelliten, zum Einsatz kommen. Mit anderen Worten: Der dezentrale IT-Ansatz des Edge Computing hält Einzug in die Satellitentechnik. Der Hauptvorteil ist, dass die Datenverarbeitung direkt an der Datenquelle erfolgt, somit müssen weniger Daten an die Erde zur Analyse übertragen werden.

Derzeit entwickelt CGI die PhiSat-2 Mission als Teil eines hochmodernen Programms der Europäischen Weltraumorganisation (ESA). Bei dieser geplanten Mission handelt es sich um einen neuartigen EO-CubeSat, der in der Lage ist, KI-Apps auszuführen, die am Boden entwickelt und dann während des Flugbetriebs hochgeladen, aktualisiert oder bedient werden können. Damit halten Apps erstmals Einzug in den Weltraum. Was bedeutet das konkret? Zum Beispiel wird eine der Apps ­– entwickelt von CGI – in der Lage sein, die oben erwähnte automatische Straßennetzextraktion durchzuführen. Statt aber das gesamte Bild zu übertragen, wird durch den Einsatz der App lediglich die Informationen über die extrahierten Straßen gesendet. Dadurch wird das Datenvolumen drastisch reduziert.

https://www.de.cgi.com/de

Aufmacherbild / Quelle / Lizenz
Bild von Arek Socha auf Pixabay

KI und Demokratisierung

Bernd Rodler, Vorsitzender des Verwaltungsrats der VNC AG in Zug im Hintergrundgespräch mit der TREND-REPORT-Redaktion.

Herr Rodler, wie kann Open Source den Weg zu einer besseren, nachhaltigeren und demokratischeren KI ebnen?

KI steckt noch in den Kinderschuhen. Diese Tatsache spielt eine wichtige Rolle, wenn wir über die Tragweite von KI sprechen, denn wir experimentieren noch sehr viel herum, um deren Grenzen und Potenziale auszuloten. Jeder will das Beste aus der Software herausholen, dabei passieren aber auch Fehler, die heute schon eine durchaus gesellschaftliche Dimension haben – zum Beispiel dann, wenn KI unfair über Einstellungskriterien oder Kreditvergaben entscheidet. Andererseits kann KI auch missbraucht werden, etwa bei Deepfakes oder der automatischen Gesichtserkennung einer ganzen Bevölkerung, wie es zum Beispiel in China passiert.

Der Ruf nach dem Staat, KI zu regulieren, greift möglicherweise zu weit. Aber genau das ist der Inhalt des Gesetzesvorschlags, den der US-Senat bereits 2017 vorgestellt hat. Vier Jahre später hat sich dann auch die EU mit Chancen und Risiken von KI befasst und die EU-Kommission hat im Frühjahr 2021 ebenfalls einen Gesetzesentwurf zur KI-Regulierung vorgestellt. Bestimmte Anwendungen werden darin verboten, riskante Anwendungen sollen genehmigungspflichtig sein.

Das ist gut und schön. Was wir am Ende des Tages aber brauchen, ist eine KI-Software, die für alle, nicht nur für staatliche Stellen transparent sein muss: die Tragweite von KI ist einfach zu brisant als dass wir uns ausschließlich auf eine behördliche Überprüfung im Verborgenen verlassen können. Open Source ist deshalb eine wichtige Voraussetzung, denn damit kann jeder beliebige Bürger eine Anwendung und deren Prozesse jederzeit begutachten; auf dieser Basis entsteht dann, je nach Notwendigkeit, ein öffentlicher Diskurs darüber. Was ist demokratischer als diesen Weg zu gehen?

„Bei KI greifen Selbstverpflichtung und Gesetze zu weit“

Bernd Rodler, Vorsitzender des Verwaltungsrats der VNC AG in Zug

Wie kann das nötige Vertrauen in maschinengesteuerte, automatisierte Anwendungen aufgebaut werden und wie kann sichergestellt werden, dass ethische Kriterien zum Einsatz kommen?

Zunächst einmal müssen wir davon ausgehen, dass Unternehmen, die KI-Anwendungen entwickeln, das Thema Ethik nicht unbedingt in den Vordergrund stellen – sei es, weil sie Ethik nicht auf dem Radar haben oder weil ethische Aspekte im Einsatz sogar einschränkend sein könnten. Zweitens herrscht auch hier ein weltweiter Wettbewerb: Wer das meiste aus einer Anwendung herausholt, gewinnt – und da ist Ethik meist nur hinderlich.

Können wir also auf die Selbstverpflichtung von Unternehmen, Industrien und sogar Staaten vertrauen? Natürlich nicht.

Können wir auf eine regulierende Gesetzgebung vertrauen, die das Thema Ethik berücksichtigt? Vielleicht. Die EU war hier schon aktiv und hat ethische Richtlinien für vertrauenswürdige KI von einer unabhängigen Expertengruppe entwerfen lassen. Aber was sind EU-weite Richtlinien oder Gesetze in internationalen Märkten wert, in denen damit zu rechnen ist, dass auch Staaten ihre eigene, vielleicht unethische Agenda verfolgen?

Eine selbstregulatorische Dynamik kann nur dann entstehen, wenn Anwendungen jederzeit von beliebigen Personen oder Institutionen eingesehen und geprüft werden können. Sie ist nur auf der Basis von Open Source möglich.

Inwieweit kann Open-Source-Software dazu beitragen, den Digital Divide (die digitale Kluft zwischen Digitalkonzernen und dem Rest der Welt) zu verringern?

Das ist in erster Linie eine ordnungspolitische Frage, keine technisches Problem. Es gibt Digitalkonzerne, die wie Microsoft auf Closed Source setzen; andere sind mit Open Source groß geworden, Beispiel Google. Es kommt darauf an, dieser Marktmacht etwas entgegenzusetzen. Und dabei kann Open Source helfen.

Spannend könnten deshalb Initiativen wie Gaia-X sein, die einen Gegenpol zu den Digitalgiganten setzen können und Nutzern ein Stück ihrer digitalen Souveränität wiedergeben. Ohne den Einsatz von Open Source sind sie kaum realistisch umsetzbar. Damit wären auch für solche Projekte die beschriebenen Prüf- und Regulationsoptionen gegeben, die durch den Einsatz von Open Source möglich sind. Und das könnte tatsächlich dazu führen, die digitale Kluft zu verringern.

Aufmacherbild / Quelle / Lizenz
Photo by Tingey Injury Law Firm on Unsplash

Future Studio Storm

Don’t predict the future, create it!

Die Strategen der globalen Digitalagentur Valtech sagen die Zukunft voraus und erklären inwiefern die Kundenbindung langfristig durch die Pandemie beeinflusst worden sein wird.

Erfahren Sie, welche zukünftigen Auswirkungen die Pandemie auf den Handel haben wird und wie Sie Ihr Unternehmen darauf vorbereiten können. Die Experten des Valtech Future Studios präsentieren in dem virtuellen Live Event zwei mögliche Zukunftsaussichten für den Handel und erklären, wie man sich auf beide Eventualitäten vorbereiten kann, um in jeglicher Hinsicht wettbewerbsfähig zu bleiben

Nach der Storm-Session gibt es optionale Breakout-Sessions für alle, die daran interessiert sind, die vorgestellten ‚Proof of Concepts‘ (POCs) weiter zu erforschen und Fragen zu Technologien zu stellen, die für die zukünftige Customer Journey Ihrer Kunden entscheidend sein werden.

Fakten zur Veranstaltung

Wann?

09. Juni 2021 – 15.00h CET

Wo?

90-minütige, virtuelle Veranstaltung
live aus dem artifiziellen Valtech Future Studio (VFS) Headquarter
auf einer digitalen Veranstaltungsplattform

Seien Sie dabei und registrieren sich!

>>> Zur Anmeldung <<<

oder hier

https://futurestudio.valtech.com/events/future-studio-storm-europe/


Gero Grebe setzt auf nutzerzentrierte Ansätze mit neuen Technologien für Erfolg im digitalen Wandel.

Mehr zu den Zukunftsvisionen der Digitalagentur erläutert Gero Grebe, Mitglied im globalen Expertenrat des Valtech Future Studios im Interview unter:
https://www.trendreport.de/mit-smart-contracts-in-die-zukunft

Weitere Details finden Sie unter:
https://futurestudio.valtech.com/

Board Day 2021

„Optimieren Sie Ihre Unternehmenssteuerung, um Disruptionen zu meistern“

Herr Eickeler, was erwartet Ihre Kunden und Besucher auf dem Board Day 2021?

Das Motto unseres diesjährigen – virtuellen – Board Days ist „Optimieren Sie Ihre Unternehmenssteuerung, um Disruptionen zu meistern“. Denn besonders in disruptiven Zeiten, wie wir sie jetzt erleben, sind schnelle und vorausschauende Entscheidungen essenziell für den Erhalt der Wettbewerbsfähigkeit. Der Board Day geht diesmal über zwei Tage.

Der erste Tag steht allen Interessenten offen und bietet den Besuchern Inspiration sowie handfeste Ideen, wie sie Erkenntnisse aus den wachsenden Datenmengen gewinnen können. Unsere Kunden und Partner geben dabei Einblicke in ihre konkreten Projekte und zeigen, wie Sie moderne Unternehmenssteuerung mit Board umsetzen und welche Ergebnisse sie damit erzielt haben. Der zweite Tag ist für unsere Kunden reserviert. Hier geben wir tiefere Einblicke, welche neuen Möglichkeiten sich durch unsere neue Spring 2021 Version der Board-Plattform eröffnen. Wir zeigen Tipps und Tricks, wie die Kunden das Beste aus der Board Software holen können.

Welche Vordenker und Referenten konnten Sie für Ihre Veranstaltung gewinnen?

Ansgar Eickeler

Ich freue mich sehr, dass wir auch dieses Jahr wieder sehr interessante und hochkarätige Referenten für unseren Board Day begeistern konnten. Die Bühne bereiten wird der international bekannte Wirtschaftsphilosoph Anders Indset, der neues Denken und Handeln fordert, um Wirtschaft und Gesellschaft aus der Krise zu führen und auf ein neues Level zu heben.

Cilem Knauf, CFO der Bauer Media Group sieht Controller und operative Einheiten als handlungsstarke Tandems und berichtet über ihre Vision eines zukunftsorientierten Finanzwesens. Elke Rehr, Senior Manager Global Demand Planning bei Villeroy und Boch stellt die Digitalisierungsstrategie im Bereich Global Demand Planning vor und zeigt, wie sich das Unternehmen für die wandelnden Anforderungen des Marktes durch Steigerung der eigenen Innovationskraft, Effizienz, Anpassungsfähigkeit und Flexibilität wappnet.

Dr. Lukas Zimmer, Senior Manager Business Analytics bei PWC spricht über zukunftsfähige Unternehmenssteuerung mit datenbasierten Entscheidungen am Beispiel einer Produktportfolio-Simulation in der Automobilbranche. Abgerundet wird das Ganze dann durch eine Podiumsdiskussion, bei der die Themen noch mal hinterfragt und vertieft werden. Dies sind nur einige Beispiele aus unserem abwechslungsreichen Programm. Sie sehen, dass es sich wirklich lohnt, den 15. Juni dafür zu reservieren. Das vollständige Programm finden Sie unter https://www.board-day.com/2021/germany/ .

Welche Plattform nutzen Sie, um die Menschen im Netz zu verbinden?

Der aktuellen Situation geschuldet, findet unser Board Day natürlich online statt. Wir setzen, wie schon im letzten Jahr, auf die bewährte Plattform Bizzabo. Natürlich sind persönliche und direkte Kontakte durch nichts zu ersetzen. Aber Bizzabo versetzt uns in die Lage, die Beteiligten so weit wie möglich zusammenzubringen. So werden die Teilnehmer gebeten, ihr Profil auszufüllen. Das hilft, Teilnehmer mit gleichen Interessen oder aus der gleichen Branche zu identifizieren und anzusprechen.

Dann kann man sich in den Communities mit den Referenten, Board-Mitarbeitern oder mit den anderen Teilnehmern verabreden und virtuell treffen. Natürlich kann man immer über die Chat-Funktion Fragen und Anmerkungen zur Veranstaltung loswerden. Aber auch diese Form der Veranstaltung ist ja Teil der Digitalisierung, die durch die Pandemie ordentlich angeschoben wurde und viele der Teilnehmer gehen inzwischen sehr selbstverständlich mit diesen Möglichkeiten um. Es wird auf jeden Fall eine sehr interaktive Veranstaltung für die Teilnehmer.


Fakten zur Veranstaltung

Wann: 15. – 16. Juni 2021

Wo: virtuell
>>> Hier geht es zur Anmeldung


Photo by Dayne Topkin on Unsplash

Hybrid Cloud – Gamechanger oder der Weg in die Abhängigkeit?

Dies ist ein Gastbeitrag von Marius Fehlemann, BitBone AG

Hybrid Cloud – schon wieder so ein Buzzword, das viele nutzen, aber wenige wirklich verstehen. Was steckt denn nun eigentlich dahinter? Diese Frage höre ich in der letzten Zeit häufiger und hoffe, dass der folgende Blog zur Klärung beitragen kann. Denn aus meiner Sicht steht fest (Achtung: Spoiler): Die Hybrid Cloud kann ein echter Gamechanger sein und muss nicht den Weg in eine dauerhafte Abhängigkeit bedeuten. Doch man muss wissen, wie das gelingt.

Bevor ich jedoch darauf eingehe, was man alles mit der Technologie machen kann und inwiefern das nützlich ist oder eben nicht, klären wir zunächst ein paar Grundbegriffe. Wem ich dabei nichts Neues erzähle, der kann den nächsten Absatz überspringen.

Hybrid Cloud einfach erklärt

Unter Hybrid Cloud versteht man, wie der Begriff Hybrid schon erahnen lässt, den Zusammenschluss von zwei verschiedenen IT-Technologien – die der Private Cloud und die der Public Cloud. Dabei handelt es sich um eine sehr abstrahierte Beschreibung von Rechenzentren und deren Standort. Eine Private Cloud ist also im Grunde genommen das eigene Rechenzentrum eines Unternehmens wie beispielsweise das der bitbone AG. Auf dieses Rechenzentrum hat nur die bitbone AG Zugriff, daher ist es das private Rechenzentrum oder eben die Private Cloud. Wenn wiederum ein Unternehmen wie beispielsweise Amazon Ressourcen auf seinem Rechenzentrum nach außen frei gibt und diese an potenzielle Kunden vermietet, so spricht man von einer Public Cloud – denn diese ist für jeden öffentlich nutzbar. Ich kann also mein Rechenzentrum um Ressourcen eines mir fremden Rechenzentrums erweitern und habe somit ein hybrides System, mit anderen Worten eine Hybrid Cloud.

Es stellt sich dabei jedoch oft die Frage, warum Unternehmen ihr kontrolliertes Umfeld, also ihr eigenes Rechenzentrum, verlassen oder um eine unbekannte und möglicherweise unsichere Infrastruktur erweitern sollten. Ja, warum? Es gibt unzählige Szenarien für die Nutzung eines Hybrid-Systems. Betrachten wir zunächst einmal die Stärken beider Welten.


Mit der Hybrid Cloud die Vorzüge beider Welten nutzen und zum Gamechanger werden lassen

Beispiel 1: von Skalierbarkeit profitieren

Die Systeme wachsen schnell, und von heute auf morgen wird in der Anwendungsentwicklung mehr Speicherplatz benötigt. Die Entwickler werden unruhig: Drei Wochen auf eine neue Testmaschine zu warten, ist für sie keine Option. Und genau in diesem Moment wird die Hybrid Cloud zum Gamechanger. Mit einem Klick können in der Hybrid Cloud neue Ressourcen hinzugezogen werden. Geschwindigkeit und Skalierbarkeit begeistern die Entwickler. Genauso schnell und einfach können die Cloud-Ressourcen auch wieder reduziert werden, sobald der Bedarf sinkt. Bezahlt wird am Ende nur für die tatsächliche Nutzung der zusätzlichen Kapazität.

Beispiel 2: von Robustheit und Agilität profitieren

Der Zugriff auf das eigene IT-Netzwerk kann schon mal hängen. Das ist unschön, aber kommt vor. Und auch hier kann die Hybrid Cloud wieder zum Gamechanger werden – und zwar dann, wenn ein Spiegel der eigenen IT in der Public Cloud betrieben wird. Das ist natürlich auch umgekehrt möglich: Wenn die Internetleitung wegbricht, geht die Arbeit über die interne IT-Infrastruktur weiter. Die Möglichkeiten, die sich durch eine Hybrid-Cloud-Strategie ergeben, sind schier unbegrenzt
und die Vorteile der Hybrid Cloud (Skalierbarkeit, Robustheit und Agilität) sind definitiv ein Gamechanger. Aber was gibt es zu beachten, um nicht in eine ungewollte Abhängigkeit zu gelangen?

Mit der Hybrid Cloud den Weg in die Abhängigkeit umgehen

Unternehmen sollten in ihrer Hybrid-Cloud-Strategie die folgenden drei Aspekte berücksichtigen:

  • Sensible Daten sollten im eigenen Unternehmen belassen werden und es muss sichergestellt sein, wer Zugriff darauf hat.
  • Unabhängigkeit bewahren: Gerade im Bereich der Platform-as-a-Service (PaaS)-Angebote sollten Unternehmen aufpassen und sich darüber bewusst sein, dass man sich dabei in eine Abhängigkeit, den so genannten Vendor Lock-in, begibt. Um das zu vermeiden, wählt man am besten Open-Source-Softwarelösungen, die sich auf allen Infrastrukturen gleich installieren und betreiben lassen. So steht einem Cloud-Exit oder einer Cloud-Migration nichts im Weg.
  • Kosten im Blick behalten: Extra-Services können diese schnell in die Höhe treiben. Wer sich vorher schlau macht, erlebt keine bösen Überraschungen.

Ergo: Wer gut überlegt und strategisch an die Nutzung von Cloud-Lösungen geht, wird von den Vorteilen der Hybrid Cloud profitieren und den Weg in eine Abhängigkeit vermeiden.

Weitere Informationen unter
https://www.bitbone.de

Über den Autor:
Marius Fehlemann
Enterprise Open Solutions Expert
+49 931 250993-149
fehlemann@bitbone.de
https://de.linkedin.com/in/marius-fehlemann

Vier Säulen der Customer Experience

von Kathleen Jaedtke

Die vier Säulen der Customer Experience: So stellen Unternehmen das Kundenerlebnis in den Fokus

Selten war eine Plattitüde so treffend wie diese: Beständig ist nur der Wandel. Dieser Spruch bewahrheitete sich während der Corona-Krise gleich mehr als einmal. Das Jahr 2020 hat ganze Branchen auf den Kopf gestellt, unseren Arbeitsalltag und unser Einkaufsverhalten geändert. Für viele Unternehmen bedeutete das eine Umorientierung von jetzt auf gleich, um die Bedürfnisse ihrer Kundschaft zu erfüllen. „Digital first“ oder sogar „Digital only“ lautete die Aufgabe. Die Wirtschaft hat in den vergangenen vierzehn Monaten mehr Veränderungen erlebt als im letzten Jahrzehnt. Ein Zurück gibt es nicht mehr. Das digitale Kundenerlebnis muss nun im Mittelpunkt stehen. Wie man das umsetzt, erklärt Kathleen Jaedtke, Regional Marketing Lead DACH bei HubSpot.

Kathleen Jaedtke
(Bild: HubSpot)

Customer Experience als Wettbewerbsvorteil

Wir befinden uns mitten im Zeitalter der Kundschaft. Heutzutage können Interessierte an Produktinformationen gelangen, Preise oder Anbieter vergleichen. Der Löwenanteil bei der Kaufentscheidung, ob von Endkonsumenten oder Geschäftskunden, passiert, bevor ein Anbieter angesprochen wird. Dementsprechend haben sich die Erwartungen verändert und Unternehmen müssen mit ihren Produkten und Dienstleistungen neuen Anforderungen genügen. Denn die Kundschaft will sich auf einfache Weise informieren und kaufen, schnell und unkompliziert Kontakt aufnehmen und Hilfestellung bekommen. Dabei sollte uns immer gewahr sein, dass die Klientel, die eine schlechte Erfahrung gemacht hat, einfach zum nächsten Anbieter geht. Die Konkurrenz ist immer nur einen Klick entfernt.

Die Kernkompetenz von Unternehmen in diesem „Zeitalter der Kundschaft“ muss demzufolge in der Customer Experience liegen, also der Wahrnehmung aller Interaktionen mit einem Anbieter aus Kundensicht. Egal, ob es sich dabei um das Produkt handelt, die Website, einen Kontakt mit dem Sales-Team oder der Buchhaltung. Alle Bereiche müssen harmonisch zusammenarbeiten, um ein gelungenes Kundenerlebnis zu schaffen.

Dass Customer Experience den Unterschied macht, sieht man an disruptiven Unternehmen, die ganze Branchen auf den Kopf stellen und sehr erfolgreich sind, eben weil sie ihre Dienstleistungen oder Produkte mithilfe von Technologie im Sinne des Kunden denken. Gute Beispiele sind Netflix, Sephora oder Amazon Web Services. Customer Experience ist heutzutage ein Wettbewerbsvorteil. Kunden sind sogar bereit, für ein Produkt bis zu 16 Prozent mehr auszugeben, wenn sie eine positive Erfahrung mit dem Kauf oder der Nutzung verbinden (PwC, Future of Customer Experience Survey, 2017/2018).

Die Kunden im Fokus: So bauen Unternehmen Customer Experience als Kernkompetenz auf

Customer Experience bedeutet, in hohem Maße auf die Kundschaft zu reagieren. Damit das funktioniert, müssen Unternehmen Strukturen schaffen, um das Kundenerlebnis einfach anzupassen und weiterzuentwickeln. Die Etablierung und Aufrechterhaltung solcher Strukturen ist Kunst und Wissenschaft zugleich.

Der „künstlerische“ Teil ist für jedes Unternehmen einzigartig. Hierbei geht es darum, die Customer Experience in die DNA der Firma zu bringen und in die Unternehmenskultur zu integrieren. Das ist die Grundlage, um das Kundenerlebnis in den Mittelpunkt zu rücken. Die Customer Experience wird Teil der Unternehmenswerte, die alle Mitarbeitenden verinnerlichen. Bei HubSpot haben wir einen Nordstern, der „Solve for the Customer“ heißt. Von diesem Leitsatz aus denken, entwickeln und handeln alle Mitarbeitenden. Wie Firmen die Wahrnehmung und Meinung der Kundschaft ins Unternehmen tragen, kann ganz unterschiedlich sein. Beispiele sind die Vorstellung von Kennzahlen wie Customer Satisfaction Score, Net Promoter Score oder Customer Effort Score oder qualitatives Feedback durch Gesprächsrunden mit Kunden und Kundinnen, um herauszufinden, wo Probleme liegen.

Der „wissenschaftliche“ Teil der Customer Experience ist die interne Umsetzung im Unternehmen, die Methodik und Disziplin erfordert.

Sie basiert auf vier Säulen:

Abgestimmte Teams: Verantwortlichkeiten schaffen

Es ist wichtig, dass alle Teams auf die Customer Experience hinarbeiten und eine zentrale Gruppe von Mitarbeitenden das Kundenerlebnis abteilungsübergreifend denkt und verantwortet. Das kann je nach Organisationsstruktur eines Unternehmens unterschiedlich aussehen, beispielsweise findet sich der oder die Chief Customer Officer mit Köpfen aus Marketing, Sales und Kundensupport zusammen. Die Gruppe sollte Abstimmungen und Zeiträume eng takten, um Verantwortlichkeit zu schaffen.

Abgestimmte Strategie: Kundenorientiert statt funktionsorientiert

In den Abteilungen, die Kundenkontakt haben, meist sind dies Marketing, Sales und Support, ist normalerweise jedes Team auf den Teil des Kundenerlebnisses konzentriert, für den es direkt verantwortlich ist.

Silos versus kundenzentrierte Abteilungen (Bild: HubSpot)

Abb. 1: Wer Marketing, Sales und Kundenservice mit dem Ziel einer gelungenen Customer Experience ineinandergreifen lassen will, muss häufig feststellen, dass die unterschiedlichen Abteilungen in Silos arbeiten. Eine neue kundenzentrierte Strategie muss her. 

Dieser funktionsorientierte Ansatz ist jedoch konträr zu einer ganzheitlichen Customer Experience. Stattdessen sollten alle Teams gemeinsam an einem Strang ziehen und eine abteilungsübergreifende Strategie für die Customer Experience haben. Um diesen kundenorientierten Ansatz zu etablieren, helfen Operations Manager, die nicht nur Prozesse, Daten und Tools in ihrer Abteilung zum Wohl der Kundschaft einsetzen, sondern auch abteilungsübergreifend zusammenarbeiten (Abb. 2).

Funktionsorientierte versus kundenorientierte Strategie (Bild: HubSpot)

Abb. 2: Funktionsorientierte versus kundenorientierte Strategie: Verantwortliche im Bereich Operations müssen für ein besseres Kundenerlebnis abteilungsübergreifend zusammenarbeiten

Abgestimmte Systeme: Prozesse, Tools und Daten synchronisieren und integrieren

Abgestimmte Teams und Strategien sind zum Scheitern verurteilt, wenn es keine abgestimmten Systeme gibt. Denn nur durch benutzerfreundliche Technologie können die Teams eine gelungene Customer Experience überhaupt umsetzen. Prozesse müssen nahtlos ineinandergreifen und automatisiert ablaufen, Tools müssen integriert und Kundendaten konsistent sein. Ein System, wie eine Customer-Relationship-Management(CRM-)Plattform kann einen Eckpfeiler bilden, allerdings nur, wenn alle Abteilungen diese nutzen und Daten einspeisen. Denn davon hängt auch der Automatisierungs- und Personalisierungsgrad der Kundenkommunikation ab. Hier zwei Beispiele: Ein Anruf beim Kundenservice sollte den Inhalt von Marketingbotschaften dynamisch verändern. Eine Ansammlung von Besuchen auf einer Website sollte den Vertriebsansatz und die Priorisierung von Aktivitäten beeinflussen.

Idealerweise sind Systeme flexibel und wachsen mit den Geschäftsanforderungen mit. Egal, ob es um mehr Kundendaten, neue Tools, die Anpassung von Workflows oder neue Marketing-Automatisierungen geht.

Abgestimmte Anreize: Einheitliche Ziele und Kennzahlen einführen

Die letzte Säule der Customer Experience sind die abgestimmten Anreize innerhalb der Abteilungen eines Unternehmens. Oft gibt es Spannungen zwischen den Units, weil die Teams ihre eigenen Ziele und Anreize haben. Ein Beispiel: Sales bekommt Provisionen für Neugeschäft, Customer Success soll Bestandskunden entwickeln. Eine mögliche einheitliche Kennzahl wäre beispielsweise Revenue Retention (Umsatzerhalt). Sie hilft Sales- und Customer-Success-Teams dabei, qualitativ hochwertige, gut passende Kunden zu finden und ihnen beim Wachstum zu helfen. Ein anderer Ansatz, den wir ebenfalls selbst bei HubSpot nutzen, ist den NPS (Net Promoter Score) nicht mehr im Customer-Success-Team zu verankern, sondern im Produktteam. Denn Änderungen am Produkt haben einen direkten Einfluss auf die Weiterempfehlungsrate. Durch einheitliche oder aufeinander aufbauende Ziele und Metriken bleibt der Fokus stets auf die Customer Experience ausgerichtet. Denn Unternehmen sind erfolgreich, wenn ihre Kundschaft es ist.

Fazit

Um ein nahtloses Kundenerlebnis zu schaffen, sollten Unternehmen kurzfristige Strategien hinterfragen, Customer Experience als Kernwert etablieren und in alle Teams bringen. Wichtig ist, abteilungsübergreifendes Denken zu fördern. Was in einem Teil des Kundenerlebnisses passiert, hat direkte Auswirkungen auf andere Bereiche. Unternehmen müssen langfristig agieren, die Zufriedenheit oder den Erfolg der Kundschaft priorisieren und kundenorientiert handeln. Dann werden sie vom Zeitalter der Kundschaft profitieren. <<

Lesen Sie Teil I : Was wollen Kunden wirklich?

www.hubspot.de

Kathleen Jaedtke

Kathleen Jaedtke ist Marketingexpertin, Autorin und Sprecherin. Die Diplom-Volkswirtin leitet als Regional Marketing Lead DACH ein deutschsprachiges Team von Marketern bei der internationalen CRM-Plattform HubSpot. Vor ihrer Tätigkeit bei HubSpot hat sie die Content-Marketing-Aktivitäten für Deutschland, Österreich und die Schweiz bei Zalando geleitet und mehrere internationale SEO-Teams erfolgreich aufgebaut. Seit Mai 2020 ist sie Dozentin im Rahmen der Weiterbildung SEO Manager*in an der Technischen Hochschule Köln. 

Kontaktieren Sie die Autorin

Aufmacherbild / Quelle / Lizenz
Photo by Sharon McCutcheon on Unsplash

Globale Lieferketten brauchen ein neues Betriebssystem

Gastbeitrag von Christian Lanng

Wie der Handel mittels Digitalisierung sich eine krisensichere Lieferkette und Lieferantenbasis schafft.

Seit Jahrzehnten dominieren globale Lieferketten, die auf maximale Kosteneffizienz ausgelegt sind, den Welthandel. Wie hoch getunte Rennwagen sind diese komplexen Ökosysteme auf Leistung unter vertrauten und vorhersehbaren Bedingungen optimiert.  Aber wenn etwas Unerwartetes passiert, schneiden sie nicht gut ab. Als dann Covid-19 auftauchte, war das so, als würde man von einem Formel-1-Auto verlangen, ein Offroad-Rennen zu gewinnen.

Die Betreiber der Lieferkette wurden von der Pandemie auf dem falschen Fuß erwischt. Durch die begrenzte Transparenz in komplexen und ausgedehnten Lieferkettennetzwerken bekamen viele von den Unterbrechungen in ihren Lieferketten nichts mit – bis es zu spät war. Und da die Einkäufer ihre Aktivitäten einschränkten, waren die Lieferanten gezwungen, ihre Kapitalreserven aufzubrechen.

Volatilität als „neue Normalität“

Mehr als ein Jahr nach den ersten Lockdowns gewinnt die Erholung an Fahrt. Der aktuelle Index of Global Trade Health von Tradeshift zeigt, dass die B2B-Handelsaktivität im ersten Quartal 2021 um 10 Prozent gestiegen ist. Und während das deutsche BIP aufgrund der Abschottungsmaßnahmen um 1,7 Prozent sank, meldete IHS Markit, dass die Produktion im deutschen produzierenden Gewerbe im März auf ein Rekordhoch anstieg.

In den Lieferketten, die sich noch nicht vollständig von der langen Unterbrechung erholt haben, zeigen sich erste Risse. Unternehmen, die in Erwartung einer langen Rezession in die Pandemie gingen, wurden von der wieder anziehenden Verbrauchernachfrage erneut überrascht. Laut dem aktuellen Tradeshift Index stieg das Auftragsvolumen im ersten Quartal um 16,9 Prozent an.

Jeder fünfte Lieferant macht sich Sorgen, ob er mit der Nachfrage Schritt halten kann. Die Belastung der Lieferketten ist bei den Herstellern besonders akut. Die Auftragsvolumina in diesem Sektor stiegen im März um 80 Prozent im Vergleich zum Vorjahr, aber die Rechnungsvolumina wuchsen im gleichen Zeitraum nur um 20 Prozent.

Dies deutet nicht nur darauf hin, dass die Lieferanten Schwierigkeiten haben, das Tempo der Auftragserfüllung beizubehalten, sondern auch darauf, dass die Käufer die Zahlungen nicht schnell genug freigeben, damit die Lieferanten die Reserven an Betriebskapital aufbauen können, die sie zur Beschleunigung der Produktion benötigen. In einer Umfrage fand Tradeshift heraus, dass fast ein Drittel der befragten Lieferanten in den letzten sechs Monaten eine Verschlechterung ihrer Cashflow-Position festgestellt haben. Fast die Hälfte gab an, dass die Zahl der verspäteten Kundenzahlungen seit Anfang des Jahres zugenommen hat.

Die Auswirkungen dieses Ungleichgewichts sind hinlänglich bekannt, von der Verknappung der Chip-Produktion bis hin zu in die Höhe schießenden Holzpreisen. In der Zwischenzeit haben Ereignisse wie die Blockade des Suezkanals, der Schneesturm in Texas und der jüngste Ölpipeline-Hack die Anfälligkeit von Lieferketten für einen einzelnen Ausfallpunkt innerhalb des Ökosystems und ihre Unfähigkeit, in einer Stressphase schnell genug umzuschwenken, noch deutlicher gemacht.

Ein System, das von Papier zusammengehalten wird

Ein großer Teil des Problems rührt von einem etwas banaleren Single Point of Failure her. Es sind die manuellen Prozesse, die den Handel weltweit steuern. Eine Studie von AP Moeller Maersk fand heraus, dass für die Verschiffung eines Containers von Kenia in die Niederlande mehr als 200 Dokumente zwischen 100 verschiedenen Personen ausgetauscht werden mussten, wodurch ein 25 cm hoher Papierstapel entstand.

Viele Unternehmen drängen in Richtung Digitalisierung. Aber die meiste Unternehmenssoftware ist der Aufgabe nicht gewachsen. Anstatt es Unternehmen leicht zu machen, sich miteinander zu verbinden, scheitern die meisten Digitalisierungsprojekte, weil sie in Inseln konzipiert sind. Jede 1:1-Verbindung ist ein Projekt für sich, das sowohl auf der Einkäufer- als auch auf der Lieferantenseite viel Zeit und Aufwand erfordert.

Einkäufer erhalten nicht die Transparenz und Flexibilität, die sie sich von der Digitalisierung wünschen. Und Lieferanten zögern, neue Systeme zu nutzen, die für sie nur weitere komplexe und zeitaufwändige Prozesse darstellen, die sie durchlaufen müssen, nur um bezahlt zu werden. Selbst die erfolgreichsten Anbindungsinitiativen für Lieferanten neigen dazu, sich bei einer Akzeptanzrate von etwa 20 Prozent einzupendeln.

Handel mit Zukunft: digitale Lieferketten-Netzwerke

Was ist also die Antwort? Die Allgegenwärtigkeit von Handy, Internet und sozialen Medien zeigt, wie das Leben zunehmend von der Digitalisierung bestimmt wird. Warum sollte es bei der Art und Weise, wie Einkäufer und Lieferanten miteinander interagieren, anders sein? Eine neue Art von Cloud-basierten Supply-Chain-Plattformen lässt sich von Websites wie LinkedIn inspirieren und hat die Vision, jedes Unternehmen auf der Welt digital in einem Netzwerk zu verbinden. Diese Plattformen ermöglichen es Einkäufern und Lieferanten sich in privaten B2B-Marktplätzen in Echtzeit auszutauschen, Angebote, Bestellungen, Lieferstatus, Rechnungen und sonstige relevante Informationen miteinander zu teilen.

Die Schaffung dieser digitalen Grundlage eröffnet eine ganzheitliche Sicht auf die Handelsbeziehungen, die die komplexe und vernetzte Natur moderner Lieferketten widerspiegelt. Es ermöglicht Entscheidungsträgern, einzelne Schwachstellen zu erkennen und schnell fundierte Entscheidungen darüber zu treffen, wie sie diese handhaben. Das Netzwerk verbessert die Zusammenarbeit mit Lieferanten und anderen Parteien im Lieferketten-Ökosystem. Entscheidungen, einschließlich der Suche nach neuen Einkäufern oder Lieferanten können schneller umgesetzt werden, was in Zeiten von Stress wichtig ist.

Was für Lieferanten das Beste ist, ist auch das Beste für Einkäufer

Die gesammelten Daten ermöglichen nicht nur Analysen in Echtzeit oder Überprüfungen der N-Tier-Lieferkette, wie sie mit dem neuen Lieferkettengesetz notwendig werden. Sie öffnen auch die Tür zu einer Reihe von Innovationen, die den Lieferanten einen Mehrwert bieten: vom verbesserten Zugang zu kundenindividuellen B2B-Marktplätzen, auf denen sie nach neuen Geschäftsmöglichkeiten suchen können, bis hin zu digitalisierten Finanzierungsoptionen, die ihnen einen schnelleren Zugang zu Betriebskapital verschaffen.

Einkäufer wollen sich gegen zukünftige Schocks wappnen und wissen, wie wichtig es ist, eine gute Beziehung zu ihren Lieferanten zu pflegen. Die Digitalisierung kann ihnen helfen, indem sie einen schnellen, besser vorhersehbaren Cashflow, Zugang zu mehr Lieferanten und mehr Optionen im Falle einer Störung bietet. Die Quintessenz ist, dass das, was gut für die Lieferanten ist, letztendlich auch gut für die Einkäufer ist.

Weitere Informationen: www.Tradeshift.com/de

Gastautor: Christian Lanng

Christian Lanng ist Gründer und CEO von Tradeshift, einem globalen Cloud-Netzwerk und Plattform für den B2B-Handel, die mehr als 1,5 Millionen Unternehmen weltweit nutzen. Lanng ist ein anerkannter Vordenker und Fortune-500-Berater. Er hat zahlreiche Auszeichnungen für seine Arbeit erhalten. Als Mitglied des Global Agenda Council on the Future of Software & Society des Weltwirtschaftsforums bestimmt Lanng mit, wie sich die nächste Generation der digitalen Ökosysteme von Unternehmen und Privatpersonen entwickeln wird. Er ist Co-Autor von Publikationen wie The Great Debate: Will Supplier Networks Thrive, Implode or Evolve?

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Kryptowährungen

Bitcoin, Ethereum, IOTA, Litecoin, Ripple, Dash, Tether, Cardano, Monero, Dogecoin: Kryptowährungen können weit mehr, als nur als Zahlungsmittel zu fungieren. Welche Funktionen und Organisationen sich hinter den bekanntesten Token verbergen und warum das Proof-of-Stake-Verfahren eine echte Alternative zum energieverzehrenden Proof-of-Work ist, welches dem Bitcoin zugrunde liegt, erfahren Sie hier:

KI-Praxis & Recht

Dr. Till Kreutzer, und Prof. Dr. Per Christiansen haben einen Praxisleitfaden zu rechtlichen Fragen für den Einsatz künstlicher Intelligenz in Unternehmen verfasst.

Unternehmenskultur – der Weg zur organisationalen Resilienz

Dies ist ein Gastbeitrag von Giovanna Contino, IT-Consultant bei der adesso SE 

Giovanna Contino zeigt auf, das „VUCA“ auch die Chance bietet, sich im Wettbewerb zu behaupten.

Für den künftigen Erfolg sollte sich jedes Unternehmen mit dem VUCA-Phänomen auseinandersetzen. Tägliche Veränderungen, steigende Dynamik, neue technische Möglichkeiten sowie Anforderungen von Markt und Mitarbeitenden stellen Unternehmen vor neuen Herausforderungen. Die Auseinandersetzung mit VUCA (Volatility, Uncertainty, Complexity und Ambiguity) ist ein wichtiger Teil des Lösungsraums und spätestens seit Beginn der anhaltenden Corona-Pandemie auf der To-Do-Liste jedes Unternehmens.

Schnelle Reaktionsgeschwindigkeit, Anpassungsfähigkeit und Vertrauen sind heute wichtige Faktoren für Unternehmen. Die IT-Branche im Besonderen ist wie keine andere von technologischem Wandel, großer Dynamik und hoher Flexibilität geprägt. Aufgrund der steigenden Anforderungen der Bewerberinnen und Bewerber, setzen Unternehmen neue Formen der Zusammenarbeit um, beschäftigen sich mit der Gestaltung der Personalarbeit und ergreifen Maßnahmen für ein attraktives Arbeitsumfeld. Gegenüber anderen Branchen positioniert sich der IT-Sektor dabei als Vorreiter im Markt. Dieses Beispiel zeigt, dass eine verstärkte Auseinandersetzung mit dem Thema Unternehmenskultur und der VUCA-Welt durchaus sinnvoll und erfolgsversprechend ist.

Bedeutung einer zeitgemäßen Unternehmenskultur für den Unternehmenserfolg

Eine zeitgemäße Unternehmenskultur nimmt im Zuge des „War for Talents“, also die Gewinnung, Bindung und Zufriedenheit von Mitarbeitenden, eine entscheidende Rolle ein. Überdurchschnittliche Löhne reichen nicht mehr aus, um Talente zu gewinnen oder zu halten. Mitarbeitende schätzen besonders eine gute Arbeitsatmosphäre, Freiräume und Sinnhaftigkeit. Eine entsprechende Kultur verhilft zur Positionierung als attraktiver Arbeitgeber (Employer Branding). Aber auch in Krisensituationen gibt die Unternehmenskultur einen Richtwert an und zeigt auf, wofür ein Unternehmen steht. Sie verhilft dabei resilient zu sein und proaktiv zu agieren, statt lediglich zu reagieren. Es zeigt sich, dass eine VUCA-gerechte Unternehmenskultur zwei Kernaufgaben eines Unternehmens unterstützt: Zum einen auf die Anforderungen von externen Veränderungen im Markt und Wettbewerb zu reagieren und zum anderen den internen Zusammenhalt sicherzustellen. Letztlich zahlt Unternehmenskultur indirekt über die Zufriedenheit der Mitarbeitenden auf den Unternehmenserfolg ein, da ein solches Umfeld zur Motivation und somit stärkeren Perfomance anregt.

Was macht eine VUCA-gerechte Unternehmenskultur aus?

Viele Menschen stellen Unternehmenskultur den Unternehmenswerten gleich, doch sie umfasst deutlich mehr Komponenten. Die Abbildung zeigt, welche Komponenten zu einer VUCA-gerechten Unternehmenskultur zählen.

Abbildung: Konzept einer VUCA-gerechten Unternehmenskultur in der IT-Branche (Quelle: adesso SE)

Unternehmenswerte stellen gemeinsame Grundsätze und Prinzipien dar, die das Verhalten und Handeln leiten. Sie zeigen auf, wie in einem Unternehmen gearbeitet wird. Unternehmen sollten bei der Definition darauf achten, nicht zu viele Werte zu definieren, da sonst ihre Wichtigkeit untergeht. Es empfiehlt sich inhaltlich eng beieinander liegende Werte in einem Oberbegriff zusammenzufassen.

Allgemein gilt Vertrauen als der wichtigste Wert einer VUCA-gerechten Unternehmenskultur. Eine gute Vertrauensbasis stellt sowohl intern als auch extern gegenüber allen Stakeholdern eine entscheidende Rolle dar. Ehrlichkeit, Transparenz, Verantwortung übertragen – also Empowerment – und Freiräume schaffen spielen beim Aufbau von Vertrauen eine wichtige Rolle. Agile Strukturen werden benötigt, denn sie ermöglichen Kundennähe und befähigen Teams Entscheidungen zu treffen. Damit geht der Abbau von Hierarchien und die Schaffung von kurzen Entscheidungswegen einher. Es wird deutlich, dass sich die Rolle der Führungskraft stark verändert hat.

Neben Vertrauen sind Innovation, Kundenfokus, Gleichberechtigung und Authentizität prägende Werte einer zeitgemäßen Unternehmenskultur in der IT-Branche. Es zeigt sich, dass heterogene Teams aufgrund der diversen Perspektiven und Meinungen deutlich bessere Ergebnisse erzielen als homogene Teams. Dies stellt einen Vorteil in einer globalisierten Welt dar. Zudem rückt das Thema „Sustainability“ verstärkt in den Fokus von Unternehmen.

Unternehmen sollten darüber hinaus eine klare Vision und Mission definieren, von der die Mitarbeitenden überzeugt sind und mit der sie sich identifizieren können. Auch ein klarer „Purpose“, welcher als fundamentales Ziel eines Unternehmens angesehen wird und dessen Existenzberechtigung reflektiert, ist wichtig. Unternehmen müssen sich Klarheit über die Begrifflichkeiten verschaffen und entsprechende Statements definieren.[1] Bei der Formulierung ist darauf zu achten, dass sie einfach und inspirierend sind. Dazu gehören eine verständliche, triviale Sprache und eine inhaltliche Abstimmung zwischen den definierten Komponenten.

Des Weiteren ist es wichtig den Arbeitsalltag VUCA-gerecht und gemäß den Anforderungen der Mitarbeitenden zu gestalten. Es lassen sich elementare unternehmenskulturelle Maßnahmen und integrierte kulturelle Maßnahmen im Arbeitsalltag definieren. Zu den elementaren Maßnahmen gehört die Schaffung einer angenehmen Arbeitsatmosphäre und die Stärkung des Gemeinschaftsgefühls. Diese ergeben sich durch den Aufbau von Vertrauen und integrierten kulturellen Maßnahmen im Arbeitsalltag. Mitarbeitende erwarten neben einer fairen Bezahlung, eine kollegiale angenehme Arbeitsatmosphäre, Wertschätzung und Freiräume, um die eigenen Potenziale zu entfalten, Ideen zu entwickeln und flexibel zu sein.

Des Weiteren spielen Offenheit und Transparenz in der Kommunikation eine entscheidende Rolle. Als besonders wichtig haben sich integrierte Events ­– zum Beispiel Weihnachtsfeiern, Teammeetings, aber auch virtuelle Events und Initiativen in Bereichen Diversity oder Mindfulness – im Arbeitsalltag erwiesen. Experten[2] sind sich einig, dass diese nicht nur der Bespaßung dienen, sondern das Gemeinschaftsgefühl stärken und der Aufrechterhaltung beziehungsweise Etablierung einer VUCA-gerechten Kultur dienen.

Um die Entwicklung hin zu einer VUCA-gerechten Unternehmenskultur beurteilen zu können, empfiehlt es sich, entsprechende Erfolgsfaktoren (KPIs) zu etablieren und regelmäßig zu überprüfen. So lässt sich der gewünschte Erfolg kontinuierlich messen. Außerdem sind die dauerhafte Pflege der Kultur und Mitarbeiterzufriedenheit wichtig, denn sie geben einen Hinweis zum Stand der Kultur und liefern Anhaltspunkte für notwendige Veränderungen. Beispielsweise ist es sinnvoll, mehrmals im Jahr eine Mitarbeiterbefragung durchzuführen, um auf deren Bedürfnisse schnell reagieren zu können. Als KPIs haben sich die Fluktuationsrate, die Mitarbeiterzufriedenheit, der Net Promoter Score[3], der Krankenstand, die Leitungsspanne und Leitungstiefe sowie die Frauenquote beziehungsweise Diversität[4] ergeben.

Unternehmenskultur als das Fundament eines Unternehmens

Zusammenfassend lässt sich festhalten, dass Unternehmenskultur branchenunabhängig an Bedeutung gewinnt, jedoch insbesondere für IT-Unternehmen relevant ist. Denn sie sorgen auf ihre eigene Art und Weise durch neue Technologien und Ansätze für viel Veränderung im Markt. Dennoch lohnt es sich für Unternehmen aller Branchen, eine VUCA-gerechte Unternehmenskultur zu etablieren, da sie mitsamt ihren Komponenten der Schlüsselfaktor für organisationale Resilienz und langfristigen Unternehmenserfolg darstellt.

Über die Autorin

Giovanna Contino ist IT-Consultant bei der adesso SE und berät in erster Linie Unternehmen bei der Prozessoptimierung. Sie ist begeisterte Expertin in den Themengebieten Unternehmenskultur, Digitale Transformation, Agilität und Change-Management. Giovanna schloss ihr Studium in Business Consulting & Digital Management mit dem Master of Science ab. Im Rahmen ihrer Masterthesis beschäftigte sie sich mit Unternehmenskultur und entsprechenden Etablierungsmöglichkeiten.

Weitere Informationen unter:
www.adesso.de


Quellen:

[1]Vgl. Kienbaum Purpose Studie 2020, S. 12f.; https://www.aespire.com/blog/communications/the-difference-between-your-purpose-and-mission

[2]Im Rahmen einer qualitativen Forschung wurden neun Personen, u.a. Führungskräfte und HR-Mitarbeiter, renommierter IT-Unternehmen zum Thema Unternehmenskultur und VUCA befragt.

[3]Zeigt die Bereitschaft der Kunden/Mitarbeiter, das Produkt oder die Dienstleistung bzw. das Unternehmen an Familie oder Freunde weiterzuempfehlen. Durch den NPS kann die Kunden- und Mitarbeiterzufriedenheit bzw. deren Loyalität gemessen werden.

[4]Geschlechts-, Bildungs- und Diversität in der Herkunft

So finden Unternehmen den richtigen Cloud-Provider

Dies ist ein Gastbeitrag von Jens Niedernhöfer*

Viele Unternehmen stellen sich die Frage, welche Vorteile es bietet, ihr Rechenzentrum von On-Premises in die Cloud zu ziehen, den bestehenden Cloud-Provider zu wechseln oder gar eine Multi-Cloud-Lösung einzuführen. Jeder verfolgt dabei andere Ziele und die eigenen Herausforderungen sind nicht zwangsweise die des Nachbarn. In diesem Beitrag beantworten wir die wichtigsten Fragen, um die Entscheidungsfindung zu erleichtern.

Wer sind die wichtigsten Cloud-Anbieter?

Wenn es um das pure Marktvolumen geht, gibt es drei große Spieler auf dem Markt: AWS (Amazon Web Services), Microsoft Azure und GCP (Google Cloud Plattform). Daneben hat zum Beispiel auch IBM sein Cloud-Angebot in den letzten Jahren stark modernisiert und positioniert sich heute selbst als der sicherste aller Cloud-Provider (u.a. FIPS 140-2 Level 4) – ein Grund: hier werden die Daten der Gesundheitskarten gespeichert. Neben diesen bekannten Namen hat aber beispielsweise auch Alibaba einen kleinen Kundenstamm in Deutschland und teilt sich die verbliebenen Marktanteile mit teils lokalen Anbietern. Final muss jedes Unternehmen für sich bewerten, welcher Provider beziehungsweise welche Kombination verschiedener Provider sinnvoll ist.

Welche Unterschiede gibt es zwischen den Anbietern?

Jens Niedernhöfer gibt Tipps für die Suche nach dem richtigen Cloud Provider.

Um es gleich vorwegzunehmen: In den Grundzügen unterscheiden sich die Cloud-Anbieter nicht voneinander. Das Prinzip ist einfach: Anwender bezahlen nur für die Kapazitäten, die sie auch wirklich nutzen. Je länger man einen Service reserviert (hier wird zumeist die Option ein oder drei Jahre angeboten), desto weniger zahlt man dafür. Zudem haben Nutzer immer die Flexibilität, nach oben oder nach unten zu skalieren, je nachdem, wieviel Compute, Storage und Traffic sie gerade benötigen. Auch spart man im Vergleich zur On-Premises-Umgebung beim klassischen „Lift and Shift“, also dem Verschieben von VMs, nicht wirklich Geld ein. Zu Ersparnissen kommt es erst, wenn man anfängt, die Infrastruktur in der Cloud zu optimieren, indem man so viel wie möglich automatisiert.

Aber was sind jetzt die Unterschiede? Wie so oft, liegt der Teufel im Detail.

Kleine Stellschrauben mit großer Wirkung: Tatsache ist, dass jeder Cloud-Provider unterschiedliche Metriken als Basis seiner Kalkulation zugrunde legt. So bucht man beispielsweise in Bezug auf Speicherplatz fixe Festplattengrößen bei Microsoft Azure, unabhängig von der Nutzung. Bei AWS und auch IBM besteht die Möglichkeit, die Abrechnung in kleinere Schritte zu unterteilen, um die Kosten zu senken. Auch das Thema Traffic zwischen verschiedenen Standorten sollte keinesfalls außer Acht gelassen werden, da hier schnell mehrere Tausend Euro zusätzlich anfallen können.

Bring Your Own License: Ein besonderes Augenmerk sollte zudem auf das Thema BYOL (Bring Your Own License) gelegt werden. Hier sind die Lizenzbestimmungen in Bezug auf Microsoft sehr komplex, wenn man die Lizenzen zu einem Drittanbieter mitbringen möchte. Einfacher ist es, wenn man in die Azure Cloud umzieht, weil Microsoft hier noch den „Hybrid Use Benefit“ anbietet. Nutzt man zum Beispiel Red Hat für die SAP-Umgebung oder hat andere Anwendungen, die auf Linux basieren, ist der Umzug sehr einfach. Red Hat bietet hier die Option „Cloud Access“, dank der per Zuweisung im Subscription Portal die Red Hat Subscription zu nahezu jedem beliebigen Cloud-Provider mitgenommen werden kann, ohne dass Einschnitte in Leistung oder Support hingenommen werden müssen.

Wie wähle ich den richtigen Cloud-Anbieter aus?

Viele Unternehmen sind mit den Möglichkeiten der Cloud überfordert und nutzen bestenfalls einen Bruchteil von dem, was die verschiedenen Provider anbieten. Ein gewisser Workload kann auf Azure mehr Sinn ergeben, beispielsweise aufgrund regionaler Gegebenheiten oder Services, die derzeit nur bei diesem bestimmten Anbieter verfügbar sind. Es macht Sinn, nach dem „Best Fit“-Ansatz, aufgeteilt in folgende drei Punkte, den Anbieter auszuwählen: Administration, Technologie und Kosten.

Unsere Erfahrung hat gezeigt, den Umzug am besten Schritt für Schritt durchzuführen und nicht auf einen Schlag das komplette Rechenzentrum zu verschieben. Ein bewährtes Vorgehen wäre beispielsweise das folgende:

Viele Wege führen bekanntlich nach Rom und oft stellt sich der vermeintlich kürzeste Weg nicht immer als der Beste heraus. Es ist daher gut, Zeit zu investieren, um verschiedene Optionen zu prüfen und falls erforderlich auch mit externer Unterstützung den individuell richtigen Weg zu finden.

* Der Autor Jens Niedernhöfer ist Business Development Manager bei Crayon

Kontakt zu UNS

Crayon Deutschland GmbH
Inselkammerstraße 12
82008 Unterhaching
Tel.: +49 (0) 89 2000 50 400
Fax: +49 (0) 89 2441 0370 
E-Mail: info@crayon.de 

NAS und SAN auf einer Plattform

NAS und SAN auf einer Plattform: So schlägt sich das QSAN XCubeNXT XN8024D mit Toshibas MG08-HDDs

Fachbeitrag

Welche Performance ein Storage-System in der Praxis bietet, können Unternehmen vorab nur schlecht einschätzen. Das Datenblatt liefert zwar theoretische Leistungswerte, doch die können je nach Festplattenbestückung und im Einsatz mit echten Daten abweichen. Um eine Orientierung zu bieten, hat Toshiba Electronics Europe (Toshiba) ein QSAN XCubeNXT XN8024D mit 24 16-TB-HDDs aus der MG08-Serie ausgerüstet und einige Tests durchgeführt – und dabei auch ermittelt, wie sich unterschiedliche Festplattenkonfigurationen auf die Gesamtleistung auswirken.

Rainer W. Kaese ist Senior Manager, HDD Business Development bei der Toshiba Electronics Europe GmbH
(Quelle: Toshiba Electronics Europe)

Eine der größten Herausforderungen für kleine und mittelständische Unternehmen bei der Auswahl großer und multifunktionaler Storage-Systeme ist es, vorab abzuschätzen, welche Leistung diese nach der Installation tatsächlich erreichen. Dafür genügt ein Blick ins Datenblatt nicht: Der Markt hält viele Lösungen bereit, die mit ähnlichen Prozessoren bestückt sind, ähnlich viel Arbeitsspeicher mitbringen und sich auch von den Features weitgehend gleichen. Unbekannt bleibt letztlich, welche Performance das System mit welchen Festplatten erzielt und wie sich die Festplattenkonfiguration auf die Gesamtleistung auswirkt. Um Unternehmen einige Anhaltspunkte und Vergleichswerte zu liefern, hat Toshiba ein QSAN XCubeNXT XN8024D im Labor eingehend getestet. Bei dem Gerät handelt es sich um ein Unified-Storage-System für SMB- und Enterprise-Nutzer, das im Rack vier Höheneinheiten belegt und 24 Laufwerksschächte besitzt, die von vorne zugänglich sind, und mit dualem SAS-Controller sowie redundanter Stromversorgung ausgestattet ist.

Das XN8024D kann als NAS-System (Network Attached Storage) für klassische Fileshares eingesetzt werden und gleichzeitig als Blockspeicher für dedizierte SANs (Storage Area Network). Die Anbindung erfolgt über iSCSI oder Fibre Channel. Durch den Aufbau mit Dual-Controller, der parallele Zugriffe aus dem Netzwerk auf die HDDs erlaubt, eignet sich das System am besten für hochkapazitive Nearline-SAS-Festplatten. Für den Test wurde es mit 24 Top-HDDs aus der MG-Serie von Toshiba bestückt: dem Modell MG08SCA16TE mit 16 TB und 12-Gb/s-SAS-Schnittstelle, das als Enterprise-Capacity-Laufwerk für den Einsatz in Storage-Arrays und anderen Enterprise-Systemen ausgelegt ist.

Beide Controller hat Toshiba via SFP+ mit 10GbE an ein SAN angebunden und dafür das installierte Modul mit vier SFP+-Ports genutzt, für den Test allerdings nur eine einzelne Netzwerkverbindung (Single-Path) verwendet. In einer Produktivumgebung könnten die Verbindungen über beide Controller kombiniert werden (Dual-Path), um eine stabile und zuverlässige Anbindung des Speichers an Clients herzustellen. Darüber hinaus wurden für die gleichzeitige NAS-Anwendung zwei 10GbE-LAN-Verbindungen aufgebaut und der 1GbE-Management-Port für den Zugriff auf die browserbasierte Konfigurationsoberfläche des QSM-Betriebssystems genutzt.

Ermittlung der Basisperformance des Storage-Systems

Die 24 16-TByte-HDDs bringen es auf eine Gesamtkapazität von 384 TB, wurden allerdings wie in der Praxis üblich als RAID 10 konfiguriert, das 192 TB bereitstellt. In diesem Speicherpool hat Toshiba zwei Volumes eingerichtet, jedes mit einem Shared Folder mit 48 TB und einem iSCSI-Target ebenfalls mit 48 TB. Ein Produktivsystem würde typischerweise noch mit SDDs als Cache bestückt sein, doch der Performance-Zugewinn hängt sehr stark von den Workloads ab. Zudem hat sich Toshiba zunächst auf ein reines HDD-Array konzentriert, um die Basisperformance des Systems zu ermitteln. Ein Test mit SSD-Cache wurde zum Abschluss durchgeführt.

Als erstes hat Toshiba die Lese- und Schreibbandbreite getrennt für NAS (über das übers Netzwerk freigegebene Verzeichnis) und SAN (über das in einen Server eingebundene iSCSI-Target) ermittelt. Die Ergebnisse sind in Tabelle 1 zu sehen, wobei „1 x Writing“ einen Schreibprozess von einem Server auf ein Verzeichnis und „2 x Writing“ zwei Schreibprozesse von zwei Servern auf zwei Verzeichnisse kennzeichnet (analog dazu die Bezeichnung bei den Leseprozessen). Es folgte ein Test, bei dem Lese- und Schreiboperationen auf NAS und SAN gleichzeitig durchgeführt wurden (Tabelle 2). Insgesamt lag die Bandbreite des Storage-Systems bei etwa 800 bis 900 MB/s.

Die reine Bandbreitenmessung allein spiegelt allerdings noch nicht akkurat die Performance wider, die Workloads unter Produktivbedingungen erreichen. Daher wurde ein weiterer Test unter Bedingungen durchgeführt, die eher echten Workloads von Storage-Systemen für E-Mail-Server, Datenbanken oder die Videoüberwachung entsprechen. Das gelingt mit einer Kombination aus zufälligen Lese- und Schreibvorgängen für 4-kB-Blockgrößen, sequentiellen Reads und Writes für 1-MB-Blockgrößen und gemischten Lese- und Schreibvorgängen mit unterschiedlichen Blockgrößen. Die Messung erfolgte mit dem Tool „fio“1 und den in Listing 1 aufgeführten Parametern.

Die Ergebnisse in Tabelle 3 beziehen sich auf Zugriffe auf ein logisches Volume mit einem iSCSI-Target in einer RAID-10-Konfiguration mit einem Pool aus 24 HDDs. Die sequentiellen Reads mit 1-MB-Blöcken erreichten mit 1,12 GB/s ungefähr das theoretische Maximum von 10GbE-Netzwerken.

Was bringt ein zweiter Storage-Pool?

Das QSAN XCubeNXT XN8024D ist ein Unified-Storage-System mit 4 HE und 24 Laufwerksschächten (Quelle: Toshiba)

Im Dokument „How to Adjust Performance in Windows“2 beschreibt QSAN einige Best Practices für den Einsatz der XCubeNXT-Serie und empfiehlt, zwei Speicherpools einzurichten, um die bestmögliche Leistung zu erzielen. Das erscheint einerseits sinnvoll, weil zwei Controller im System verbaut sind und jeder Speicherpool eigenständig angesprochen werden kann. Andererseits bedeutet es aber auch, dass die Pools nur aus zwölf HDDs bestehen – was sich typischerweise in einer geringeren Leistung niederschlagen sollte, da nur zwölf statt 24 Festplatten gleichzeitig Daten liefern.

Um zu überprüfen, was in der Praxis die besseren Ergebnisse bringt, hat Toshiba das XN8024D mit zwei Speicherpools konfiguriert, in denen jeweils zwölf HDDs in einem RAID 10 stecken. Jeder Pool stellt ein Shared Folder mit 48 TB und ein  iSCSI-Target mit 48 TB bereit und wird über einen eigenen Controller angesprochen. Es handelt sich also nicht um eine Hochverfügbarkeitskonfiguration (Dual-Path).

Wie erwartet ist die Leistung beim Zugriff auf ein einzelnes Shared Folder oder iSCSI-Target in dieser 12-HDD-Konfiguration geringer als bei einem Pool mit 24 HDDs (Tabelle 4). Beim gleichzeitigen Zugriff auf die beiden 12-HDD-Pools lag die Gesamtleistung indes auf dem Niveau des 24-HDD-Pools.

Die praxisnäheren Workloads-Tests mit „fio“ wurden mit den zwei 12-HDD-Pools wiederholt. Die Ergebnisse in Tabelle 5 zeigen, dass ein einzelner Workload auf einem einzelnen iSCSI-Target etwas geringere Leistungswerte erreicht als bei einem Target auf einem 24-HHD-Pool. Zwei Workloads auf zwei getrennten iSCSI-Tarbets lieferten kombiniert aber eine erheblich höhere Leistung.

Ausgehend von diesen Zahlen ist klar, dass für ein einzelnes Shared Folder oder ein großes Laufwerk mit Blockspeicher ein einzelner Pool mit 24 HHDs die beste Konfiguration ist und die höchste Performance liefert. Der praxisnähere Fall mit mehreren Verzeichnissen und/oder Blockspeichern, auf die individuell zugegriffen wird, sollte besser mit zwei Pools von zwölf HDDs umgesetzt werden, da sie in diesem Szenario eine höhere Workload-Performance erreichen können.

Die Rückseite des Storage-Systems: zwei 10GbE-Verbindungen über SFP+ für den Block-Storage (links), zwei 10GbE-LAN-Verbindungen für den NAS-Speicher (gelbe Kabel) und die beiden Verbindungen für das Systemmanagement (schwarze Kabel rechts) (Quelle: Toshiba)

Performance-Boost durch SSD-Cache – aber nur bei Random-Zugriffen

Wie erwähnt kommt in den meisten Produktivsystemen ein SSD-Cache zum Einsatz, um die Performance zu verbessern – insbesondere bei zufälligen Lese- und Schreiboperationen. Die Konfiguration mit zwei Speicherpools im XN8024D wurde beibehalten, allerdings eine der zwölf HDDs in einem Pool entfernt, um Platz für eine Enterprise-SSD mit 1,6 TB und SAS-Schnittstelle zu schaffen, die für 10 DWPD ausgelegt ist. Wegen der RAID-10-Konfiguration kann die elfte HDD dann nicht verwendet werden, bleibt aber als Hot-Spare-Platte im Gehäuse. Sie könnte bei einem Festplattenausfall im laufenden Betrieb anstelle des defekten Laufwerks eingebunden werden. Das QSAN-System bietet übrigens auch andere Komponenten, die als Field Replaceable Units (FRU) direkt im Betrieb ausgetauscht werden können (Hot-Swapping).

Erneut hat Toshiba die Benchmarking-Skripte aus Listing 1 verwendet, um auf die neue Konfiguration zuzugreifen. Erwartungsgemäß profitiert die Leistung beim sequentiellen Lesen und Schreiben nur wenig vom SSD-Cache. Die Performance bei zufälligen Lese- und Schreibzugriffen steigt jedoch signifikant – und zwar um den Faktor vier bis sechs (Tabelle 6).

Um den Test abzurunden, führte Toshiba auch eine Reihe von Messungen der Leistungsaufnahme und des Geräuschpegels des Systems durch und ermittelte die Temperatur der Festplatten während der verschiedenen Tests (Tabelle 7).

Die webbasierte Konfiguration des XN8024D, hier der Speicherpool, in dem eine der Festplatten durch eine SSD ersetzt wurde (Quelle: QSAN/Toshiba)

Fazit: Hohe Leistung bei exzellenter Energieeffizienz

Das QSAN XN8024D bietet Systemadministratoren und Storage-Spezialisten in SMBs und Enterprise-Unternehmen eine hohe Speicherkapazität und Performance gepaart mit hoher Verfügbarkeit und Zuverlässigkeit. Das System ist, wie die niedrigen gemessenen Festplattentemperaturen zeigen, effizient gekühlt, was zu einer langen Lebensdauer und niedrigen Festplattenausfallraten beiträgt. Darüber hinaus ist der Geräuschpegel für diese Art von Rackmount-System in Ordnung.

Bestückt mit 24 Enterprise-SAS-HDDs von Toshiba mit 16 TB kann eine Rohkapazität von 384 TB erreicht werden. Je nach Konfiguration entspricht das einer Nettokapazität von 192 TB (bei einem Pool von 24 HDDs in einem RAID 10) oder 320 TB (bei zwei Pools mit je zwölf HDDs in einem RAID 6). Die sequentielle Lese- und Schreibleistung ist mit 1.000 MB/s und die Leistung bei Random-Reads und -Writes mit 2.000 bis 3.000 IOPS (ohne SSD-Cache) sehr respektabel. Für einen einzelnen Blockspeicher oder File-Storage ist ein einzelner Pool mit 24 HDDs der bevorzugte Ansatz. Werden mehrere Blockspeicher benötigt oder soll gleichzeitig auf mehrere Shared Folder zugegriffen werden, liefern jedoch zwei Pools mit je zwölf HDDs eine höhere Gesamtleistung.

Der Dual-Controller des XN8024D sorgt für Hochverfügbarkeit, wo diese benötigt wird. Im Test konnte Toshiba zeigen, dass der Controller auch genutzt werden kann, um Single-Path-Engpässe sowohl im Block- als auch im NAS-Betrieb zu eliminieren. Mit einer Leistungsaufnahme von unter 400 W, was etwa 2 W pro TB Nettokapazität entspricht, und in Anbetracht der Tatsache, dass Controller sowie Netzwerkinterfaces (SFP+ und RJ) hier schon mit einbezogen sind, liefert die Unified-Storage-Lösung eine exzellente Energieeffizienz.

Toshiba Electronics Europe GmbH
https://www.toshiba-storage.com/de/

2 https://www.qsan.com/data/dl_files/QSAN_Best%20Practice_XCubeNXT_How%20to%20Adjust%20Performance%20in%20Windows_2007_(en).pdf

Abbildungen

Aufmacherbild / Quelle  (QSAN_XN8024D_Rueckseite_Foto.jpg)

Aufbruch in das Web 3.0

Unterstütz mit 102Millionen Dollar von Risikokapitalgebern und Hedgefonds arbeitete er fünf Jahre mit seinem fast 200-köpfigen Team an dem Projekt, welches nichts Geringeres leisten soll als die Machtverhältnisse im Internet neu zu ordnen.

Pandemie und neue Arbeitswelten

Gastbeitrag

Pandemie und neue Arbeitswelten – Herausforderungen bringen neue Möglichkeiten

von Frank Kirsch

Die Pandemie hat uns allen eines gelehrt: nichts ist vorhersehbar, Pläne können schneller kippen, als sie geschmiedet werden und die Arbeitswelt, wie wir sie noch zu Beginn des Jahres 2020 kannten, hat sich kurzfristig und nachhaltig verändert.

Nun stellen sich Fragen nach den Auswirkungen auf die Menschen, wie begegnen diese den neuen Arbeitsbedingungen, werden diese akzeptiert, wo liegen etwaige Ängste und Sorgen, ist das Homeoffice so zukunftsträchtig, wie es an vielen Stellen kommuniziert und wahrgenommen wird?

Um diesen Fragen auf den Grund zu gehen, hat Avaya als einer der weltweit führenden Anbieter von Kommunikations- und Contact Center-Lösungen in Kooperation mit dem Marktforschungsunternehmen Davies Hickman Partners die global angelegte Studie „Life and Work Beyond 2020: The Change Makers“ durchgeführt.

Insgesamt 10.000 Konsumenten[1] aus elf Ländern (Österreich, Kanada, Ägypten, Frankreich, Deutschland, Indien, Saudi-Arabien, Schweiz, Vereinigte Arabische Emirate, Großbritannien und USA) wurden zu diesen Aspekten befragt.

Frank Kirsch,
Head of Product Sales Programs bei Avaya

Das Homeoffice, unser neuer Begleiter

Als besonders engagierte Technologie-Enthusiasten stechen die Länder des Mittleren Ostens hervor. Sie gehen aus der Studie als die offensten für neue Technologien, Change und New Work hervor. Großbritannien und die USA bewegen sich im Mittelfeld, während die Länder der DACH-Region vergleichsweise konservativ unterwegs sind, was die Begeisterung für neue Arbeitsformen betrifft.

„37 Prozent der deutschen Arbeitnehmer schätzen die neuen Möglichkeiten, die das Konzept „Work from Anywhere“ mit sich bringt.“

Es kann jedoch nicht die Rede davon sein, dass die Menschen hierzulande dem Homeoffice gegenüber abgeneigt sind – sie brauchen lediglich etwas Zeit, um sich an die neue Arbeitswelt zu gewöhnen.

Im direkten Vergleich zeigt sich: 37 Prozent der deutschen Arbeitnehmer schätzen die neuen Möglichkeiten, die das Konzept „Work from Anywhere“ mit sich bringt und wollen diese Arbeitsweise auch langfristig beibehalten.

International möchte sogar knapp jeder Zweite das Modell behalten und auch in Zukunft von jedem Ort aus arbeiten können. Hier zeigt sich, dass Interesse und Bedarf an einem flexiblen Arbeitsort eine immer höhere Wichtigkeit im Leben der Arbeitnehmer einnimmt – die Digitalisierung macht es möglich.

Allerdings haben einige Betriebe noch Aufholbedarf. Im direkten Vergleich brauchen deutsche Unternehmen etwas mehr Zeit, sich auf die neue Situation einzustellen: zwölf Prozent der Befragten gaben an, eine Homeoffice-Lösung könne nicht umgesetzt werden.

Im internationalen Vergleich gaben nur sechs Prozent der Befragten an, dass sie zu Beginn der Pandemie nicht ins Homeoffice wechseln konnten.

Work-Life-Balance: Keine Workaholics

Die neue Arbeitswelt ist vielfältig und chancenreich – die kulturellen Gepflogenheiten müssen sich der veränderten Arbeitswelt jedoch teilweise noch anpassen. Zum Beispiel das gegenseitige Vertrauen zwischen Arbeitgeber und Arbeitnehmer. In der Studie wurde deutlich, dass Arbeitnehmer Sorge haben, bei Nicht-Erreichbarkeit als „fauler“ Arbeitnehmer angesehen zu werden.

„Es entsteht eine neue, tägliche Routine, aus der wir nur schwer ausbrechen können.“

So oder so sind sich die deutschen Arbeitnehmer aber sicher, dass sie nicht zu einem Workaholic werden zu müssen (28 Prozent vs. 39 Prozent international), um den Arbeitsplatz zu behalten. Ein gutes Zeichen für die hiesigen Unternehmen, die ihren Mitarbeitern Verständnis für die Ausnahmesituation entgegenbringen und keinen Druck ausüben.

Viele Befragte – egal ob in Vollzeit, Teilzeit oder anderer Beschäftigungsebene beschäftigt – stellen jedoch für sich fest, dass die Work-Life-Balance unter den neuen Umständen teilweise drastisch leidet. Es entsteht zudem eine neue, tägliche Routine, aus der wir nur schwer ausbrechen können. Weil uns die Möglichkeiten fehlen, die Ideen ausgehen – und wir uns im Zweifel in die Arbeit stürzen, die wortwörtlich den ganzen Tag vor unserer Nase liegt. Doch die positive Nachricht: diese Realität ist nur temporär. Mit einer guten technischen Ausstattung und den richtigen Tools werden wir auch nach der Pandemie, wenn das Reisen wieder uneingeschränkt möglich ist, feststellen, dass so ein mobiles Büro doch seine Vorteile hat und es sich in Strandnähe auch ganz gut arbeiten lässt.

So lassen sich viele Routine Anfragen von Kunden durch Künstliche Intelligenz übernehmen. KI-basierte Contact Center-Anwendungen aus der Cloud zum Beispiel ermöglichen es den Mitarbeitern, sich mit den kreativen und wertschöpfenden Aufgaben auseinanderzusetzen.

Der Everything Customer

Die neuen Anforderungen – vor allem Lockdown-bedingt – lösen die persönliche Beratung ab. Damit geht auch eine veränderte Erwartungshaltung der Kunden einher.

„…der Everything Customer möchte im Moment abgeholt werden.“

Das Marktforschungsunternehmen Gartner spricht von dem Everything Customer[2] und beschreibt damit den Contact Center-Kunden von heute: der Everything Customer möchte im Moment abgeholt werden. Das bedeutet, dass sich der Service, den der Kunde gerade benötigt, auch der Stimmung anpassen muss. Der Punkt, an dem sich der Kunde nach dem Servicecenter richtet, ist überschritten – was nun zählt ist, dass sich das Servicecenter auf den Kunden einstellt.

Damit bietet sich eine große Chance für die Unternehmen, ihre Servicemöglichkeiten zu modernisieren und an die aktuelle Zeit und die unterschiedlichen Bedürfnisse ihrer Kunden anzupassen. Wie oben erwähnt ermöglicht eine KI den Unternehmen, im besten Fall schon vor dem Kunden zu wissen, was dieser möchte und benötigt.

Das spiegelt sich auch in den Studienergebnissen wider: 79 Prozent der Kunden erwarten ein gutes Kundenerlebnis im Contact Center – doch nur 13 Prozent der Unternehmen werden dieser Erwartung auch gerecht.

Aber ein Lichtblick bleibt: Immerhin ein Viertel der Befragten empfindet die Customer-Service-Mitarbeitenden als warmherziger und empathischer als im Pre-COVID-Jahr 2019. Ein guter Anfang, auf welchem die hiesigen Unternehmen aufbauen können.  

Weitere Informationen zu der Studie stehen auf der Website https://avaya-avenue.de/topthemen/studie-work-life-balance zur Verfügung.


[1] Aus Gründen der besseren Lesbarkeit wird im Folgenden das generische Maskulinum verwendet. Diese Formulierungen umfassen gleichermaßen weibliche, männliche, als auch Personen, die sich keinem der beiden Geschlechter zugehörig fühlen.

[2] https://blogs.gartner.com/jason-wong/everything-customer-expects-multiexperience-not-omnichannel/

Aufmacherbild / Quelle / Lizenz
Photo by Dylan McLeod on Unsplash

AppSec Decoded

Ein Gespräch mit Florian Thurmann, Technical Director EMEA bei Synopsys über das BSIMM-Modell und dem Stand der Anwendungssicherheit

Herr Thurmann, ein Konzept, das schon seit über einem Jahrzehnt existiert und immer wieder Gegenstand von Branchengesprächen ist, ist das des Shift Left. Ein Konzept, nach dem Sicherheitstests früher im Lebenszyklus der Softwareentwicklung eingeführt werden. Jetzt hören wir von einem neuen Konzept: Shift Everywhere. Worin unterscheiden sich die beiden Konzepte?

Das Shift Left-Mantra ist mit gutem Grund entstanden. Entwicklungsteams haben nicht selten mit  Sicherheitstests gewartet, bis die betreffende Anwendung oder Software kurz davor war, in Produktion zu gehen. Wenn dann Pen-Tester ins Haus kommen, finden sie Dutzende, wenn nicht Hunderte von Schwachstellen. Einige davon kritisch, viele mindestens hochriskant.

Florian Thurmann

Das verzögert die Produktion, und Entwickler müssen unter Umständen weit zurückgehen und versuchen, die schwerwiegendsten Schwachstellen zu finden und zu beheben. Das kostet deutlich mehr Zeit und Geld, als sie früher zu beseitigen.

Die meisten Studien zu diesem Thema sind sich einig, dass es sechs- bis zehnmal soviel kosten kann, Schwachstellen erst spät im Software-Lebenszyklus zu beheben. Jedenfalls sehr viel mehr als zu Beginn oder während des Schreibens oder Assemblierens der Software. Wir sprechen hier von exponentiell wachsendem Aufwand. Das Risiko, dass ein Unternehmen in zeitlichen Verzug gerät oder ein Wettbewerber bei der Produkteinführung die Nase vorn hat, ist hier noch gar nicht berücksichtigt.

„Shift Left“ heißt im Grunde, dass Sie nicht bis zum Ende des SDLC warten sollten, um nach Schwachstellen zu suchen. „Shift Everywhere“ bedeutet links, rechts und in der Mitte. Die Grundidee ist, dass man etwas testet, sobald es getestet werden kann. So findet man Bugs sehr viel schneller, kosteneffizienter und man kann sie zügig beheben.

Das Building Security In Maturity Model (BSIMM[1]) gibt einen Überblick zum Stand der Anwendungssicherheit in verschiedenen Branchen. Was sollten Unternehmen tun, wenn sie ihre Software-Sicherheitsinitiativen auf Grundlage von BSIMM verbessern wollen?

Nun, ein entscheidender erster Schritt ist, den Reifegrad der eigenen Software-Sicherheitsinitiative zu ermitteln. BSIMM unterteilt grundsätzlich in drei Grade: in der Entstehung befindlich, reifend und optimierend. Auf dieser letzten Stufe wird Sicherheit zu einem direkten Business Enabler. Es geht dann nicht mehr nur darum, ein Compliance-Kästchen abzuhaken, sondern effektiver, schneller und agiler zu werden. BSIMM zeigt Ihnen, wo genau Sie in diesem Prozess stehen und erlaubt es Ihnen, die eigene Sicherheitsinitiative mit dem Status Quo der Branche zu vergleichen. Das hilft dabei, zu entscheiden, wohin Sie in Sachen Software-Sicherheit weiter gehen wollen.  

Der zweite BSIMM-Befund: Wenn Sie noch nicht auf den DevSecOps-Zug aufgesprungen sind, sollten Sie es schleunigst tun. Richtig verstanden und umgesetzt kann Sicherheit mit der Entwicklung Schritt halten, ja sie sogar verbessern. Schon allein, weil sich die Entwicklung nicht verlangsamt. Entwickler müssen nämlich nicht mehr länger weit im SDLC zurück gehen, um nach Schwachstellen zu suchen, die sie zu einem früheren Zeitpunkt vielleicht übersehen haben.

Drittens geht es um Grundlagen der Cloud-Sicherheit, zu denen die Orchestrierung für Container und virtualisierte Umgebungen ebenso zählen wie die Pflege des App-Inventars mithilfe einer Bill of Materials (BOM), also einer Stückliste. Die Vorteile der Cloud wird niemand ernsthaft bestreiten wollen. Sie effektiv zu nutzen, bedeutet aber, dass Sie zumindest einen Teil Ihrer Sicherheitsarchitektur an den Cloud-Anbieter auslagern. Auch die Bereitstellung von Funktionen und andere Software-Sicherheitspraktiken, die traditionell vor Ort oder lokal angesiedelt waren. BSIMM macht das sehr deutlich: „Cloud-Anbieter [sind] zu hundert Prozent für die Bereitstellung von Sicherheitssoftware für Unternehmen verantwortlich, aber die Unternehmen [sind] zu 100 % für die Software-Sicherheit verantwortlich.“ Diesen Punkt sollte man im Auge behalten.

Die Idee, Sicherheitsbeauftragte in Entwicklungsteams einzubinden ist nicht neu – und mittlerweile als „Governance as Code“ automatisiert. Inzwischen stellen Tool Chain-Sensoren fest, ob die Software, die Sie schreiben oder assemblieren, beispielsweise die Richtlinien für die Verwendung von Bibliotheken, Codierungsstandards usw. einhält. Die Idee struktureller Sicherheit ist die, dass Entwickler eine sicherere Software erstellen, wenn sie ihren Code in einer sicheren Struktur schreiben.

Es gibt einen vergleichsweise neuen Begriff, der kürzlich im Bereich der Anwendungssicherheit aufgetaucht ist: DevSecOps. Dabei geht es darum, Sicherheit in DevOps-Praktiken zu integrieren. Worin sehen Sie die wichtigsten Triebfedern für DevSecOps?

Der wichtigste Treiber ist die rasant wachsende Entwicklungsgeschwindigkeit. Der Veröffentlichungszyklus hat sich von Monaten über Wochen zu Tagen und sogar Stunden verkürzt. Der zweite Punkt ist, dass Sicherheit Teil der Qualitätspraxis wird. Auch das eine Erkenntnis von BSIMM. Immer häufiger erkennen Teams den Wert eines Shift Everywhere, sodass sie während des gesamten SDLC, die Sicherheit überprüfen, und nicht erst beim letzten und sehr teuren Schritt unmittelbar vor der Produktion. Die Kombination aus Geschwindigkeit und Sicherheit kann laut den Ergebnissen des BSIMM-Reports aber durchaus zu gemischten Ergebnissen führen. Entwickler sind in der Lage, ihre Aufgaben schneller als bisher zu erledigen. Das ist gut. Für das Management ist das aber unter Umständen zu schnell, um die Auswirkungen auf das Unternehmensrisiko wirklich bewerten zu können.

„Cloud-Anbieter [sind] zu hundert Prozent für die Bereitstellung von Sicherheitssoftware für Unternehmen verantwortlich,
aber die Unternehmen [sind] zu 100 % für die Software-Sicherheit verantwortlich.“

Wie ist es konkret um Open-Source-Schwachstellen und die damit verbundenen Risiken bestellt?  Warum ist es für Unternehmen so wichtig, bei Open Source-Komponenten in ihrem Code den Überblick zu behalten?

Wenn es um Open Source Software geht, gliedert sich das Thema in zwei Bereiche: Sicherheit und juristische Aspekte. Open Source Software ist nicht anfälliger als kommerzielle, proprietäre Software, aber sie ist auch nicht sicherer. Sie ist menschengemacht, sie enthält Fehler und Defekte, die, wenn sie nicht gepatcht werden, von Hackern ausgenutzt werden. Die gute Nachricht ist, dass Open Source-Codebasen, von Dutzenden, Hunderten oder Tausenden von Leuten aus der Community untersucht werden. Und die ist ziemlich effektiv, wenn es darum geht Bugs zu finden. Eine Art „Sicherheits-Crowdsourcing“. Der Nachteil ist, dass Patches für Open-Source-Schwachstellen, nicht automatisch, also in einem Push-Modell, an die Benutzer verteilt werden.

Open Source funktioniert nach dem Pull-Modell. Der Benutzer muss Patches aktiv abholen und einspielen. Wenn Sie allerdings nicht wissen, dass Sie eine schwachstellenbehaftete Open- Source-Komponente verwenden, wissen Sie natürlich nicht genug, um sich den entsprechenden Patch herunterzuladen. Die wirklich schlechte Nachricht ist, dass Hacker und andere Angreifer ausgesprochen genau auf Schwachstellenlisten achten, sobald diese veröffentlicht werden.

Anschließend wird man versuchen, Unternehmen zu finden, die eine anfällige Komponente verwenden. Ein berüchtigtes Beispiel ist der Equifax-Hack von 2017. Equifax ist eine der vier großen Wirtschaftsauskunfteien mit Sitz in den USA. Bei diesem Hack wurden Sozialversicherungsnummern und andere personenbezogene Daten von mehr als 147 Millionen Kunden kompromittiert. Wie konnte das passieren? Nun, das Unternehmen hat versäumt, einen Patch für das beliebte Open Source Framework Apache Struts einzuspielen. Einen Patch, der bereits seit einigen Monaten verfügbar war.

Dazu kommt das rechtliche Risiko. Open Source darf zwar frei verwendet und modifiziert werden. Das heißt aber nicht, dass es keine Lizenzbestimmungen oder andere juristische Einschränkungen gibt. Auch für Lizenzkonflikte dieser Art gibt es ein berühmtes Beispiel, auch wenn es mehr als ein Jahrzehnt zurückliegt: Cisco hat den Router-Anbieter Linksys übernommen. Offenbar war beiden Unternehmen nicht bewusst, dass einige der Router, Linksys-Router, Open-Source-Komponenten enthalten, die unter eine Lizenz fallen. Diese Lizenz verpflichtete jeden, der sie in einem Produkt verwendet, dazu, den Quellcode für das Produkt öffentlich zu machen. Letztendlich sah Cisco sich gezwungen, den Quellcode für einige sehr teure Router offenzulegen. Das machte es für die Konkurrenz ziemlich simpel, die Router zu klonen. Nur eben sehr viel billiger. Cisco hat die ganze Sache Hunderte Millionen Dollar gekostet.

Wie lassen sich Open-Source-Schwachstellen besser als in den besagten Beispielen managen?

Sie brauchen eine Reihe von Tools und Diensten, um unvermeidliche Designfehler zu finden und zu beheben. Solche Tools umfassen verschiedene Arten von AppSec-Tests. Während Sie Code schreiben oder assemblieren, führen Sie eine statische Analyse und eine Software Composition Analysis durch, um Schwachstellen sowohl in proprietärem als auch in Open Source-Code zu finden. Für den laufenden Code setzen Sie dynamische und interaktive Tests ein und Konfigurationsüberprüfungen, sobald Sie definierte oder laufende Umgebungen haben. Abschließend helfen Fuzz-Tests, also zufällige Eingaben, festzustellen, wie eine nahezu fertige Anwendung auf fehlerhaften oder zufälligen Code reagiert.

Der aktuelle 2021 OSSRA-Bericht[2]dokumentiert, dass Open-Source-Software inzwischen Teil so gut wie aller heute verwendeten Codebasen ist, und das branchenübergreifend: 100 % der untersuchten Codebasen in Marketing-Tech-Unternehmen nutzen Open-Source-Komponenten, 98 % im Gesundheitswesen, 97 % bei Finanzdienstleistern und Fin-Techs sowie 92% in Einzelhandel und E-Commerce. Gleichzeitig wächst allerdings auch die Angriffsfläche und zwar stetig. Nicht nur, dass eine Vielzahl der verwendeten Open Source-Komponenten Schwachstellen aufweisen. Alarmierende 91 % aller Codebasen weisen Open-Source-Abhängigkeiten auf, die in den letzten zwei Jahren nicht mehr weiterentwickelt worden sind. Das heißt, der Code wurde weder verbessert, noch wurden Sicherheits-Patches zur Verfügung gestellt.  

Wie gesagt, im Gegensatz zu kommerzieller Software, wo die Anbieter ihren Kunden die entsprechenden Informationen im Push-Modus zukommen lassen, hängt das Wohl und Wehe von Open Source ganz vom Engagement der Gemeinschaft ab. Wird eine Open-Source-Komponente in ein kommerzielles Angebot eingebettet und fehlt das entsprechende Engagement, beeinträchtigt das die Lebensfähigkeit des gesamten Projekts. Solche aufgegebenen Projekte sind kein neuartiges Phänomen. Aber wenn es auftritt, ist es wesentlich schwieriger, die damit verbundenen Sicherheitsprobleme zu beheben.

Dabei ist die Lösung simpel – Firmen sollten in die Unterstützung genau der Projekte investieren, von denen ihr Erfolg abhängt.

Ermutigend ist trotzdem, dass eine große Mehrheit der Unternehmen, inzwischen Richtlinien für die Nutzung von Open Source eingeführt hat. Mit anderen Worten, welche Komponenten sind erlaubt und welche Lizenzen gelten als akzeptabel. Allerdings verwenden Entwicklungsteams immer noch eine breite Palette von Sicherheitstools, fast ein Dutzend im Schnitt. Das ist zwangsläufig ineffektiv.

###


[1] https://www.synopsys.com/blogs/software-security/bsimm11-mkt-trends/

[2] 2021 Open Source Security and Risk Analysis (OSSRA)

Aufmacherbild / Quelle / Lizenz
Bild von Dok Sev auf Pixabay

Das New Normal ist nachhaltig

Autor: Ronald Focken

Corona und die Folgen für die Nachhaltigkeit – wie wir die positiven Effekte nutzen können

Irgendwann werden für Corona dankbar sein. Dankbar dafür, dass die Corona-Krise Nachhaltigkeitskonzepte auf unterschiedlichsten Ebenen extrem beschleunigt hat. Die Wirtschaft ebenso wie Behörden und Organisationen stehen unter erheblichem Anpassungsdruck. Sie müssen neue Verfahren entwickeln, um unter den Pandemiebedingungen ihre Geschäfte und ihre Aufgaben zu erledigen. Viele Menschen verändern ihre Gewohnheiten und auch ihre Lebensentwürfe.

Die aktuelle Situation mit seinem Veränderungszwang wird zwar in vielen Bereichen als Stress wahrgenommen, aber sie wird unsere Gesellschaft und ebenso das geschäftliche Miteinander nachhaltig verändern. Corona ist nicht an allem schuld, aber es wirkt als Beschleuniger auf alles.

Corona hat die in Deutschland zu großen Teilen bislang so sträflich vernachlässigte Digitalisierung vorangetrieben. Sie hat endlich die notwendigen Verfahren etabliert, gegen die sich viele noch vor wenigen Monaten gewehrt hatten. Liebgewonnene, festverankerte Methoden lassen sich unter den neuen Bedingungen nicht mehr verteidigen. Das erzwungene Umdenken ist ein Segen, weil es die absolut notwendigen Entwicklungen in einer Weise beschleunigt, die davor nahezu undenkbar war. 

Unser Autor

Ronald Focken ist Geschäftsführer bei Serviceplan und gilt als einer der führenden Markenführungs-Experten.

Er beginnt seine Karriere in der Werbebranche als Kundenberater bei der FCB Gruppe sowie bei Economia in Hamburg. Anschließend arbeitet er bei Scholz & Friends als Etatdirektor und wechselt 1990 zur Serviceplan Gruppe nach München. Seit dem Jahr 2000 wirkt Focken als Geschäftsführer und Gesellschafter bei Serviceplan. Privat findet er seinen Ausgleich beim Joggen, Segeln oder Fahrradfahren.

Beschleunigte Umsetzung der Agentur-Pläne

Die Serviceplan Group beispielweise hat vor rund 1,5 Jahren ihre Nachhaltigkeitsinitiative gestartet. Dieses Projekt war und ist wichtig, weil wir mit den natürlichen Ressourcen sparsam umgehen und die CO2-Belastung durch unsere Arbeit verringern wollen. Damit wollten wir auch eine Leuchtturmfunktion innerhalb der Agentur- bzw. Beratungsbranche einnehmen und so für einen starken Impuls sorgen.

Die ersten Maßnahmen sind einfach nachzuvollziehen: Beispielsweise hatten wir bereits 2019 für das folgende Jahr geplant, Reisen zu Kundenterminen oder Events massiv zu reduzieren und nur noch unverzichtbare durchzuführen. Spezielle Reisen sind seit damals in unserem internen Organisationstool aktiv gesperrt und können erst nach Genehmigung freigegeben werden. Alle Fahrten in einem Umkreis von 400 km sind beispielsweise nur noch mit dem Zug zugelassen.

„Die Zeiten der langsamen und langfristig ausgelegten Umgestaltung ist vorbei.“

Nachhaltigkeit ist das neue Normal

Auch die Regelungen für mehr Home-Office und Kundentermine per Videokonferenz wurde da bereits etabliert. Durch Corona haben sich die Umsetzung dieser Pläne natürlich extrem beschleunigt und auch die Akzeptanz der Maßnahmen bei allen Beteiligten und auf allen Entscheidungsebenen grundsätzlich erhöht.

Nachhaltigkeit ist jetzt für das gesamte Team ebenso wie für Kund:innen und Kooperationspartner:innen kein lästiger Verzicht mehr, Nachhaltigkeit hat ein neues Level von Normalität erreicht. Nachhaltiges Handeln ist für viele im täglichen Leben selbstverständlich geworden ohne, dass sie es als solches empfinden.

Nachhaltigkeit ist ein Lernprozess

Natürlich ist Nachhaltigkeit kein Thema allein für uns als Agentur. Es wird auch für alle Industriebereiche relevanter. Was sich aktuell ereignet ist eine tektonische Verschiebung – und sie beschleunigt sich. Viele Unternehmen wissen, wie notwendig ein Umdenken ist, aber erst jetzt merken sie, dass das Klimarisiko ein Geschäftsrisiko ist und sie ganz konkret selbst betrifft. Der Handlungsdruck nimmt auf allen Ebenen zu und ein Aussitzen ist nicht mehr möglich.

Viele Kunden kommen jetzt auf uns zu wollen sehen, was wir als Beratungsagentur machen, welche Lehren gezogen wurden und welche Erfahrungen wir gemacht haben. Das Gute ist, sie können von unseren Learnings profitieren und gemeinsam können wir entscheiden, was sich sinnvoll übertragen lässt. Die Aufgabe ist klar, wir müssen unseren Beitrag dazu leisten und das gesammelte Know-how weitergeben.

Auch das ist ein Grund, warum wir unsere Anstrengungen verstärken. Im Frühjahr 2021 haben wir zum Beispiel eine „Green Week“ bei Serviceplan geplant. Eine Woche lang steht dann das Thema Nachhaltigkeit ganz oben und wird in vielen Aktionen gespielt. Gleichzeitig halten Expert:innen und Vordenker:innen Vorträge zu den unterschiedlichen Themen-Facetten, die aber alle eines gemeinsam haben: Es geht um die Umsetzung, nicht um philosophisch-politische Gedankenspiele. Und natürlich wollen wir uns nicht nur die Business-Ebene beschränken, sondern ebenso die Übertragungsmöglichkeiten ins private Umfeld aufzeigen.

Strukturelle Veränderungen sind Pflicht

Wir stehen vor dem ultimativen Langzeitproblem, dem sich jede Regierung, jedes Unternehmen und jeder Mensch stellen muss. Die Zeiten der langsamen und langfristig ausgelegten Umgestaltung ist vorbei. Es geht darum, sich strukturell zu verändern – und zwar jetzt. Aktuell ist die beste Zeit dafür. Noch beherrschen aber andere Themen die Agenda vieler Unternehmen. Doch sie merken, dass sie handeln müssen und das nicht nur, weil Nachhaltigkeit eine Marketing-Kategorie oder besonders wirkungsvolles Verkaufsargument ist.

Es handelt sich um nicht weniger als eine Zeitenwende, bei der es nicht mehr allein damit getan ist, auf den Klimawandel zu reagieren. Larry Fink, der CEO von Blackrock, bringt es auf den Punkt, wenn er sagt: „Kein Thema hat eine höhere Priorität. Selbst in der Corona-Krise hat der Kampf gegen die CO2-Emissionen für uns als weltweit größten Asset-Manager absolut Vorrang. Das Ziel muss immer lauten: Klimaneutralität.“  

Die Folgen dieses Umdenkens sind fundamental. Das globale Wirtschaftsmodell, wie wir es bislang kannten, ändert sich auf regulatorischer, technologischer und geopolitischer Ebene. Jedes einzelne Unternehmen muss sich diesen und weiteren Herausforderungen stellen, etwa dass immer mehr Menschen, die Fokussierung auf die Unternehmensrendite infrage stellen, die Funktionsweise des kapitalistischen Systems reformieren möchten und darauf bestehen, dass bestehende Geschäftsmodelle überdacht werden.

Produkte müssen neu gedacht werden

Es sind gerade die Jüngeren, die das lautstark und vehement fordern. Nachhaltigkeit ist auch eine Generationenfrage und sie wird deshalb zunehmend zum entscheidenden Kriterium für Unternehmen und ihre Produkte. Diese werden inzwischen viel stärker hinterfragt als früher. Reine Markenloyalität reicht dabei längst nicht mehr aus. Nehmen wir ein ganz normales Körperhygiene-Produkt wie ein Shampoo. Während sich früher kaum jemand für die umhüllende Plastikflasche interessiert hat, sondern nur für die inhaltlichen Bestandteile, wird die Verpackung nun zum kaufentscheidenden Faktor – oder eben zum Faktor, der einen Kauf verhindert. Millionenfach greifen Konsument:innen statt zur bisher üblichen Flasche mit flüssigem Haarwaschmittel zum Festen Shampoo, weil sie damit Plastikmüll sparen.    

Gleichzeit erhält der soziale Faktor einen höheren Stellenwert. Bestes Beispiel ist das junge Unternehmen „Market Share“ aus Berlin. Sein „1+1 Prinzip“ ermöglicht es, sich selbst etwas Gutes zu tun und gleichzeitig einem Menschen in Not zu helfen: Jeder Snack spendet eine Mahlzeit, jedes Pflegeprodukt ein Hygieneprodukt, jedes Getränk einen Tag Trinkwasser und jeder Schreibwarenartikel spendet eine Schulstunde.

„Wer jetzt nicht handelt, wird nicht nur seine Kund:innen verlieren, sondern gefährdet auch seine komplette Geschäftsbasis.“

Mehr als eine Zeitgeisterscheinung

Konsum kombiniert mit einem sozialen Konzept ist nicht nur bloßer Zeitgeist und eine Beruhigung für das Gewissen in den Industrieländern. Er ist eine Aufforderung an Unternehmen, ihre gesamte Produktpolitik zu überdenken und zu verändern. Entwicklung, Produktion und Vertrieb sowie das Marketing müssen diese strukturelle Veränderung nachvollziehbar widerspiegeln. Sie müssen beweisen, dass sie den sozialen Aspekt, die gesellschaftliche Verantwortung und die Ausrichtung auf den Gemeinsinn nicht nur kosmetisch aufweisen.

Denn die jungen Startups und neuen Produktlinien stehen in direktem Wettbewerb mit den etablierten Konzernen wie Henkel, Procter & Gamble und Unilever und sie setzen sich in vielen Bereichen sehr erfolgreich durch. Die Pandemie wirkt hier wie ein Katalysator. Wer nicht abgehängt werden will, muss nun mitziehen, wer die Zukunft gestalten will, muss in sie investieren. Wer nicht streng zu sich selbst und bereit ist, festgefahrene Strukturen und Handlungsweisen aufzugeben, wird überholt werden.

Wert des Gemeinsinns steigt

Denn Marktanteile werden heute auch über echte Nachhaltigkeit gewonnen. Die Konsument:innen sind zu Recht skeptisch gegenüber Greenwashing und Pseudo-Nachhaltigkeit geworden. Wirtschaftlicher Erfolg und Markenwert definiert sich heute anders und bemisst nach erweiterten Faktoren, etwa dem Ressourcenverbrauch.

Corona hat in diesem Sinn den Gemeinsinn massiv gefördert, und auch die Wahrnehmung umgekehrt, was wahren Reichtum und Status ausmacht. Nur möglichst viel Geld zu verdienen und mit dem Privat-Jet um den Globus zu fliegen, sind nicht mehr die Symbole, auf die es noch ankommt. Dieser Werte- und Imagewandel in vielen Bereichen wird sich auch nach der Pandemie fortsetzen.

Die Werteverschiebung lässt sich auch bei Bewerber:innen feststellen. In den Gesprächen beziehen sich die ersten Fragen nahezu immer darauf, was Unternehmen für die Nachhaltigkeit tun und wie sie ihrer sozialen Verantwortung gerecht werden. Kaum jemand will für Marken arbeiten, die hier nicht punkten können. Das ist natürlich eine spannende Entwicklung für das Employer Branding, aber es erhöht auch den Druck auf das Management.

Dieser revolutionäre Ansatz betrifft alle

Forderungen kommen auch von politischen Organisationen und supranationalen   Entscheidergremien. Der EU etwa setzt immer strengere Maßstäbe an, wenn es Klimaneutralität geht. Versuchen sich viele Unternehmen auf ihre nachhaltigen Errungenschaften bei ihrer Produktion zu fokussieren, will Brüssel auch die Lieferkette und die Produkte einbezogen wissen.

Der Kerngedanke dabei ist, das Business nicht grüner zu machen, sondern es strukturell anders und neu zu machen. Das ist ein durch und durch revolutionärer Ansatz, der alle Unternehmensbereiche umfasst – und dem sich kein Unternehmen mehr entziehen kann. Wer jetzt nicht handelt, wird nicht nur seine Kund:innen verlieren, sondern gefährdet auch seine komplette Geschäftsbasis.  

https://www.serviceplan.com/de.html

Aufmacherbild / Quelle / Lizenz
Photo by Jon Tyson on Unsplash

Wie sich die Rolle von Führungskräften in der Krise verändert

Dies ist ein Gastbeitrag von Vanessa Kowollik, EX XM Scientist bei Qualtrics

Jede Krise stellt die Qualitäten von Führungskräften auf die Probe, doch die aktuelle Situation wirft besonders viele Fragen auf. Die Welt sieht sich mit einer globalen Pandemie, sozialen Unruhen und unerwarteten Wirtschaftseinbußen konfrontiert. Führungskräfte rund um den Globus sind aufgefordert, sich immer wieder auf neue Situationen einzustellen.

Im Laufe einer Krise verändert sich die Rolle von Führungskräften. Doch nicht jedem gelingt es, immer auf die Bedürfnisse der Angestellten einzugehen und zu erkennen, in welchen Bereichen sie ihn am dringendsten brauchen. Wer es allerdings schafft, die richtigen Entscheidungen zu treffen, wird – ebenso wie seine Mitarbeiter – stärker und widerstandsfähiger aus der Krise hervorgehen.

Neue Aufgaben der Führungskräfte

Mitarbeiterengagement wird meist anhand von Variablen gemessen – etwa daran, wie stark sich jemand mit seiner Arbeit identifiziert, wie sehr er sich einsetzt und was er über sein Unternehmen denkt. Vor der Pandemie lief die Förderung des Mitarbeiterengagements über Schulungs- und Entwicklungsmöglichkeiten, Anerkennung und den Abgleich der Ziele des Unternehmens und des Mitarbeiters.

Doch in Krisenzeiten verschieben sich die Motive des Personals in Bezug auf ihr Engagement. Laut einer globalen Studie über die Mitarbeiterbelastbarkeit steigt das Engagement von Angestellten, wenn sie Vertrauen in die Entscheidungen der Führungsetage haben, sie bei der Anpassung an Unternehmensveränderungen von den Managern Unterstützung erfahren und sie sich darauf verlassen können, dass die Führungsebene ihr Wohl im Sinn hat.

Noch vor wenigen Monaten galten Programme zur Förderung des Wohlbefindens von Beschäftigten als nettes Plus für die Employee Experience. Heute bilden sie einen wesentlichen Bestandteil der Unternehmensstrategie. Denn in unsicheren Zeiten können selbst die widerstandsfähigsten Mitarbeiter von einer schlechten Arbeitsatmosphäre aufgerieben werden.

Eine gute Führungskraft weiß, dass das Wohlbefinden der Mitarbeiter sowohl in den Händen des Unternehmens als auch in denen des Personals liegt, und übernimmt diese Verantwortung für das Unternehmen. Doch was bedeutet das im Einzelnen?

Verantwortung für das Wohlbefinden der Mitarbeiter übernehmen

Führungskräfte, die sich während einer Krise engagiertes und belastbares Personal wünschen, sollten den Vorgesetzten das nötige Rüstzeug mitgeben, um ihre Teams zu unterstützen – also sie auf Veränderungen richtig vorzubereiten und ihnen bei Herausforderungen zur Seite zu stehen.

Mitarbeiter, die sich auf die Unterstützung ihrer Manager verlassen können, haben eine doppelt so hohe Belastungsgrenze wie ihre Kollegen, bei denen das nicht so ist (86 Prozent gegenüber 43 Prozent). Die Wahrscheinlichkeit, Engagement zu zeigen, steigt dabei um das Dreifache (79 Prozent gegenüber 23 Prozent), so die Studie. Doch tatsächlich hatten nur 67 Prozent der Beschäftigten das Gefühl, während der Pandemie bei der Anpassung an organisatorische Änderungen unterstützt worden zu sein.

Manager haben verschiedene Möglichkeiten, ihre Teams zu unterstützen:

  • Hilfe bei der Stressbewältigung: Vereinfacht gesagt entsteht Stress, wenn die zu bewältigenden Aufgaben mehr Ressourcen benötigen, als verfügbar sind. Manchmal mag es tatsächlich angebracht sein, das Arbeitspensum eines Mitarbeiters zu reduzieren. Doch primär sollte der Manager prüfen, welche Ressourcen vorhanden sind und wie der Angestellte ihre Verfügbarkeit einschätzt.
  • Arbeitspensum verwalten: Beschäftigte mit einem zu hohen oder zu geringen Arbeitspensum haben niedrigere Belastbarkeitsgrenzen als solche mit genau dem richtigen oder einem leicht erhöhten Pensum. Durch die Investition in Tools oder Schulungen tragen Führungskräfte dazu bei, dass Manager ihre Prioritäten wieder neu ausloten und ihre Mitarbeiter anleiten können, dies ebenfalls zu tun.
  • Besinnung auf die Grundwerte: In Zeiten wie diesen stellt die Arbeit nicht den einzigen großen Stressfaktor dar. Möchten Führungskräfte und Manager das Wohlbefinden ihres Personals verbessern, sollten sie sich auf Grundwerte wie Anteilnahme, Zuwendung, Empathie und Transparenz zurückbesinnen. Unternehmen müssen entsprechende Trainingsprogramme bieten, in denen Manager und Führungskräfte lernen, dies umzusetzen.

Zuhören und handeln

Über 90 Prozent der Arbeitnehmer hielten Mitarbeiterbefragungen während der Krise für wichtig oder sehr wichtig. Doch nur 51 Prozent von ihnen wurden tatsächlich um Feedback gebeten. Diejenigen Mitarbeiter, deren Rückmeldungen eingeholt wurden, schätzten ihre Belastbarkeit deutlich höher ein, als die, bei denen das nicht der Fall war.

Mitarbeiterbefragungen sind essentiell, damit Unternehmen engagiertes und produktives Personal ausbilden können. Doch nur, wenn die Führungskräfte darauf eingehen und entsprechend handeln, ist Zuhören wirklich sinnvoll. Fast 70 Prozent der Beschäftigten in Unternehmen, die auf das Feedback reagieren, möchten langfristig in der Firma bleiben – im Gegensatz zu 48 Prozent der Angestellten, bei denen das Feedback nur unzureichend umgesetzt wird.

Führungskräfte können ihren Mitarbeitern den Wert von Feedback für Entscheidungsprozesse auf verschiedene Weise verdeutlichen, etwa indem sie ihnen veranschaulichen, wie es in der Organisation genutzt wird, oder indem sie sicherstellen, dass die Kommunikation die Empfindungen und Erfahrungen der Arbeitnehmer widerspiegelt. Eine weitere Möglichkeit ist, Themen aufzugreifen, die sich aus dem Feedback ergeben, und zu erläutern, wie sie eine bestimmte Entscheidung oder Maßnahme beeinflusst haben.

Besonders in Krisenzeiten müssen Führungskräfte Verantwortung für das Wohlbefinden ihrer Beschäftigten übernehmen, indem sie sie unterstützen, auf sie eingehen und auf ihr Feedback reagieren. Krisen mögen eine besondere Herausforderung darstellen, doch sie bieten auch Gelegenheit, Aufgaben zu bewältigen und stärker aus ihnen hervorzugehen.

Über die Autorin

Vanessa Kowollik ist EX XM Scientist bei Qualtrics und unterstützt Kunden bei der Entwicklung und Skalierung von Mitarbeiter-Experience-Programmen. Davor arbeitete Kowollik als Senior Consultant bei IBMs Talent Management Solution, wo sie an der Leitung der Mitarbeiterbefragung beteiligt war. Kowollik verfügt über zehn Jahre Erfahrung in der Personalbetreuung verschiedener Branchen wie dem Bankwesen, der Telekommunikation und dem verarbeitenden Gewerbe. Zu ihrem Fachbereich gehören Umfragen zum Mitarbeiter-Engagement und Pulsbefragungen, 360°- und 180°-Umfragen, Personalauswahl und -bewertung sowie die Entwicklung von Kompetenz-Frameworks. Kowollik erwarb ihren Doktor in Betriebs- und Organisationspsychologie an der Universität Oklahoma im Bereich Cognitive Skill Acquisition.


Weitere Informationen unter:
https://www.qualtrics.com/de/

Intersolar Europe Restart 2021

Solarstrom wird in Polen immer beliebter

München/Pforzheim, 11. Mai 2021 – Die Photovoltaik (PV) in Polen boomt: Nach Angaben von SolarPower Europe wurden im Jahr 2020 2,2 Gigawatt (GW) Solarstromleistung installiert – nahezu das Dreifache wie im Vorjahr (823 Megawatt (MW)). Das ist Platz vier in Europa, hinter Deutschland (4,8 GW Zuwachs in 2020), Niederlande (2,8 GW) und Spanien (2,6 GW). Damit ist Polen ein interessanter und aufstrebender Markt für die gesamte Branche.

Diese trifft sich auf der Intersolar Europe Restart 2021 vom 06. bis 08. Oktober auf der Messe München. Als Teil von The smarter E Europe Restart 2021 stellen Hersteller, Zulieferer, Händler und Dienstleister ihre Produkte und Innovationen auf der weltweit führenden Fachmesse für die Solarwirtschaft vor.

Alle Zeichen deuten auf eine weitere starke Expansion: Der polnische Solarmarkt soll künftig jährlich um 35 Prozent wachsen, sodass im Jahr 2024 die PV-Leistung 8,3 GW erreicht. So die mittlere, eher konservative Prognose des europäische PV-Branchenverbands SolarPower Europe im EU Market Outlook. „Die PV in Polen boomt auf allen Ebenen – von privaten und kommerziellen PV-Dachanlagen bis hin zu großen Freiflächenanlagen“, bestätigt Dr. Stanislaw Pietruszko, Präsident der Polnischen Gesellschaft für Photovoltaik (PV Poland).

Laut PV Poland wuchs die Zahl der registrierten Kleinanlagen – unter 50 Kilowatt (kW) – mit einer durchschnittlichen Leistung von 6,5 kW um das Dreifache: von 155.000 (992 MW) Ende 2019 auf 457.400 (3 GW) Ende 2020. Diese kleinen Anlagen machen 75 Prozent der gesamten in Polen installierten PV-Leistung aus. Für das prognostizierte Wachstum spricht außerdem: Größere PV-Projekte mit einer Leistung von 4 GW haben bereits vorläufige Netzanschlussgenehmigungen erhalten.  

8.000 Beschäftigte in der PV-Branche

Das PV-Marktvolumen in Polen belaufe sich auf 2,2 Milliarden Euro, in der Branche seien 8.000 Menschen tätig, betonte kürzlich Andrzej Kazmierski, stellvertretender Direktor der Abteilung für emissionsarmes Wirtschaften im Ministerium für Entwicklung, Arbeit und Technologie im Intersolar Europe Webinar „A Rising Star: PV Market Poland“ Ende März 2021. Wichtige Herausforderungen sieht Kazmierski in der Umsetzung der Erneuerbare-Energien-Richtlinie (RED II) der EU, um Energiegemeinschaften und kollektive Prosumer sowie langfristige Stromabnahmeverträge, sogenannte Power Purchase Agreements (PPAs) zu fördern. Auch sei die erneuerbare Energie stärker ins Energiesystem einzubinden, das Energiemanagement sowie die Netze verstärkt auszubauen. Die Regierung wolle den Rahmen für ein stabiles Marktwachstum schaffen und die lokale Wertschöpfung stärken.

Staatliche Förderprogramme in Polen

Neben stark gesunkenen PV-Kosten und dem wachsenden Umweltbewusstsein wird der polnische PV-Markt durch eine Reihe von staatlichen Programmen wie My Current (230 Mio. €), Clean Air und Wärmemodernisierung befördert. Das Förderprogramm Agroenergia (50 Mio. €) bietet beispielsweise Landwirten zinsgünstige Kredite oder direkte Zuschüsse für den Bau von Solarstromanlagen zwischen 50 kW und 1 MW. Um Prosumer stärker zu unterstützen, wurden Förderprogramme für Net-Metering auf kleine und mittlere Unternehmen erweitert. Solarstromanlagen mit weniger als 50 kW Leistung profitieren von der günstigen Mehrwertsteuer von acht Prozent (gegenüber den üblichen 23 Prozent). Die Anschaffungs- und Installationskosten können mit dem Einkommen verrechnet werden, was die Einkommenssteuer reduziert. 

Ein weiteres Instrument sind staatlich geförderte Auktionen, die für die Finanzierung von Großanlagen genutzt werden: Betreiber Erneuerbarer-Energie-Anlagen, die den niedrigsten Strompreis anbieten, werden ausgewählt und der Bau ihrer Anlagen staatlich gefördert. Der Gewinner einer Auktion im Dezember war ein Investitionsprojekt für den Bau eines 200-MW-Solarparks in der Woiwodschaft Pommern.

Unternehmen setzen auf Solarstrom für den Eigenverbrauch

Darüber hinaus gibt es in Polen große Solarprojekte, die nicht auf Subventionen angewiesen sind, wie ein 64-MW-Solarpark in Witnica nahe der deutschen Grenze, dessen Strom über einen mehrjährigen Stromabnahmevertrag (PPA) an eine Zementfabrik verkauft wird. In Konin (Woiwodschaft Großpolen) wird etwa eine neue Fabrik für Batteriekathodenmaterialien, die in Elektroautos verwendet werden, zu 100 Prozent mit erneuerbarem Strom betrieben. Außerdem setzen große Unternehmen zunehmend auf Solarstrom zum Eigenverbrauch. Zum Beispiel deckt ein führender Hersteller von Metallmöbeln in Suwalki (Woiwodschaft Podlaskie) im Nordosten Polens seinen Bedarf seit kurzem mit Strom von einer 2-MW-Dach- und von Freiflächenanlagen auf dem Firmengelände.

Intersolar Europe Restart 2021 präsentiert Produkte und Innovationen

Über Entwicklungen, Produkte und Anwendungen in den Bereichen Photovoltaik, Solarthermie, Solarkraftwerke sowie Netzinfrastruktur und Lösungen für die Integration erneuerbarer Energie informiert die Intersolar Europe Restart 2021 vom 06. bis 08. Oktober auf der Messe München. Auf dem wichtigsten Branchentreff der Solarwirtschaft präsentieren Hersteller, Zulieferer, Händler und Dienstleister ihre Produkte und Innovationen. Die Materialien zum Webinar „A Rising Start: PV Market Poland“ können hier heruntergeladen werden.

Zur Veranstaltung

Die Intersolar Europe findet in diesem Jahr vom 06. bis 08. Oktober als Intersolar Europe Restart 2021 auf der Messe München im Rahmen von The smarter E Europe Restart 2021 statt. Während des zuletzt geplanten Veranstaltungszeitraums, vom 21. bis 23. Juli 2021, finden die The smarter E Industry Days inklusive der Preisverleihung für den The smarter E AWARD, Intersolar AWARD und ees AWARD 2021 digital statt.

Weitere Informationen finden Sie im Internet unter: 

www.intersolar.de
www.TheSmarterE.de

Intersolar Europe
Die Intersolar Europe ist die weltweit führende Fachmesse für die Solarwirtschaft und findet jährlich auf der Messe München statt. Um den solaren Anteil an der Energieversorgung zu erhöhen, verbindet sie Menschen und Unternehmen aus aller Welt – ganz nach dem Motto: “Connecting solar business”. 

Kontakt: Solar Promotion GmbH | Postfach 100 170 | 75101 Pforzheim
Horst Dufner | Tel.: +49 7231 58598-0 | Fax: +49 7231 58598-28 info@solarpromotion.de
Presse-Kontakt: fischerAppelt, relations | Otl-Aicher-Str. 64 | 80807 München
Robert Schwarzenböck | Tel. +49 89 747466-23| Fax +49 89 747466-66
robert.schwarzenboeck@fischerappelt.de

Aufmacherbild / Quelle ( Lizenz
Photo by Jeremy Zero on Unsplash