Hybride Planung sichert Projekterfolg

Braucht die digitale Transformation ein neues Projektmanagement und neue Projektmanager? Genügen für die digitale Transformation die herkömmlichen Instrumente des Projektmanagements? Thomas Schlereth, Geschäftsführer der Can Do GmbH, gibt im Interview mit der Redaktion Antworten.

Herr Schlereth, welche Rolle spielt das Projektmanagement im Kontext der digitalen Transformation?
Die digitale Transformation begünstigt die Relevanz des Projektmanagements in der gegenwärtigen Situation. Zum einen müssen Unternehmen die Digitalisierung jetzt zügig angehen und sind damit wirklich schon spät dran; zum anderen müssen Unternehmen die Digitalisierung zielstrebig fortsetzen. Dies betrifft vor allem die Zusammenarbeit der Personen, um Vorhaben gezielt schnell und sicher umzusetzen. Dabei greifen die üblichen Verfahren „auf Zuruf“ und „Meetings“ immer seltener, da sie zeitraubend und fehleranfällig sind. Die häufig anzutreffende Planung mit Hilfe von Excel-Listen hat sich in der Vergangenheit als umständlich und fehlerbehaftet erwiesen. Sie wird vom Personal schlicht und ergreifend nicht mehr akzeptiert. Der Wunsch nach einer professionellen Planung von Projekten und der dedizierten Zuweisung von Arbeitspaketen und Ressourcen wird dementsprechend lauter.

Welche Rolle spielen agile Methoden schon oder klassische Methoden noch?
Die Modelle verschmelzen zunehmend. Lange, klassische Projekte mit der Wasserfallmethode lassen sich gar nicht mehr umsetzen. Dazu sind die Themenstellungen inzwischen zu komplex und volatil. Ein rein agiles Vorgehen, beispielsweise mit Scrum, ist für viele Vorhaben aber auch nicht die Lösung, da hier die mittel- und langfristige Planungssicherheit fehlt. Während Entwicklungsabteilungen beispielsweise auf agile Methoden wie Scrum schwören, stellt diese Vorgehensweise Projektmanager und Portfoliomanager in der Planung vor unlösbare Aufgaben: Sie wissen nicht, ob und wann die agilen Teams die Arbeiten für das Projekt umsetzen. Ebenfalls fehlt die Kapazitätsplanung in agilen Methoden, was das unternehmensweite Ressourcenmanagement des Portfoliomanagers erschwert. Diese Informationsdefizite können nur durch einen hohen Abstimmungs- und Kommunikationsaufwand ausgeglichen werden. Insofern macht es sehr viel Sinn, beide Methoden in einem Projekt zu kombinieren und damit den „hybriden Königsweg“ der Umsetzung zu beschreiten.

Welche Vorteile haben Unternehmen, die heute auf hybrides Projektmanagement setzen?
Die Projektleitung und das Team nutzen im hybriden Projektmanagement „das Beste aus zwei Welten“, denn sie können den agilen und den klassischen Planungsansatz in den Projekten kombinieren. Die ersten Phasen des Projektes werden häufig klassisch geplant. Kommt es zur Umsetzung, wird eher agil gearbeitet. Das klingt herausfordernder als es ist, denn die modernen Softwaresysteme unterstützen diese Vorgehensweise optimal. Die Software nimmt den Teammitgliedern viel Denkarbeit ab, so dass sie keine Spezialisten sein müssen. Sie vereinfacht die Synchronisation der beiden Planungswelten, so dass letzten Endes der gesunde Menschenverstand ausreicht, um Projekte hybrid und erfolgreich zu managen.

Wo lagen die Herausforderungen um beide Welten zu verbinden?
Die klassische Planung gibt sehr genau vor, wer was wann macht. Agile Verfahren billigen den Teams dagegen hohe Entscheidungsbefugnisse zu. So können sie beispielsweise schnell selbst entscheiden, wer was wann macht und die Planung dynamisch – wenn auch in gewissen Grenzen – den Gegebenheiten des Teams anpassen. Besonders herausfordernd ist in diesem Zusammenhang die Ressourcenplanung, da diese mehr und mehr extrem komplex wird und den Anspruch hat, Überlastungen und andere Risiken zu berücksichtigen. Diese verknüpfte Planung und Berücksichtigung aller Restriktionen kann nur von Software-Tools geleistet werden, die die erwähnten Auslastungen und damit verbundenen Risiken mit dynamischen Kapazitätsmodellen verbinden. So wird hybrides Arbeiten überhaupt erst möglich und Erfolg versprechend.

Thomas Schlereth zu den Vorteilen hybriden Projektmanagements: „Die Projektleitung und das Team nutzen im hybriden Projektmanagement „das Beste aus zwei Welten“, denn sie können den agilen und den klassischen Planungsansatz in den Projekten kombinieren. Die ersten Phasen des Projektes werden häufig klassisch geplant.“

Herr Schlereth, wie wird künstliche Intelligenz in Zukunft das Projektmanagement beflügeln?
Die komplexen Algorithmen, die sehr tiefgreifende, umfassende Analysen in Echtzeit durchführen und Empfehlungen für das Management aussprechen, sind längst bei den Firmen angekommen. KI und clevere Algorithmen reduzieren die Arbeit im Projektmanagement meines Erachtens bereits heute um 50%. Analysen bei unseren Kunden haben ergeben, dass Planer KI quasi ständig verwenden. Das tun sie, weil sie einen Nutzen davon haben. Die KI werden jedoch immer weiterentwickelt und immer tiefer in die Methodik der Systeme eingebaut. Häufig merken Anwender gar nicht, dass manche Ergebnisse durch Mustererkennung oder lernende Systeme geliefert werden. Bisher sind dies immer Ratschläge und Empfehlungen. Die Entscheidung trifft noch der Mensch. Der nächste große Schritt wird aber die automatische Anpassung und Optimierung von Projektplänen durch KI sein.

Was bedeutet das zum Beispiel für die skill-basierte Kapazitätsplanung?
Hochqualifizierte Mitarbeiter in Unternehmen haben heute ca. fünf bis zehn Skills bzw. Fähigkeiten, die sie einbringen. Diese Menschen sind in den Unternehmen häufig weltweit verteilt, oft sogar in verschiedenen Tochterfirmen. Durch eine langfristige strategische Planung mit Skills kann das Unternehmen den Bedarf an Fähigkeiten, die benötigt werden, jedoch vorhersehen und entsprechend auch langfristig reagieren sowie unternehmensweit planen. Die Weiterbildung und Qualifizierung von Beschäftigten im Unternehmen sowie das Rekrutieren von neuem Personal wird damit auf eine völlig neue Ebene gehoben. Auch die Angestellten profitieren, da sie sehen, welche persönlichen Weiterentwicklungsmöglichkeiten auf der Basis zukünftiger Anforderungen bestehen. Sie gestalten ihren Karrierepfad und haben damit einen positiven Bezug zu ihrem Unternehmen. Häufig scheitert dieses Vorgehen aber an der Unfähigkeit des Top-Managements, langfristige Visionen und damit auch eine langfristige Skill-Planung zu erarbeiten. Umso größer ist dann die Überraschung, wenn ein technologischer Wandel unvermeidbar ist und das erforderliche Know-how im Unternehmen fehlt. Derartige Überraschungen und Hektik sind immer ein Zeichen für schlechte Planung durch das Management. Das wissen auch die Mitarbeitenden.

Inwieweit werden auch die Fähigkeiten ganzer Teams erfasst?
Das Kern-Know-how sollte sich im Idealfall besser nicht nur auf ein bis zwei Köpfe verteilen. Eine Klassifizierung, bei der wenige Teammitglieder die Know-how-Träger sind, während die anderen Beteiligten „nur“ zuarbeiten, ist ungünstig zu bewerten. Erst ein breites Spektrum von Wissen macht ein Team schlagkräftig und motiviert. Skill-Analysen und KI-gestützte Risikoermittlung unterstützen das Management bei der richtigen Team-Zusammenstellung und Entwicklung. Grundsätzlich sollten Teams immer gesamtheitlich betrachtet werden, um daraus die richtigen Schlüsse in puncto Projektplanung zu ziehen und gegebenenfalls entsprechende Qualifizierungsmaßnahmen abzuleiten.

Wie sollten Unternehmen gegen den Fachkräftemangel vorgehen?
Ich musste meine Ansichten zu diesem Thema in den letzten zwei Jahre deutlich verändern. Zunächst dachte ich, dass der Fachkräftemangel auf dem völligen Versagen der Bildungspolitik basiert. Die Europäische Union und die Globalisierung in diesem Bereich zeigen aber, dass es genügend Fachkräfte in allen Bereichen gibt. Fachkräftemangel ist daher – zu dieser Einsicht bin ich inzwischen gekommen – dem Attraktivitätsproblem der Firmen geschuldet. Der Bedarf an hochqualifizierten Menschen für die Betriebe kann weltweit leicht gedeckt werden. Voraussetzung aber ist, dass das Unternehmen attraktiv und global ausgerichtet ist. Beispielsweise wird in unserem Unternehmen in vielen Teams quasi selbstverständlich englisch gesprochen. Ebenfalls können die Teammitglieder frei wählen, ob sie vor Ort oder im Homeoffice arbeiten möchten und können darüber hinaus ihre Arbeitszeiten frei gestalten. Zum Einsatz kommt nur die modernste Technik, denn in der IT-Branche möchten die Leute nicht mit alten langsamen Notebooks an billigen kleinen Schirmen arbeiten. Sie möchten Smartphones haben und von Zuhause arbeiten, wann immer sie wollen. Dieser Arbeitsstil muss vom Management vorgelebt und verinnerlicht werden. Häufig sind aber gerade Mitglieder des Managements Bedenkenträger und Bremser. Diese Haltung führt dazu, dass Unternehmen es schwer haben, die Fachkräfte zu rekrutieren, die sie brauchen.
Zudem wollen die Menschen ja ihre Fähigkeiten im Unternehmen einbringen. Dementsprechend sollte auch geplant werden. Dynamik, Flexibilität und Kreativität sind die Basis für den Unternehmenserfolg. Diese Eigenschaften stellen kombiniert mit modernsten Computersystemen die Arbeitswelt von heute dar. Sie ist bereits Gegenwart und keine Zukunftsmusik!

Weitere Informationen unter:
https://www.can-do.de/hybrid-projectmanagement-whitepaper

Kollaborationssoftware für Bildungseinrichtungen und Non-Profit-Organisationen

Aufgrund der immer stärkeren Ausbreitung von Covid-19 bleiben in allen Bundesländern Schulen geschlossen.  Um dem so entstehenden Unterrichtsausfall entgegen zu wirken, bieten digitale Lösungen zur Kommunikation und Zusammenarbeit die Möglichkeit, den Unterrichtsbetrieb virtuell aufrecht zu erhalten. 

Frank Kirsch, Head of Collaboration Solutions bei Avaya Germany, gibt Tipps, was bei der kurzfristigen Einrichtung von solchen Lösungen beachten werden muss.  

Tipp 1: Nutzen Sie Lösungen, die mit der bestehenden Hardware kompatibel ist 

Um digitale Lösungen schnell umzusetzen, lohnt es sich, Kommunikations- und Kollaborationslösungen zu verwenden, die mit der bereits bestehenden IT-Infrastruktur kompatibel sind. Da diese in viele Lehreinrichtungen in Deutschland allerdings nicht auf dem neusten Stand ist, empfiehlt es sich, eine Cloud-basierte Lösungen zu verwenden, bei der keine neue Hardware benötigt wird und Implementationsprozesse schnell und einfach abgeschlossen sind und nur geringe Verwaltungs- und Wartungskosten mit sich bringen. Der Unterricht kann so ohne Probleme über die von der Lehreinrichtung zur Verfügung gestellten Geräte oder aber, bei entsprechender Einwilligung, über Laptops, Tablets oder Handys der Schüler, Studierenden und des Lehrpersonals virtuell stattfinden.  

Tipp 2: Mit Videos und Chat den Unterrichtsbetrieb virtuell aufrechterhalten  

Viele Schulen und Universitäten nutzen bereits E-Mails und Online-Lernplattformen, auf denen sie Dokumente und Aufgabenstellungen hochladen können. Hier fehlt jedoch ein direkter Austausch zwischen dem Lehrpersonal und den Schülern und Studierenden, so wie er im Klassen- oder Vorlesungsraum stattfinden würde. Hier schaffen Lösungen Abhilfe, die Kommunikation und Zusammenarbeit zentralisierten und für alle leicht zugänglich machen. Diese ermöglichen es, virtuelle Classroom-Meetings zu veranstalten, bei denen sich alle Teilnehmer via Webcam einwählen. Auch können über einzelne virtuelle Räume klasseninterne Dokumente geteilt und von allen bearbeitet werden. Über die Chat-Funktion oder persönliche Videogespräche können Lehrpersonen auch direkt mit den Schülern oder Studierenden Kontakt aufnehmen und persönliches Feedback geben. Diese Funktionen schaffen eine klassenraumähnliche Atmosphäre im virtuellen Raum. 

Tipp 3: Vergessen Sie den Datenschutz nicht 

Auch wenn viele Schulen und Universitäten digitale Lösungen zur Kommunikation und Kollaboration zwischen Schülern, Studierenden und dem Lehrpersonal lieber heute als morgen implementieren würden, dürfen Datenschutz und IT-Sicherheit nicht zu kurz kommen. Insbesondere personenbezogene Daten von Schülern und Studenten und dem Lehrpersonal müssen ausreichend geschützt sein. Der Zugang zu den Lösungen sollte deshalb am besten mit einer Zwei-Faktor-Authentifizierung ausgestattet werden. Cloud-basierte Lösungen bieten den Vorteil, dass sie den geltenden Datenschutz- und Sicherheitsbestimmungen entsprechen und die Leistung über Server in Europa anbieten.  

„Unser Team arbeitet mit Feuereifer daran, Organisationen, die vom Corona-Virus besonders beeinträchtigt sind, und die, die dagegen kämpfen, zu unterstützen. Wir hoffen, dass wir mit unserem kostenlosen Spaces-Angebot einen Beitrag leisten können.“

Avaya Präsident und CEO Jim Chirico

Avaya kommt gesellschaftlicher Verpflichtung nach 

Als führender Anbieter von Kommunikationslösungen, die es Menschen ermöglichen, an jedem Ort der Welt miteinander in Kontakt zu bleiben, kommt Avaya in der aktuellen Coronakrise seiner globalen Verantwortung nach und trägt dazu bei, die Auswirkungen des Virus zu verringern. So hat Avaya entschieden, die Kollaborationssoftware Avaya Spaces bis zum 31. August 2020 allen Bildungseinrichtungen und Non-Profit-Organisationen weltweit kostenlos zur Verfügung zu stellen.  

„Wir wissen, dass besonders im Bildungssektor großer Bedarf herrscht, da Schulen und Universitäten nach Möglichkeiten suchen, die Sicherheit ihrer Schüler und Studierenden zu gewährleisten und gleichzeitig den Unterricht weiterzuführen, damit Lernziele erreicht werden können“, erklärt Avaya Präsident und CEO Jim Chirico. „Unser Team arbeitet mit Feuereifer daran, Organisationen, die vom Corona-Virus besonders beeinträchtigt sind, und die, die dagegen kämpfen, zu unterstützen. Wir hoffen, dass wir mit unserem kostenlosen Spaces-Angebot einen Beitrag leisten können.“ 

Avaya Spaces, das seit März 2020 in Deutschland zur Verfügung steht, ist eine Cloud-basierte Meeting- und Kollaborationslösung, die Unternehmen und Organisationen ermöglicht, unkompliziert aus der Ferne zusammenzuarbeiten. Zu den Funktionen der Avaya Spaces App zählen Chat, Telefon- und Videoanrufe bzw. -konferenzen für bis zu 200 Teilnehmer sowie Online-Meetings und die Möglichkeit, Inhalte online zu teilen.  

In italienischen Schulen sind bereits Avaya-Lösungen im Einsatz, damit Lehrer weiterhin verlässlich mit Schülern, Eltern und untereinander kommunizieren können. Mithilfe von Avaya Spaces können Lehrer hier Dokumente teilen und Aufgaben vergeben und nachverfolgen, egal wo sich die Schüler aufhalten. In Zeiten geschlossener Schulen werden auf diese Weise Unterrichtsunterbrechungen reduziert und Lehrplanrückstände bestmöglich verringert. 

 
In Deutschland verwenden bereits Mitarbeiter von einigen Stadt- und Gemeindeverwaltungen als erste Non-Profit-Organisationen Avaya Spaces, um auch in kritischen Zeiten einen zuverlässigen Geschäftsbetrieb aufrechtzuerhalten. 

Bereits im Januar waren Avaya-Teams in der chinesischen Region Wuhan vor Ort, um Kommunikationslösungen zu spenden und zügig bereitzustellen. Mehrere Krankenhäuser der Region können seitdem mithilfe von Avaya-Technologie Video-Sprechstunden anbieten, während Patienten besser Kontakt zu ihren Angehörigen halten können. 

Weitere Informationen zu Avaya Spaces finden Sie hier

Das Anmeldeformular für die kostenlose Avaya Spaces Lösung finden Sie hier.  

Pressekontakt: 

BCW (Burson Cohn & Wolfe) GmbH für Avaya Deutschland 
Karolin Rau 
Infanteriestraße 11  
80797 München 
Tel.: +49 (0)89 710 4078 453 
Email: avaya@bcw-global.com 

Lizenz:
Dies ist eine Pressemitteilung von Avaya

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

So geht Digitale Transformation durch Anwendungsmodernisierung

Dies ist ein Gastbeitrag von Nadine Riederer, CEO bei Avision

Die Anforderungen der Digitalisierung lassen sich oft schon durch die Modernisierung vorhandener Anwendungen erfüllen. Riskante Neuentwicklungen oder -implementierungen sind dann überflüssig. Vorausgesetzt, man geht es richtig an.

Nicht jedes Unternehmen ist ein Technologieführer wie Netflix, Facebook oder Uber, das von Haus aus modernste Software einsetzt; oder ein frischgebackenes Start-Up, das auf der grünen Wiese von Anfang an maßgeschneiderte Softwarelösungen für sich entwickeln kann; und auch kein Early Adopter, der es sich leisten kann, stets den neuesten Trends zu folgen und immer State-of-the-Art-Software zu betreiben. Für das ganz normale Unternehmen ist die Neuentwicklung einer Individualsoftware oder die Einführung einer neuen Standardlösung oft mit zu großen Risiken und zu hohen Aufwänden verbunden.

So sind seine Mitarbeiter etwa an die vorhandenen Anwendungen gewöhnt. Bekommen sie es mit einer neuen Software zu tun, sind oft umfangreiche Anwenderschulungen erforderlich und es kann zu Akzeptanzproblemen kommen. Bei einer Neuentwicklung besteht außerdem immer die Gefahr, dass Fehler passieren. Sie können dazu führen, dass geplante Kosten und Zeiten deutlich überschritten werden und die Software schwere qualitative Mängel aufweist. Nicht zuletzt erfordert eine Neuentwicklung oder Neuanschaffung in der Regel eine komplexe Migration der vorhandenen Daten – und daran ist schon so manches Projekt gescheitert.

Den Anforderungen der Digitalisierung müssen diese Unternehmen aber natürlich dennoch gerecht werden, sonst drohen ihnen Wettbewerbsnachteile gegenüber den Playern, die aktuellste Software nutzen. Das können sie in vielen Fällen durch die Modernisierung ihrer bestehenden Anwendungen erreichen. Damit aber nicht auch hier hohe Kosten und unnötige Risiken entstehen, sollten sie dabei möglichst gezielt vorgehen.

Zuallererst aufs Business schauen

Statt auf Technologien, sollten die Unternehmen zuallererst auf ihr Business schauen. Sie sollten genau analysieren, was ihr Kerngeschäft ausmacht und wie sie dieses durch Digitalisierung in Form von Modernisierung weiterbringen können. Vor allem große Unternehmen können unmöglich alle IT-Bereiche modernisieren; deshalb ist es umso wichtiger, die Anwendungen zu identifizieren, auf die es wirklich ankommt. Ein Handelsunternehmen beispielsweise muss seinen Kunden heute unbedingt einen modernen und mobil optimierten Online-Shop bieten. Ein Versicherungsunternehmen sollte seine Vertreter mit Tablets zu den Kunden schicken können, die mit einer attraktiven Software zur Unterstützung der Beratungsgespräche ausgestattet sind. Die internen Backendsysteme, die jeweils hinter diesen Kundenschnittstellen stehen, müssen dafür aber nicht zwangsläufig State-of-the-Art sein.

Bei der Wahl der Modernisierungstechnologien ist die Gefahr oft groß, aktuellen Hypes zu erliegen. Erfolgversprechend ist das aber nicht, denn nicht jede Technologie eignet sich für jeden Fall. Das zeigt das Beispiel Cloud. Eine Migration in die Cloud gilt gemeinhin als hervorragende Möglichkeit zur Modernisierung von Anwendungen – das ist sie aber nicht per se. Altanwendungen bilden oft monolithische Blöcke und sie als Ganzes in die Cloud zu heben, bringt wenig, weil dadurch viele spezifische Vorteile der Cloud hinfällig werden. Diesen Block Cloud-gerecht aufzuspalten ist technisch zwar möglich, etwa mit Hilfe von Microservices; betriebswirtschaftlich sinnvoll ist das aber nicht, denn die Kosten dafür sind in aller Regel so hoch, dass eine komplette Neuentwicklung günstiger käme. Eine gute Lösung ist die Cloud dagegen in Fällen, in denen ein hybrider Ansatz möglich ist. Das Backend der Anwendung verbleibt dabei im Unternehmen und lediglich das Frontend wird in die Cloud verlagert. Dort kann es ihre spezifischen Features nutzen, beispielsweise Authentifizierungsservices, eine einfache Skalierung bei erhöhten Zugriffen und eine praktisch endlose Bandbreite.
Ähnlich wie mit den Technologien verhält es sich auch mit modernen Organisationstechniken. Die Prozesse und Werkzeuge der agilen Softwareentwicklung beispielsweise können bei der Modernisierung vorhandener Anwendungen wertvolle Dienste leisten – aber nur dann, wenn die Voraussetzungen stimmen. So eignet sich nicht jedes Projekt für Agilität. Vor allem bei Entwicklungsprojekten, bei denen das zu erreichende Ziel klar und der Weg dorthin bekannt ist, hat die klassische Wasserfallmethode Vorteile. Außerdem müssen auch die Firmenkultur und die Mitarbeiter bereit sein. Stark hierarchische Strukturen sind mit Agilität nicht zu vereinbaren und manche Mitarbeiter fühlen sich in klassischen Projekten mit weniger Selbstverantwortung einfach besser aufgehoben. Sind die richtigen Rahmenbedingungen gegeben, sollten Unternehmen ihre Modernisierungsprojekte allerdings agil umsetzen.

Externer Blick kann hilfreich sein

Bei der Entscheidung, was modernisiert werden sollte, und welche Technologien und Organisationstechniken sich dafür am besten eignen, kann ein Blick von außen hilfreich sein. Externe Berater können die Gegebenheiten hinterfragen und dadurch gegebenenfalls neue Lösungsmöglichkeiten sichtbar machen. Aber auch die Teilnahme an Konferenzen oder Fortbildungen können bei diesen Entscheidungen helfen. Bei der Umsetzung empfiehlt sich dann eine Strategie der kleinen Schritte. Dadurch lässt sich am besten sicherstellen, dass alle Beteiligten „mitgenommen“ werden, und die Akzeptanz der Nutzer ist bei kleineren Veränderungen erfahrungsgemäß viel besser. Nicht zuletzt verschlingen große Umbrüche viel Geld auf einmal und haben ein deutlich höheres Risiko, zu scheitern.

Nadine Riederer ist CEO bei Avision, einem auf Software Revival spezialisierten IT-Dienstleister

Weitere Informationen unter:
https://www.avision-it.de/

Drei Tage Wochenende

Dies ist ein Gastbeitrag von Steven van Tuijl, General Manager der ADP Deutschland

Was würden Sie mit Ihrer gewonnen Zeit machen? Eine viertätige Arbeitswoche klingt wie ein Traum und ist in aller Munde. ADP hat die Fakten gesammelt, die Sie bei der nächsten Diskussion mitreden lassen.

„The Workforce View in Europe“, eine jährlich erscheinende Studie von ADP, belegt in ihrer Ausgabe für 2019: Mehr als die Hälfte der europäischen Arbeitnehmer würde sich für eine viertägige Arbeitswoche entscheiden, wenn sie die Wahl hätte. Was zunächst wie das Wunschdenken von abhängig Beschäftigten und ein schlechtes Geschäft für Arbeitgeber klingt, ist in den meisten Fällen eher das Gegenteil: Praktische Erfahrungen mit einer verkürzten Arbeitszeit haben gezeigt, dass Mitarbeiter in der Mehrzahl der Fälle genauso viel erreichen und eine bessere Work-Life-Balance erzielen können.

Dieser Ansatz ist also eine Win-win-Situation und passt besser zu den widersprüchlichen Anforderungen durch privates Leben und Beruf. Eine viertägige Arbeitswoche könnte also einen großen Beitrag zur Schaffung einer besseren Arbeitswelt leisten, in der jeder beruflich und persönlich sein volles Potenzial entfalten kann. Stellen Sie sich vor, was es für Auswirkungen bei der Gleichstellung am Arbeitsplatz haben könnte? Paaren könnte es erleichtert werden, familiäre Verpflichtungen zu bewältigen und so könnten mehr Frauen die beruflichen Möglichkeiten voll ausschöpfen.

Längere Arbeitszeiten könnten für Unternehmen zwar kurzfristig von Nutzen sein, haben jedoch gravierende negative Auswirkungen auf Motivation, Engagement, Bindung und Produktivität. Schließlich sind Berufs- und Privatleben miteinander verzahnt: Mehr als die Hälfte der deutschen Beschäftigten gab bei der von ADP beauftragten Befragung an, dass sich ihr persönliches Leben auf ihre Leistung bei der Arbeit auswirkt.

Die bessere Hälfte – was wäre, wenn Sie Ihren Job mit Ihrem Kollegen teilen?

Einen weiteren gangbaren Weg zu mehr Zeit für eine verbesserte Work-Life-Balance bereitet das Jobsharing. Viele Arbeitgeber sehen hier zwar noch vor allem die organisatorischen und logistischen Nachteile, die entstehen können, wenn ein Vollzeitjob in zwei Teilzeitstellen aufgeteilt wird. Diese werden jedoch mit ein wenig Fingerspitzengefühl durch Effizienz- und Produktivitätsgewinne mehr als ausgeglichen. Wussten Sie, dass es kaum Anhaltspunkte dafür gibt, dass Menschen, die durchgehend mehr arbeiten, einen besseren Job machen?

Das Aufteilen eines Arbeitsplatzes verbessert auch die Ausgangsgrundlage für Unternehmen, die sich mit dem allgegenwärtigen Fachkräftemangel herumschlagen müssen. Denn gerade für Fachkräfte in der Mitte ihrer Karriere ist das Jobsharing eine äußerst interessante Methode, Geldverdienen und familiäre Verpflichtungen unter den Hut zu bringen, die die Vollzeitbeschäftigung nicht anbieten kann. Unternehmen, die Jobsharing ermöglichen, sind so in der Lage, Mitarbeiter für sich zu gewinnen, die ansonsten konkurrierende Angebote in Betracht ziehen würden. Ähnlich lässt sich übrigens auch bei der Mitarbeiterbindung argumentieren. Denn wenn aus der zu knappen Freizeit mangelnde Motivation wird, sinkt nicht nur die Produktivität, sondern es verstärkt sich auch der Wunsch, den Arbeitsplatz beim aktuellen Arbeitgeber dauerhaft zu verlassen.

Mein Schreibtisch ist dein Schreibtisch

Ohne Zweifel, unser Leben ist heute für immer mehr Menschen digital bestimmt. Social Media und digitales Entertainment prägen die Freizeit, wir spielen, informieren uns und flirten per Mausklick, Tippen und Wischen. Ebenso sieht die Berufswelt aus: Akten und Kommunikation, Aufträge und Services – alles digital.

Diese Konstellation öffnet das Tor zu einer neuen Arbeitsform: dem Desk Sharing. Hinter diesem Anglizismus verbirgt sich nichts anderes, als dass für Beschäftigte innerhalb ihres Tätigkeitsbereichs weniger Arbeitsplätze als Mitarbeiter existieren. Die Mitarbeiter können ‚ihren‘ Arbeitsplatz täglich je nach aktuellem Bedarf frei selbst bestimmen. Dies funktioniert am besten, wenn unterschiedliche Arbeitsorte wie Büros, Teamflächen oder Home-Office-Plätze zur Verfügung stehen.

Desk Sharing bietet nicht nur mehr Flexibilität für Arbeitnehmer und -geber, sondern kann durchaus auch als Team-Building-Maßnahme verstanden werden. Zudem begegnen sich Mitarbeiter und Führungskräfte auf Augenhöhe, da sie im gleichen Büro sitzen, und die Flexibilität des Arbeitsortes geht zunehmend mit einer zeitlichen Entgrenzung einher.

„Kollege“ Roboter

Eines der zentralen Themen beim Blick in die Arbeitswelt der Zukunft ist die Automatisierung, die sich Jahr für Jahr beschleunigt und pessimistischen Berichten zufolge in den nächsten Jahren Tausende menschlicher Arbeitnehmer ersetzen wird. Dies schürt Unsicherheiten: So zeigte sich mehr als die Hälfte der im Rahmen der ADP-Studie befragten europäischen Arbeitnehmer davon überzeugt, dass die Automatisierung in den nächsten Jahren erhebliche Veränderungen in der Arbeitswelt bewirken werde. Knapp jeder Dritte befürchtet, dass Roboter mittelfristig Jobs von Menschen gänzlich übernehmen könnten. Könnten Sie sich das bei Ihrem Arbeitsplatz vorstellen?

Der Arbeitsplatz der Zukunft wird anders sein. Da die Automatisierung allgegenwärtig in den Köpfen der Beschäftigten ist und häufig als Bedrohung für den eigenen Arbeitsplatz wahrgenommen wird, ist es für Unternehmen im Rahmen der Mitarbeiterbindung und -motivation eminent wichtig, anstehende Veränderungen in diese Richtung klar zu kommunizieren. Und zwar im Vorfeld. Denn mehr Roboter bedeuten nicht zwangsläufig, dass Mitarbeiter überflüssig werden. Durch die Automatisierung werden neue Stellen geschaffen, während sich andere Rollen erheblich verändern. Arbeitgeber sollten also ihre Mitarbeiter entsprechend qualifizieren, damit diese so schnell wie möglich bereit sind, Seite an Seite mit Maschinen zu arbeiten. Ob Roboter irgendwann auch um drei Tage Wochenende bitten?

Über den Autor

Steven van Tuijl ist General Manager der ADP Deutschland. In dieser Funktion ist er für das operative Geschäft in Deutschland verantwortlich. Steven kam 2011 zur ADP als Director Customer Services in der Schweiz. Danach war er verantwortlich für Implementierung, Customer Services und Business Development für die Region 2SP (Spanien, Portugal, Polen und die Schweiz). In 2014 zog Steven mit seiner Frau und seinen 3 Kindern nach Deutschland um, wo er zuerst den Bereich Implementierung und danach Customer Services leitete. Im Februar 2016 wurde Steven zum Vorsitzenden der Geschäftsführung der ADP Deutschland ernannt.
Steven hat über 15 Jahre Berufserfahrung im Vertrieb und in unterschiedlichen kundenbezogenen Positionen in den Niederlanden, der Schweiz und in Deutschland gesammelt und war vor seinem Eintritt bei der ADP 5 Jahre im Executive Recruitment bei Michael Page tätig. Er spricht Englisch, Deutsch, Niederländisch und Französisch.

Quellen und weitere Informationen

• „Office Analytics“, Fraunhofer IAO, 2018
https://www.iao.fraunhofer.de/lang-de/presse-und-medien/aktuelles/2013-fuer-jeden-arbeitstypen-das-passende-buero.html
• „The Workforce View in Europe 2019“, ADP, 2019
https://www.de-adp.com/hr-einblicke-themen-trends/mitarbeiterbindung-talentmanagement/workforce-view-2019/
• „Die Entwicklung der Arbeitswelt 2.0“, ADP, o.J.
https://ch.new.international.adp.com/assets/vfs/Account-109205/ADP-CH-DE-Responsive/de-evolutionofwork-2.0-infographic-final.pdf
• „Weißbuch Arbeiten 4.0“, Bundesministerium für Arbeit und Soziales, 2016
https://www.bmas.de/DE/Service/Medien/Publikationen/a883-weissbuch.html

Mit Programmatic Advertising gegen den Fachkräftemangel

Das eigene Unternehmen für die Zukunft wappnen und neue Mitarbeiten mit neuen Möglichkeiten gewinnen.

Gastbeitrag von David Lange

Fachkräftemangel ist eines der größten Probleme der modernen Arbeitswelt. Schon heute haben viele Unternehmen Probleme entsprechende Stellen zu besetzen – in der IT-Branche bereits über 70 Prozent. Verstärkt durch den Demografischen Wandel gehen Branchenübergreifend knapp 60 Prozent der Personaler davon aus, dass der Kampf um Experten in den nächsten Jahren weiter zunehmen und zur größten Herausforderung für die Entwicklung ihres Unternehmens wird. Schon heute wird der wirtschaftliche Schaden durch den Fachkräftemangel auf rund 50 Milliarden Euro pro Jahr beziffert. Damit das eigene Unternehmen für die Zukunft gewappnet ist, wird man potentiellen Mitarbeitern nicht nur einiges bieten, sondern auch kreative Wege bei der Mitarbeitergewinnung gehen müssen. Eine Möglichkeit: Programmatic Advertising als Recruiting Tool.

Was ist Programmatic Advertising?

NIcht nur bunt, sondern mit System… Der datengetriebene Vorteil von Programmatic Advertising könnte auch beim Recruiting zum Einsatz kommen.

Programmatic Advertising bezeichnet den vollautomatisierten und individualisierten Echtzeit-Einkauf von Werbeflächen und die dazugehörige Werbemittel-Ausspielung. So lassen sich Kampagnen effektiv durchführen und Zielgruppen, in diesem Fall potentielle neue Mitarbeiter, passgenau erreichen. Zum Recruiting lassen sich sowohl Native Ads als auch dynamische Werbemittel nutzen.
Native Ads bestehen aus Bild-Text Kombinationen, die im redaktionellen Umfeld ausgespielt werden. Sie haben dementsprechend einen gewissen redaktionellen Charakter und erreichen mit spezifischem Targeting perfekt die gewünschten Zielgruppen.

Dynamische Werbemittel hingegen sind Display Ads mit dynamischen Elementen. Das hat den Vorteil, dass nur ein Banner als Grundlage erstellt wird, bei dem verschiedene Elemente wie Texte, Bilder oder in diesem Fall komplette Stellenanzeigen dynamisch eingebunden werden. Die Einbindung erfolgt über einen Datenfeed, der zu jeder Zeit an aktuelle Gegebenheiten, wie neuen Vakanzen oder bereits besetzten Positionen, angepasst werden kann.
So wird jedem Nutzer auf Grundlage von Daten die jeweils für ihn passende Stelle ausgespielt. Besonders bei großen Unternehmen mit vielen Stellenangeboten und einem entsprechend umfangreichen Datenfeed wird durch die Kombination von dynamischen Bannern und Programmatic Advertising viel Zeit und Geld gespart werden.

Möglichkeiten für das Recruiting

Um potentielle neue Mitarbeiter zu erreichen kann Programmatic Advertising auf verschiedene Arten genutzt werden. Angefangen mit dem klassischen Retargeting, das auf Nutzer abzielt, die sich die entsprechende Stellenanzeige schon einmal angeschaut, aber noch keine Bewerbung abgeschickt haben. Eine weitere Möglichkeit ist das Geo-Targeting. Bei dieser Form wird die Stellenanzeige in einem definierten Umkreis rund um den Arbeitsort ausgespielt. Auch lassen sich Stellenanzeigen mit Kontext-Targeting in einem gewünschten Umfeld ausspielen. So können neue Mitarbeiter beispielsweise auf relevanten Branchen-Websites oder über bestimmte Keywords angesprochen werden.

Sogenanntes Prospecting bietet ebenfalls großes Potential zum Recruiting. Dabei werden gezielt Nutzer angesprochen, die bislang noch keinen Kontakt mit dem Unternehmen hatten, durch ihr digitales Surf-Verhalten, zum Beispiel Suchanfragen oder aufgerufene Websites, jedoch mit hoher Wahrscheinlichkeit an einem Jobwechsel interessiert sind. So erreicht man zusätzliche Bewerber, die bei anderen Targeting-Varianten durch das Raster fallen würden.

Keine “One-fits-All”-Lösung beim Bewerber-Check

Sobald durch Programmatic Advertising viele, auf den ersten Blick passende, Bewerbungen vorliegen, werden die Bewerber, die es in die engere Auswahl geschafft haben, genau unter die Lupe genommen. Lebensläufe und bisherige Stationen sind zwar ein erster Indikator, um das Potential und den richtigen “Fit” zum Unternehmen einzuschätzen, aber auch nicht mehr. Um sich für den richtigen Bewerber zu entscheiden sind also verschiedene Tests während des Bewerbungsprozesses notwendig. Unternehmen sollten allerdings bedenken, dass es keine “One-fits-All”-Lösung gibt – unterschiedliche Positionen erfordern unterschiedliche Prozesse.

Für die Besetzung analytischer Jobs, wie den eines Data Scientists, eignen sich Case Studies oder die aus Assessment Centern bekannten Logiktests. So lässt sich das Zahlenverständnis der Bewerber überprüfen und ob er oder sie in der Lage ist, Potentiale richtig einschätzen zu können. Für kreative Berufe, wie beispielsweise Grafikdesigner, sind Probetage eine gute Option. Hier können Bewerber ihr Können an konkreten Aufgaben unter “Alltagsbedingungen” zeigen. Die gewünschten Soft Skills sollten nach wie vor in einem persönlichen Gespräch abgeklopft werden.

Damit diese Prozesse einen wirklichen Mehrwert bieten, müssen sie gut organisiert und inhaltlich vorbereitet werden. Die Zeit soll schließlich sinnvoll und effektiv genutzt werden.
Grundlage für ein effektives und alle Seiten faires Bewerbungsverfahren ist eine klare und vor allem der Wahrheit entsprechende Jobbeschreibung. Nur so gibt es im laufenden Prozess kein böses Erwachen bei einem der Beteiligten.

Daten als wichtiger Faktor

Programmatic Advertising kann ein mächtiges Recruiting-Tool im Kampf um Fachkräfte sein. Um seine volle Kraft zu entfalten werden aber drei Dinge benötigt. Zum einen entsprechende Targeting-Daten, damit die Stellenausschreibungen auch an die gewünschte Zielgruppe ausgespielt werden können. Zum anderen gut strukturierte Datenfeeds sowie das Know-how ihrer Agentur in der Kreation von dynamischen Werbemitteln. Wenn all das der Fall ist, sind Sie gut gerüstet für den Kampf um Talente.

Über den Autor

David Lange ist Co-Gründer & Geschäftsführer von adlicious und verschreibt sich dort seit 2014 erfolgreich der Aufgabe, die Werbewirkung von programmatisch ausgesteuerten Kampagnen zu maximieren, indem Werbebudgets effizient eingesetzt werden. Der studierte Sinologe und Wirtschaftswissenschaftler hat u.a. die Universität Zhejiang (Hangzhou) besucht, hält einen Master in Corporate Management & Economics und ist Co-Autor des Buchs „War for Growth: How to make it in the Chinese Internet Market“. Vor der Gründung von adlicious war David im Start-up und Corporate Finance-Umfeld tätig. Zu seinen bisherigen Arbeitgebern gehörten d3media AG, venturecapital.de / Corporate Finance Partners und Delinero GmbH.

Weitere Informationen unter:
www.adlicious.me

Hannover Messe im Juli 2020

Die Gesundheit der Aussteller, Besucher und Mitarbeiter sowie der Bevölkerung hat für die Deutsche Messe AG höchste Priorität!


Die HANNOVER MESSE 2020 wird auf die Woche vom 13. bis 17. Juli verschoben.

Die Deutsche Messe AG reagiert damit auf die weltweiten Entwicklungen rund um Covid-19 (Coronavirus). Die Entscheidung für die Terminverschiebung in den Juli 2020 erfolgte in enger Abstimmung mit dem Gesundheitsamt der Region Hannover, dem Ausstellerbeitrat der HANNOVER MESSE sowie den Partnerverbänden VDMA (Verband Deutscher Maschinen- und Anlagenbau) und ZVEI (Zentralverband Elektrotechnik- und Elektronikindustrie).

Das Gesundheitsamt hat der Deutschen Messe AG dringend empfohlen, die Hinweise des Robert-Koch-Instituts zu beachten. Diese beinhalten umfassende Maßnahmen zur Gesundheitssicherung bei der Ausrichtung von Veranstaltungen. Dazu gehören Fiebermessstationen an allen Eingängen, sowie die Umsetzung der Maßnahme, keine Teilnehmer aus Risikogebieten zuzulassen und Teilnehmern, die Kontakt zu Personen aus Risikogebieten hatten, den Zutritt zu den Veranstaltungen zu verweigern. Das hätte eine umfangreiche Überprüfung aller Teilnehmer zur Folge.

Die genannten Maßnahmen sind von der Deutschen Messe nicht realisierbar. Zudem würde deren Umsetzung dazu führen, dass die störungsfreie Durchführung der Veranstaltung in einem Maße beeinträchtigt wäre, dass der mit der geplanten Ausrichtung angestrebte Veranstaltungszweck weder für die Aussteller, noch für die Besucher nicht oder nur mit erheblichen Einschränkungen erreicht werden könnte.

„Mit dem Termin im Juli bieten wir unseren Ausstellern den frühestmöglichen Zeitpunkt, um ihre Innovationen einem Weltpublikum zu präsentieren und Geschäfte anzubahnen“, sagt Dr. Jochen Köckler, Vorsitzender des Vorstandes der Deutschen Messe AG. „Angesichts der weltwirtschaftlichen Herausforderungen, die durch das Coronavirus im ersten Halbjahr ausgelöst wurden, bietet der neue Termin erhebliche Chancen. Denn so kann die weltweit wichtigste Industriemesse bereits im Juli frühzeitig wichtige Impulse für die globale Konjunktur setzen. Damit ist und bleibt die HANNOVER MESSE die Galionsfigur der deutschen Industrie.“

„Der VDMA unterstützt die Entscheidung der Deutschen Messe AG. Angesichts der aktuellen Schwierigkeiten, die durch das Coronavirus verursacht werden, halten wir eine Verschiebung der HANNOVER MESSE in den Juli für richtig“, sagt VDMA-Hauptgeschäftsführer Thilo Brodtmann. „Wir gehen davon aus, dass sich die Lage in den kommenden Monaten beruhigt und der Maschinenbau dann von einer sich belebenden Geschäftslage profitieren wird.“

„Die heutige Entscheidung der Deutschen Messe AG, die HANNOVER MESSE zu verschieben, ist inhaltlich richtig und kommt zur rechten Zeit“, betont auch Wolfgang Weber, Vorsitzender der ZVEI-Geschäftsführung. „Als international bedeutende Industriemesse lebt sie in besonderer Weise von der Begegnung von Menschen aus aller Welt. Diese kann nur erfolgen, wenn keine Gesundheitsgefahren bestehen. Für die Elektroindustrie ist es wichtig, dem Publikum ihre Produkte für Industrie 4.0, Elektrifizierung und mehr Energieeffizienz nunmehr im Sommer zu präsentieren.“

Weiterführende Informationen:
https://www.hannovermesse.de/de/news/covid-19-hinweise

Lizenz:
Dies ist eine Pressemitteilung: Deutsche Messe
Bildrechte: Deutsche Messe

New Work: Was kommt auf Bewerber und Unternehmen zu?

Alle reden von New Work und dennoch weiß niemand so genau, welche Auswirkungen Themen wie Digitalisierung, Künstliche Intelligenz, Machine Learning, Collaboration & Co. auf den eigenen Job oder das Unternehmen haben. Ein Erfahrungsbericht von Adacor Managerin Kiki Radicke.

Ein Arbeitsplatz für die Generation Z

Mit der Generation Z schwappt auch eine neue Arbeitskultur in die Unternehmen. Moderne Abläufe kommen hinzu, alteingesessene Prozesse auf den Prüfstand. Doch wie sieht der Arbeitsplatz der Zukunft eigentlich aus?

3 Maßnahmen für eine verbesserte Datenqualität

Ihre Analysen sind nur so gut wie ihre Daten – steigern Sie die Qualität Ihrer Unternehmensdaten!

Mein letzter Artikel auf dem Daten-Blog beschrieb unternehmensinterne und
externe Anforderungen an Datenqualität
sowie Methoden zur Datenqualitätsmessung.

Zur Weiterführung des Themas stellt dieser Beitrag Maßnahmen vor, mit denen Sie die Qualität Ihrer Unternehmensdaten steigern können.

Dr. Tobias Brockmann

Die drei wichtigsten Maßnahmen für nachhaltig verbesserte Datenqualität:

  1. Datenbereinigung
  2. Systemintegration
  3. Regelmäßige Datenqualitätsprüfungen

Verbesserung der Datenqualität durch Datenqualitätsmanagement

Eine reine Messung der Datenqualität ist sinnvoll, um einen ersten Überblick zu erhalten. Dies bewirkt aber noch keine Verbesserung der Datenqualität. Daher erfolgt im Anschluss an eine Datenqualitätsmessung die Behebung der Datenfehler, die Identifikation und Bekämpfung der Fehlerursachen sowie die Schaffung von organisatorischen Maßnahmen (Aufbau und Umsetzung einer Data Governance).

Dazu ist eine Kombination aus präventiven Maßnahmen, wie bspw. die Einführung von Prüfregeln zur Vermeidung von Datenqualitätsproblemen unmittelbar bei der Datenanlage oder -änderung, und reaktiven Maßnahmen, wie z. B. die Duplikatsbereinigung und Korrektur von Fehlern nötig.
In dem dazugehörigen Datenqualitätsmanagement (Data Governance) werden diese Maßnahmen konsolidiert und verankert.

Ziel ist die Ermittlung einer optimalen Kombination aus präventiven sowie reaktiven Maßnahmen, um frühzeitig Datenprobleme zu erkennen und dadurch Risiken und Kosten zu vermeiden. Wobei das langfristige Ziel einer jeden Organisation die nachhaltige Umsetzung eines präventiven Konzeptes zur Sicherung der Datenqualität ist.

1. Datenbereinigung

Reaktiver Ansatz: Datenbereinigungen sind häufig der erste Ansatz zur Wiederherstellung einer korrekten Datenbasis als Grundlage für eine Verbesserung der Datenqualität. Die Duplikatserkennung und -beseitigung spielt dabei eine entscheidende Rolle, ebenso wie der Aufbau von Prüfregeln zur Messung der Datenqualität sowie der Erfolgskontrolle nach der Bereinigung. Spezielle Softwaretools überprüfen den kompletten Datensatz und finden

Einträge, die dasselbe Geschäftsobjekt betreffen, jedoch abweichende Informationen enthalten. In einem Prozess, der sich Datenharmonisierung nennt, werden diese zu einem übergreifenden aussagekräftigen Datensatz – dem Golden Record – zusammengeführt.

Weitere typische Korrekturen sind Plausibilitätsverletzungen (z. B. muss das Nettogewicht immer kleiner sein als das Bruttogewicht eines Artikels), Füllgrade und Grenzwerte wie Minund Max-Werte (z. B. müssen Postleitzahlen aus genau fünf Ziffern bestehen, die eine Zahl zwischen 01067 und 99998 ergibt). Zusätzlich bietet es sich an, bei der Datenbereinigung direkt Formatanpassungen zur Vereinheitlichung der Datenstruktur vorzunehmen. Typische Formatanpassungen sind zum Beispiel die Nutzung von Standards für Datumsformate (z. B.TT.MM.JJJJ), Adressen (z. B. Hausnummern in eigenem Feld) oder Telefonnummern (z. B. Ländervorwahl-Ortsvorwahl-Rufnummer).

Die nachhaltige Wirkung der Datenbereinigung ist allerdings begrenzt. Im Laufe der Zeit erfährt Ihr Stammdatensatz neue Qualitätseinbußen durch die fortwährende Neuanlage und Aktualisierung von Daten durch unterschiedliche Fachabteilungen und Nutzer. Nutzen Sie also die Erkenntnisse Ihres Datenbereinigungsprozesses zur Dokumentation typischer Datenqualitätsprobleme in Ihrem Unternehmen. Auf deren Grundlage sollten Sie ein strukturiert abgelegtes Qualitätsregelwerk erstellen, das Sie für weiterführende qualitätssichernde Maßnahmen (Erfolgskontrolle) und zum Aufbau von präventiven Ansätzen (Data Governance) nutzen können.

2. Systemintegration

In den meisten Unternehmen werden die Daten, je nach Datentyp (Kundendaten, Materialdaten, Produktdaten, Debitorendaten, Kreditorendaten, u.v.m.) in mehreren Systemen (z. B. ERP-, CRM-, PIM-Systeme oder individuell aufgesetzte Datenbanken) parallel verwaltet. Wenn Sie das genutzte Datenmodell verändern, kann dies bereits positive Auswirkungen auf die Datenqualität haben. So vereinfacht zum Beispiel die Trennung von Einheit & Wert und die Normierung auf eine Größe, wie Kilogramm (kg) die spätere systemübergreifende Analyse der Datenqualität und den Aufbau von unternehmensweit gültigen Kennzahlen zur Datenqualität im Reporting.

Zusätzlich ist es ratsam, Ihre Systeme dahingehend zu optimieren, dass die Benutzung noch einfacher und intuitiver wird, indem Sie bspw. die Bezeichnung der Datenfelder anpassen, um die Verständlichkeit für alle involvierten Nutzer zu steigern. Legen Sie außerdem ein besonderes Augenmerk auf die verwendeten Schnittstellenprogramme, da die Weitergabe von Daten über die Systemgrenzen hinweg eine häufige Fehlerquelle darstellt.

Zur weiteren Verbesserung Ihrer Datenqualität ist es sinnvoll, einen zentralen Hub zu schaffen, der mit allen relevanten Systemen verbunden ist. Dort laufen alle Daten in einem Single Point of Truth zusammen. Ein hinterlegtes Datenqualitätsregelwerk kann bereits während der Eingabe automatisiert überprüfen, ob die neu hinzugefügte und bearbeitete Werte gültig sind oder ob in diesem Moment ein Duplikat erzeugt wird.

3. Regelmäßige Datenqualitätsprüfungen

Um konstant hohe Datenqualität zu gewährleisten, müssen neben der Datenbereinigung unbedingt auch Data Governance Prozesse konzipiert und umgesetzt werden. Die führt häufig auch dazu, dass Prozesse angepasst werden und dass das unternehmensweite Daten- und Qualitätsmanagement angepasst werden muss. Nur wenn die relevanten Geschäftsprozesse durch Data Governance Prozesse unterstützt werden, oder zumindest regelmäßige Datenqualit.tsprüfungen in den Geschäftsprozessen umfasst sind, können identifizierte Datenqualitätsfehler langfristig beseitigt werden.

Ein Beispiel dafür ist die Verteilung von Verantwortlichkeiten für die Datenanlage, -pflege und Qualitätssicherung. Die Datenverantwortlichen benötigen Entscheidungskompetenzen – ihre Ernennung ist also eine organisatorische Frage. Sie werden durch die fachliche Expertise der Datenstewards unterstützt. Alle Mitarbeiter, die Rollen im Datenmanagement übernehmen, müssen entsprechend geschult werden. In der Praxis hat sich diese präventive Maßnahme als äußerst zielführend erwiesen, da sie den Mitarbeitern neben technischen Hilfestellungen durch die oben genannten Systemoptimierungen bei ihrer täglichen Arbeit enorm unterstützt.

Ebenso kann in den unternehmensweiten Prozessen die regelmäßige Datenqualitätsprüfung etabliert werden. Eine permanente Überwachung lässt sich durch wiederholte Messungen der Datenqualität realisieren. Diese ermöglichen einen Überblick über die Entwicklung und aktuellen Stand der Datenqualität des Unternehmens.

Data Governance sichert langfristig höchste Datenqualität in Ihren Systemen

Um Ihre Daten über deren gesamten Lebenszyklus hinweg qualitativ zu sichern, ist die Einführung einer Data Governance notwendig. Richtlinien legen fest, welche Standards im Unternehmen Anwendungen finden und welche Zuständigkeitsbereiche die Aufgaben im Datenmanagement übernehmen. In diesem Sinne ist Data Governance das Rahmenwerk für Ihr Datenqualitätsmanagement. Sie profitieren davon, die unternehmensweite Ressource „Daten“ zielführend in Ihren Wertschöpfungsprozessen einzusetzen und fortlaufend die Datenqualität in Ihrem Unternehmen zu stärken.

Weiterführende Informationen unter:
www.innoscale.de

Quelle:
Hildebrand, Knut (Hrsg.): Daten- und Informationsqualität: Auf dem Weg zur Information
Excellence. Wiesbaden: Vieweg + Teubner. 1. Aufl. 2008.

Aufmacherbild / Quelle / Lizenz
Photo by Fitore F on Unsplash

Ist Amazon ein Vorbild im Lebensmittelhandel?

Brian Walker, Chief Strategy Officer, Bloomreach kommentiert:

Der Schwerpunkt von Amazon Go ergibt sich aus der Betonung der legendären Flywheel (Schwungrad)-Strategie von Amazon. Der Schwerpunkt liegt dabei auf dem Sortiment, der Kundenfreundlichkeit und niedrigeren Betriebskosten – vor allem durch die Reduzierung von Arbeitskosten. Da Amazon Go nun zu einem vollen Lebensmittelgeschäft skaliert, nutzt Amazon seine Investitionen in die KI, sein Prime-Programm, die Zahlungsabwicklung, den Betrieb und die Logistik, um sowohl die Kosten zu senken als auch eine neue Kundenerwartung rund um das Erlebnis des Lebensmitteleinkaufs zu schaffen.

Amazon hat mit seinen marktplatzbasierten Online-Erfahrungen bereits den Druck erhöht und versucht nun, dies auch im Bereich Lebensmitteleinkauf zu erreichen. Die sehr öffentliche Ankündigung und die Medienpräsenz rund um Amazon Go zeigen, dass Amazon möglicherweise absichtlich den Blutdruck und die Einsätze in den Vorstandsetagen der Wettbewerber erhöhen will – und in den Märkten allgemein. Erinnern Sie sich an die „60-Minuten-Drohnen“? Wenn der Amazon Go-Versuch erfolgreich ist, dann würde dies sehr schnell auf die gesamte „Whole-Foods-Market“-Kette ausgedehnt, was bisher nicht geschehen ist. Amazon kann es sich leisten, groß angelegte Versuche durchzuführen, kontinuierlich in sie zu investieren – und die Medien saugen dies auf.

Aber wir sollten nicht zu viel hineininterpretieren. Dennoch können Lebensmittelhändler und Unternehmen aller Art von Amazons jüngstem Vorhaben in einigen Schlüsselbereichen lernen: Man sollte sich darauf konzentrieren, ein komfortables Kundenerlebnis zu schaffen, das digitale Kanäle als zentrale Komponente dieses Erlebnisses nutzt, man sollte Daten und KI als Werkzeuge zur Kostensenkung verwenden und das Erlebnis stärker personalisieren.

Nicht zuletzt gilt es zu erkennen – ob einem dies bisher bewusst war oder nicht –, dass man in einem Technologieunternehmen arbeitet. Die Messlatte rückt immer höher und es braucht Unternehmen, die trotz all dieser Disruption weiter florieren.

Über den Autor

Brian Walker ist Chief Strategy Officer bei Bloomreach (www.bloomreach.com), Anbieter einer Digital Experience Plattform (DXP). Als erfahrener Strategie- und Marketing-Experte konzentriert er sich auf die Transformation von digitaler Kundenbindung und Commerce. Er war bereits in vielfältigen Positionen tätig – vom Praktiker über Analyst bis hin zum Berater und Anbieter – und hat so einen Einblick erhalten, welche Fähigkeiten und Ansätze Unternehmen benötigen, damit sich die digitalen Kanäle zum wichtigsten Motor für das Unternehmenswachstum entwickeln. Bevor er zu Bloomreach kam, war Brian Walker als Chief Strategy Officer bei Amplience, Managing Director, Global Commerce Strategy bei Accenture, Chief Strategy Officer bei SAP Hybris tätig und leitete die Abteilung Commerce Technology Reseach bei Forrester Research. Davor hatte Brian Walker zudem Führungspositionen bei Amazon, Expedia und der Otto Group inne.

Aufmacherbild / Quelle / Lizenz cc by
https://commons.wikimedia.org/wiki/File:Amazon_Go_-Seattle(20180804111407).jpg
Sikande

Die digitale Transformation stottert noch in Deutschland

Dies ist ein Gastbeitrag von Dominik Neumann, Vice President Consulting Services bei CGI in Deutschland

In der digitalen Transformation steht die Konzentration auf das Kerngeschäft im Vordergrund – die Zeiten wilden Experi-mentierens sind vorbei. Eine zentrale Herausforderung bleibt dabei die Modernisierung der IT. Die stärkere Nutzung von Cloud-Services und innovativen Technologien sowie die Neugestaltung der IT mit einer Verschmelzung von IT und Fachbereichen bei Produkten und Services sind nach CGI Schritte in die richtige Richtung.

Der Wunsch, die digitale, agile Transformation voranzutreiben, zählt bei Unternehmen weiterhin zu den Top-Trends. Doch eine gelungene Digital Journey erfordert Zeit und den richtigen Fokus. Laut einer jährlich durchgeführten globalen Kundenumfrage von CGI, nach brand-eins-Ranking einer der besten IT-Dienstleister 2020 in Deutschland, verfolgen 57% Prozent der Befragten eine digitale Strategie auf Unternehmensebene, jedoch lediglich 10 Prozent konnten damit die erwarteten Mehrwerte realisieren (1).

Dabei ist digitale Agilität heute nicht nur ein Buzzword, sondern Gebot der Stunde. Offenheit und Flexibilität beim Einführen von modernen Technologien wie KI- oder Cloud-Services ist bei diesem Prozess unabdingbar. Was vielfach jedoch nicht beleuchtet wird, sind die Herausforderungen und Schwierigkeiten, die Unternehmen bei der Umsetzung im Wege stehen.

Der Digitalisierungsgrad ist in den verschiedenen Branchen recht unterschiedlich ausgeprägt. So ist vielfach gerade bei im B2B-Bereich tätigen Unternehmen eine niedrige Digitalisierung beziehungsweise verzögerte digitale Transformation zu registrieren. Der Grund ist, dass der Druck zur Digitalisierung vor allem vom Endverbraucher getrieben wird und damit im B2C-Segment tätige Unternehmen an einer umfassenden Digitalisierung zur Optimierung der Customer Experience kaum vorbeikommen – im Unterschied zu B2B-Unternehmen, deren Digitalisierungsinitiativen sich im Wesentlichen auf Prozesseffizienz fokussieren.

Digitalisierungsstrategien haben Unternehmen bisher auch deshalb oft nicht den gewünschten Erfolg gebracht, weil sie im Zuge von Diversifizierungsvorhaben und Versuchen, etablierte Geschäftsmodelle durch Blue-Ocean-Strategien zu ersetzen, das Kerngeschäft aus den Augen verloren haben. Hier setzt nun ein Umdenken ein: mit einer Fokussierung auf das Kerngeschäft und damit verbunden mit einer auf das Kerngeschäft fokussierten Digitalisierung.
Bei der Umsetzung einer solchen Strategie sehen es 72% der von CGI befragten Kunden als ihre Top-Herausforderung an, die operative Exzellenz zu verbessern. Dazu gehört vor allem die Neuordnung der IT.

IT und Fachbereiche verschmelzen

„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.
„Eine hohe Mitarbeitermotivation muss gegeben sein, ansonsten führen alle Initiativen zwangsläufig irgendwann ins Leere“, betont Dominik Neumann von CGI Deutschland.

Der Umbau der IT zielt ab auf eine Trennung von nach Innen ge-richteter Unternehmens-IT mit zentralen Systemen wie ERP oder Controlling- und Human-Resources-Applikationen und nach Außen gerichteter IT, die Geschäftsmodelle, Produkte und Services sowie Customer Touch Points betrifft. Die interne IT verantwortet in der Regel der CIO, die externe IT hingegen der CDO beziehungsweise der jeweilige CDO eines Unternehmens- oder Geschäftsbereiches.

Die entscheidende Veränderung ist die Verschmelzung von IT-Teams mit den Fachbereichen. IT und Business, also IT- und Geschäftsprozesse, gehen in neuen, hocheffizienten Wertschöpfungsnetzen auf. Beispiele dafür finden sich bereits in Unternehmen, die eine Abkehr vom klassischen Produktverkauf eingeleitet haben. Maschinen und Ausrüstungsgüter werden dabei in ein umfassendes Predictive-Maintenance-Konzept eingebunden und der eigentliche Gebrauch nach dem Pay-per-Use-Modell abgerechnet. Dazu muss die IT unmittelbar in die Produkte und damit auch in die Wertschöpfungskette integriert sein.

In engem Zusammenhang mit dem Verschmelzen von IT und Fachbereichen steht die Etablierung einer neuen Organisationsform. Das Management muss diesen Weg mitgehen und das Vorgehen aktiv unterstützen. Vielfach müssen dabei auch „alte Zöpfe“ zugunsten einer Machtverschiebung abgeschnitten werden. Voraussetzung für die Sicherstellung einer hohen Flexibilität und Agilität sind schnelle Entscheidungen. Dazu müssen Organisationsstrukturen verändert und Entscheidungsparameter angepasst werden. In der Regel erfordert dies ein generelles Umdenken im Management und den Abbau von Hierarchien, also dezentrale Strukturen mit kurzen Entscheidungswegen. 82% der Entscheider in Unternehmen haben das, laut CGI-Umfrage, erkannt.

IT-Modernisierung ist unumgänglich

Für eine agile Transformation erweist sich eine teure, veraltete IT als Hemmschuh. Viele Unternehmen werden noch immer durch Legacy-Software und umfangreiche, komplexe, monolithische Anwendungen belastet. Zur gleichen Zeit müssen sie die Infrastrukturkosten senken, Produkte und Dienstleistungen schneller auf den Markt bringen und generell mehr Flexibilität und Agilität erreichen. Bei der Modernisierung müssen vor allem auch neue Services und Technologien Berücksichtigung finden, die zur Optimierung der operativen Exzellenz, Steigerung der Geschwindigkeit und damit zur Verbesserung der Wirtschaftlichkeit beitragen. Gerade bei zentralen Building Blocks der digitalen Transformation wie Cloud, KI, IoT, Automation oder Blockchain zeigen sich dabei elementare Herausforderungen der meisten Unternehmen: das nicht vorhandene, IT- und anforderungsspezifisch qualifizierte Personal und die nicht verfügbaren Fachkräfte auf dem Arbeitsmarkt. Zwangsläufig muss deshalb intern Know-how, anders gesagt, eine „lernende Organisation“ aufgebaut werden. Der Wissenstransfer muss von außen nach innen erfolgen, und der Know-how-Aufbau darf nicht in Form einer Verordnung oder eines Zwanges, sondern muss vielmehr intrinsisch erfolgen. Eine hohe Mitarbeitermotivation muss gegeben sein, ansonsten führen alle Initiativen zwangsläufig irgendwann ins Leere. Gleichzeitig müssen Unternehmen mit der Dynamik des Marktes mithalten und für das eigene Unternehmen relevante technologische Entwicklungen erkennen und auf dieser Basis in den Kompetenzaufbau der eigenen Mitarbeiter investieren.

Die Cloud wird wichtiger

Auch die Nutzung von Cloud-Services und Cloud-Infrastrukturen wird immer wichtiger. Bei der weltweiten Befragung geben 76% der Entscheider an, die Cloud im Unternehmen zu nutzen. In zahlreichen Unternehmen – insbesondere im Mittelstand – fehlt es aber an der notwendigen Expertise und häufig an grundlegenden Sicherheitsstandards. Nur 42% verfügen über Mechanismen, um zu ermitteln, wo wichtige Datenbestände in der Cloud für ihre eigenen Organisationen und Kunden gespeichert sind.

Nach Ansicht von CGI ist es daher unverzichtbar, eine gründliche Bewertung jeder Cloud-Implementierungsstrategie durchzuführen. Dabei sollte anhand klarer Kriterien untersucht werden, welche Art von Cloud – Public, Hybrid oder Private – für die jeweilige Anwendung am besten geeignet ist und nötigenfalls ein „balanced Cloud Approach“ angewendet werden. Diese Kriterien sollten sich auf persönliche Daten, den Datenspeicherort, die Sicherheit und die Business Continuity sowie die entstehenden Kosten beziehen.

Leider muss man jedoch noch erwähnen, dass deutsche Unternehmen im internationalen Vergleich einen klaren Wettbewerbsnachteil haben, da kein Cloud-basierter Wirtschaftsraum besteht, weder in Deutschland noch in Europa. Prinzipiell wäre der europäische Markt zwar groß genug, aber Marktbarrieren und sprachliche wie kulturelle Unterschiede haben bisher den Aufbau eines europäischen Cloud-Binnenmarkts verhindert. So ist ein neues digitales Geschäftsmodell in Deutschland und auch Europa nur sehr schwer zu etablieren, etwa im Vergleich zu den USA oder zu China.

Insgesamt sind für eine erfolgreiche digitale agile Transformation in einem ersten Schritt zwei Punkte von hoher Relevanz. Die kontinuierliche, manchmal auch radikale Veränderung der Organisation, in der die IT-Fachbereiche zu agilen Wertschöpfungsnetzwerken verschmelzen (dezentrale End-2-End IT) und die Cloud-Transformation mit der Modernisierung der Legacy-Systeme und der Nutzung neuer Technologien. Durch die Einbettung der IT in die wertschöpfenden Prozesse der Fachbereiche und die dadurch entstehenden innovativen Produkte und Services lässt sich der digitale Wandel aktiv vorantreiben. Wird dies unterfüttert mit einer kontinuierlichen und effektiven Modernisierung der IT-Systeme, kann die verstärkte Nutzung von Cloud-Services und digitalen Technologien adressiert werden. Auf diese Weise lässt sich eine zukunftsfähige IT als Motor der digitalen Transformation etablieren.

Weitere Informationen unter:
https://www.de.cgi.com/de

(1) Die Kundenumfrage „CGI Client Global Insights 2019, Global Report“ kann angefordert werden bei info.de@cgi.com

Industrie 4.0 zugriffssicher gestalten

Informationstransparenz, Vernetzung von Produktionsmitteln über das Internet of Things (IoT), technische Assistenzsysteme und automatisierte, autonome Entscheidungen cyberphysischer Systeme (Robotik) haben das Potenzial, das Produktionsumfeld nachhaltig umzugestalten und die vierte industrielle Revolution voranzutreiben.

Die Vorteile liegen auf der Hand: Über eine hohe Vernetzung können Produktionsabläufe wesentlich effizienter ablaufen, Produktionsmittel besser in Schuss gehalten werden sowie Produktionskosten durch den effizienteren Einsatz von Mensch und Maschine gesenkt werden.
Dies klingt alles sehr verlockend. Jedoch gibt es auf diesem Weg noch einige Hürden, eine wesentliche ist die IT-Sicherheit.

Sicherheit fraglich

Genau das Thema Sicherheit beschäftigt Hersteller auf ihrem Weg zur Industrie 4.0. Zu hoch sind die Risiken, Opfer eines Cyberangriffs zu werden und zu schwerwiegend ist der Schaden, der entsteht, wenn die Produktion auch nur für einen kurzen Zeitraum stillsteht. Dabei ergeben sich die Herausforderungen für die IT-Sicherheit aus den vier Kernaspekten von Industrie 4.0.

Höhere Vernetzung

Industrieanlagen sind heute wesentlich weiter miteinander vernetzt, als es früher der Fall war. Die Komponenten der Fabrikation werden nicht nur – wie jetzt auch – über Ländergrenzen und organisatorische Einheiten hinaus miteinander verbunden sein, sondern diese Vernetzung erfolgt auch wesentlich dynamischer. So reicht es künftig nicht nur mehr aus, den Zugriff auf die Produktionsmittel innerhalb des eigenen Unternehmens zu steuern, da sich alle Teilnehmer der Wertschöpfungskette daran beteiligen.

Herausforderungen für die IT-Sicherheit aus den vier Kernaspekten von Industrie 4.0: zunehmende Vernetzung, Daten, Automatisierung und externe Akteure

Zunahme der Informationen

Die Gesamtmenge der zu verarbeiteten Daten nimmt ständig zu. Diese können entweder absichtlich innerhalb der Kommunikation anfallen oder auf den Systemen zugänglich gemacht werden. Hier handelt es sich um Informationen, die jedes Mitglied der Wertschöpfungskette auf eine andere Art einschätzt. Sind sie für das eine Unternehmen geheim und schützenswert, können sie für das andere weniger vertraulich sein. Doch nicht nur die eigene Einschätzung ist ausschlaggebend. Oft unterliegen Daten aufgrund staatlicher Regularien einem besonders hohen Schutzgrad.

Automatisierte Entscheidungen

Ein weiterer wichtiger Kernaspekt ist die Tatsache, dass Entscheidungen in der Industrie 4.0 zunehmend von autonomen Systemen durchgeführt werden. Diese wirken sich durchaus sicherheitsrelevant aus und ergeben sich aus Änderungen in den Abläufen in den unterschiedlichen Domänen und Partnersystemen. Für die Entscheidung werden so Informationen aus unterschiedlichen Quellen hinzugezogen.

Externe Akteure

Zusätzlich erhalten immer neue externe Akteure wie etwa Zulieferer, Logistiker, Entwickler oder Wartungspersonal für Steuerungssysteme oder Maschinen Zugriff in das unternehmenseigene Produktionsnetzwerk. Dadurch werden seine Grenzen fließender, denn schließlich können die Netzwerk-Administratoren diese Arbeitskräfte nicht aus den Prozessen ausschließen.

Diese vier Faktoren führen dazu, dass weitere Risiken entstehen. Dadurch, dass der Produktionsablauf immer komplexer wird und immer mehr Akteure sich daran beteiligen sollen, fallen alte Methoden der Absicherung der eigenen Netzwerkumgebung nun weg. Wesentliche Herausforderung ist dabei, dass sich die Systemarchitektur entsprechend anpassen kann. Dynamische, echtzeitoptimierte und sich selbst organisierende unternehmensübergreifende Ad-hoc-Wertschöpfungsnetzwerke werden entstehen. Dies alles kann natürlich nicht mehr durch veraltete Mittel abgesichert werden. Wer beispielsweise starre Vorgaben für die Reaktion auf Bedrohungsszenarien einsetzt, könnte in ernste Schwierigkeiten kommen, da Wettbewerber oder Cyberkriminelle weitaus flexibler vorgehen als früher.

Übergeordnetes Sicherheitsmanagement nötig

Aus diesem Grund müssen sich IT-Verantwortliche neu mit den Rollen sowohl der Akteure und – oft vergessen – der beteiligten Subsysteme und Applikationen befassen. Hier müssen nicht nur die Zugriffsrechte der Beteiligten neu definiert werden, sondern auch das Zusammenspiel verschiedener Maschinen. Letzteres ist nötig, da zunehmend Systeme autonom miteinander agieren, ohne dass ein Mensch in diesen Prozess eingreift. Jedoch ist das natürlich besonders dann riskant, wenn Angreifer ein System übernehmen und sich sozusagen huckepack in andere, möglicherweise fremde IT-Umgebungen einschleusen lassen. Grundsätzlich müssen alle Maßnahmen in einer koordinierten OT/IT-Sicherheitsstrategie abgebildet werden, die nicht nur das eigene Unternehmen sondern auch die gesamte Wertschöpfungskette umfasst. Dazu gehört auch, dass die Teilnahme eines Partners am gesamten Prozess davon abhängig gemacht wird, ob er den IT-Sicherheitsrichtlinien zustimmt.

Nicht zuletzt sollten auch technische Maßnahmen wie etwa ein sicheres, protokollübergreifendes Industrial-OT-Gateway eingesetzt werden, denn für ein manuelles Management sind die Prozesse bereits jetzt schon zu komplex. Hierfür eignen sich insbesondere Privileged-Access-Management-Lösungen (PAM).

„Ein ganzheitlicher Ansatz, das Privileged Access Management sowohl für Administratoren als auch für externe Partner, Lieferanten und Dienstleiter sowie Anwendungen ist notwendig, um in dynamischen, vernetzten Welten der Industrie 4.0 für signifikante Verbesserung der Sicherheit zu sorgen.“

Stefan Rabben, Area Sales Director DACH and Eastern Europe bei WALLIX

Wie kann eine PAM-Lösung ein OT-Gateway konkret schützen?

Die Kommunikation mit Industrieanlagen und Produktionsmitteln erfolgt üblicherweise über ein sogenanntes OT-Gateway, welches den Zugriff von Steuerungs- & Analysesoftware, Robots sowie des Wartungspersonals ermöglicht.

Um für diese Zugriffe maximale Sicherheit zu gewährleisten, sind vor allem zwei Punkte zu beachten:

  1. Steuerungs- und Analysesoftware sollte ausschließlich mit den geringstmöglichen Privilegien ausgeführt werden, die für den ordnungsgemäßen Betrieb notwendig sind. Hier spricht man vom „Principle of Least Privilege“ (POLP). Diese Mindest-Privilegien können für die verschiedenen Produktionsmittel (OT-Devices) unterschiedlich sein und sollten somit dynamisch vergeben werden können.
  2. Die Zugangsdaten zu den Produktionssystemen dürfen niemals auf dem OT-Gateway selbst abgelegt werden. Die Erfahrung zeigt jedoch, dass in vielen Fällen statische Passwörter – oftmals sogar im Klartext – direkt in den Anwendungen auf dem OT-Gateway hinterlegt sind. Dies stellt ein enormes Sicherheitsrisiko dar.

Mit einer speziell auf OT-Gateways angepassten PAM-Lösung können die Privilegien sämtlicher Applikationen automatisch und dynamisch so angepasst werden, dass für sämtliche Arbeitsschritte ausschließlich die geringstmöglichen Berechtigungen angewendet werden – selbst wenn die Applikation aus einem Administrator-Kontext heraus gestartet wird.

Ebenso werden die Zugangsdaten zu den Produktionsmitteln dynamisch für die jeweilige Sitzung aus einem sicheren Passwort-Tresor angefordert und sind auf dem OT-Gateway zu keiner Zeit mehr einsehbar.

Insofern hinaus müssen sich die Unternehmen darüber klarwerden, dass ein ganzheitlicher Ansatz, das Privileged Access Management sowohl für Administratoren als auch für externe Partner, Lieferanten und Dienstleiter sowie Anwendungen notwendig ist, um in dynamischen, vernetzten Welten der Industrie 4.0 für signifikante Verbesserung der Sicherheit zu sorgen. PAM hilft den Unternehmen die Prozesse und Datenzugriffe nicht nur zu verwalten, sondern auch zu auditieren. Dies ist ein wichtiger Aspekt, um eben nicht nur die Sicherheit zu erhöhen, sondern auch, um rechtlichen Anforderungen zu entsprechen oder diese gar zu übertreffen.

Falls IT-Entscheider ihre Sicherheitsmaßnahmen automatisieren und diese auf alle Prozesse ausdehnen, steht einer Einführung von sicherer und vertrauensvoller Industrie 4.0 nichts mehr im Wege.

www.wallix.com/de/

Stefan Rabben erläutert im Interview, warum privilegierte Konten ein lohnendes Ziel für Cyberkriminelle darstellt.
Lesen Sie mehr: https://www.trendreport.de/privilegierte-konten-ein-lohnendes-ziel-fuer-cyberkriminelle/

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay
Beitragsbild:
Bild von Gerd Altmann auf Pixabay

Den eigenen digitalen Reifegrad messen

Nikolai Stoyanov, Geschäftsführer der perXoom GmbH, langjähriger Trainer und Berater bei ibo, hat kürzlich ein Minimum Viable Product (MVP) gelauncht, mit dem es Mitarbeitern möglich wird, ihre Fähigkeiten für die digitale Transformation zu beurteilen. Der Ansatz gleicht einem Assessment, das sehr viel Aufschluss über die eigenen Möglichkeiten und Perspektiven bietet. Um einem möglichen Missverständnis vorzubeugen: Auch die menschlichen Fähigkeiten werden gefragt sein – nicht nur die Fähigkeit, Code zu schreiben. Genauso wie es Softwareentwickler und KI-Experten braucht, werden Experten im Umgang mit dem Menschen, Experten für Leadership und Change-Management benötigt, wie Stoyanov im nachfolgenden Interview mit der TREND-REPORT-Redaktion ausführt.

Herr Stoyanov, wie spielen Bildung und digitaler Wandel zusammen?
Der digitale Wandel hat eine enorme Auswirkung auf unser Arbeitsumfeld. Viele Arbeitsplätze verändern sich gravierend, andere werden in absehbarer Zeit nicht mehr existieren. Die Anforderungen von Unternehmen an ihren Mitarbeiter ändern sich natürlich auch und zwar in einer sehr hohen Intensität. Das Lernen und der Aufbau von Fähigkeiten und Kompetenzen sind der Schlüssel für eine gelungene digitale Transformation. Für die MitarbeiterInnen bedeutet digitale Fitness mehr Sicherheit und Erfüllung in der Arbeitswelt von morgen. Für die Unternehmen stellt die digitale Fitness ihrer Mitarbeiter eine Garantie dar, dass sie sicher und erfolgreich die digitale Transformation meistern.

Welche Rolle spielt eine Plattform wie perXoom in diesem Kontext?
Die Digitalisierung ermöglicht uns einen unglaublichen Zugang zu Wissen. Wir haben viele Möglichkeiten von den besten Experten zu lernen, unsere Erfahrungen zu teilen und von den Erfahrungen anderer zu profitieren und uns mit Gleichgesinnten zu vernetzen. Diese Vernetzung, den Austausch von Erfahrungen und Expertise, das gegenseitige voneinander lernen und profitieren nennen wir ein Lern-Ökosystem. Unsere Plattform organisiert und unterstützt den Aufbau von solchen Lern-Ökosystemen.

Nikolai Stoyanov: „Die digitale Transformation besteht aus mehr als nur Technik.“

Wie analysieren Sie den Status Quo und den Wissensbedarf bei Menschen und Organisationen? Welche Schlüsse lassen sich aus den Ergebnissen ableiten?
Zunächst mal geht es uns darum, für Menschen und Unternehmen eine Orientierung zu bieten: Welche digitale Kompetenzen brauche ich überhaupt? Wo stehe ich oder mein Unternehmen im Vergleich zu den so genannten „digital Leader“, also digitalen Vorreitern? Welcher Handlungsbedarf besteht für mich? Nach einer Analyse der eigenen digitalen Expertise und der aktuellen Aufgabenbereiche erhält jeder einzelne User unserer Plattform Vorschläge für seine individuelle Lernreise – Videos, Blogs, Expertentreffen, Seminare, etc.
Die Ergebnisse aus der Analyse können auch im Unternehmenskontext vielfältig verwendet werden. Z.B. für die Erstellung von Personalentwicklungsstrategien, für die Besetzung von Projekten, für Skill- und Talentmanagement und vieles mehr.

Nicht jeder wird und will Data Scientist oder KI-Experte werden. Wie kann perXoom weiterhelfen, die eigenen Qualitäten im Kontext der Digitalen Transformation zu beurteilen?
Die digitale Transformation besteht aus mehr als nur Technik. Neben technischen Spezialisten brauchen wir Expertise in Bereichen wie Leadership, Management, Vertrieb, Produktentwicklung, etc. Auch der Umgang mit dem Menschen in der Digitalisierung gewinnt an Bedeutung. Und damit steigt der Bedarf an Wissen und Expertise in Themen wie Change-Management, Stressbewältigung und Resilienz, Coaching, etc. Zusammenfassend – es gibt viele Bereiche in denen auch Nicht-IT-Spezialisten Verwirklichung und Erfüllung finden. Um die eigenen Stärken besser einzuschätzen kann z.B. eine Persönlichkeitsanalyse helfen. Oder auch ganz einfach – Neues lernen, ausprobieren und wenn es einem Spaß und Freude bereitet – einfach weitermachen.

Sie bringen sehr viele Erfahrungen aus der agilen Organisation mit. Wie agil gehen Sie selbst bei der Entwicklung vor? Wie könnten nächste Ausbaustufen aussehen?
Agiles Vorgehen bedeutet für uns vor allem folgendes: Kurzzyklisches Vorgehen, Nutzer aktiv einbeziehen, Fokus auf den Funktionalitäten, die für den Nutzer den höchsten Mehrwert darstellen.

Im Detail heißt es: Wir arbeiten in 1-wöchigen Sprints und verifizieren unsere Anforderungen und Ergebnissen mit ausgewählten Nutzern. Mit dem ersten Minimum Viable Product haben wir den Kreis unserer Testnutzer erweitert und zusätzliches Feedback gesammelt. Dieses Feedback bestimmt die Entwicklung für die nächsten 4 Wochen. Konkret – die nächsten 4 Wochen arbeiten wir an der Vereinfachung unserer Digital Fitness Tests und an der Verbesserung des Lernerlebnisses.
Technisch betrachtet ist in der Entwicklung einfach alles möglich. Deshalb versuchen wir mit Methoden wie z.B. Customer Journey und Design Thinking den Fokus auf bestimmte Zielgruppen und Technologien zu legen.

Sie haben perXoom als eigenständiges Unternehmen ausgegründet. Was waren die Beweggründe dazu?
Wir haben zuerst innerhalb der ibo Akademie ein Projekt angefangen und den Bedarf an digitalen Kompetenzen bei unseren bisherigen Kunden evaluiert. Wir haben ca. 400 Kundenbefragungen und Interviews durchgeführt, Prototypen erstellt und verifiziert. Am Ende dieses Projektes haben wir festgestellt, dass wir ein neues Geschäftsmodell brauchen, um die Kundenbedürfnisse zu erfüllen – nämlich eine Plattform zum Aufbau und Teilen von Wissen. Die Entscheidung perXoom als eigenständiges Unternehmen zu führen war die logische Konsequenz dieser Erkenntnis und sichert uns mehr Flexibilität und Geschwindigkeit in der Entscheidungsfindung und Umsetzung.

Welche „Lernkurve“ haben Sie selbst in den vergangenen Monaten bestritten?
Für mich persönlich waren die letzten Monate mit unglaublich vielen Erlebnissen, Erkenntnissen und Erfahrungen verbunden. Technisch wie fachlich habe ich sehr viele neue Themen für mich entdeckt, deshalb kann ich diese Lernkurve als sehr steil bezeichnen. Wenn ich nur ein Aspekt daraus hervorheben sollte, dann ist es die Offenheit, mit der unsere potenzielle Kunden, Experten, Partner und Mitgestalter ihre Erfahrungen, Ideen und Wünsche mitgeteilt haben. Während der Entstehung von perXoom haben wir ein großartiges Lern-Ökosystem entstehen lassen, das jeden einzelnen von uns persönlich und fachlich bisher weitergebracht hat. Diese steile Lernkurve gibt mir die Energie, solche Lern-Ökosysteme auch für andere Menschen und Unternehmen zu erschaffen.

Wenn Sie für die Entwicklung einen Wunsch frei hätten…
… wäre es, Wissen öffentlich zugänglich und bezahlbar für alle Menschen zu machen.

Weitere Informationen unter:
https://perxoom.com

Krankenhäuser unterschätzen IT-Schwachstellen

Etliche Hackerangriffe zeigen, dass viele deutsche Krankenhäuser ihre IT-Systeme noch nicht ausreichend vor Cyber-Attacken schützen. Die Security Division von NTT Ltd., einem weltweit führenden Technologie-Dienstleister, beschreibt die wichtigsten Gründe für das hohe Gefährdungspotenzial.

Es wäre ein Albtraum, wenn der Kardiologe die endoskopische Herz-OP unterbrechen müsste, weil das Kamerabild nicht mehr auf den Bildschirm übertragen wird. Ein abwegiges Szenario? Keinesfalls: Die nächste Hackerattacke wird nicht lange auf sich warten lassen.

Bis dato waren Angriffe auf Krankenhäuser noch eher die Ausnahme. Einer der letzten größeren Fälle ereignete sich in Rheinland-Pfalz und im Saarland Mitte 2019. Dabei wurden elf Krankenhäuser und vier Altenpflegeeinrichtungen des Deutschen Roten Kreuzes (DRK) Opfer einer Ransomware-Attacke. Das Schadprogramm verschlüsselte Datenbanken und Serverdaten und legte so das gesamte Netzwerk des DRK-Klinikverbundes lahm. Erst nach einigen Tagen konnte das DRK die Daten aus einem Backup wiederherstellen und die Server wieder in Betrieb nehmen. Zuletzt sorgte im Dezember 2019 das Klinikum Fürth für Schagzeilen.

„Alle Anzeichen deuten darauf hin, dass es künftig nicht mehr bei Einzelfällen bleiben wird.
Kliniken sollten folglich ihre Cyber-Security-Strategie schnellstens auf einen modernen Stand bringen, vor allem deshalb, weil im Gesundheitswesen eine besondere Gefährdungslage vorliegt.“

Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland

Gefährdungspotenzial in Kliniken

NTT nennt sechs Gründe, die die hohe Bedrohungslage von Kliniken belegen:

  • Gefahr für Leib und Leben: Wenn Hacker Geräte etwa auf der Intensivstation manipulieren oder per DDoS-Angriff ausschalten, können Patienten sterben.
  • Sensible Patientendaten: Sie sind streng vertraulich und unterliegen einem besonderen Schutz.
  • Hohes Maß an Digitalisierung: Die meisten Kliniken verwalten mittlerweile Patienteninformationen, klinische Dokumentationen und Finanzen komplett digital. Sie übertragen Patientendaten über mobile Geräte und steuern Infusionspumpen auf Intensivstationen teilweise zentral.
  • Vernetzte Medizingeräte: Viele medizinische Geräte oder OP-Systeme sind mit dem Office-Netzwerk oder untereinander vernetzt – und damit potenziell gefährdet. Durch die steigende Zahl an IoT-Geräten vergrößert sich die Angriffsfläche weiter; ein Beispiel dafür sind tragbare medizinische Geräte zur Fernüberwachung von Patienten, die Vitalwerte wie Blutdruck, Puls oder Blutzucker messen.
  • Einfacher Zugang für Angreifer: Krankenhäuser sind für Patienten und Besucher, aber auch für Hacker öffentlich zugänglich.
  • Angreifbares WLAN: Kliniken fungieren inzwischen selbst oft als IT-Service-Provider, wenn sie beispielsweise ihren Patienten WLAN-Zugänge bereitstellen; damit existiert ein weiteres Einfallstor für Hacker.

„Ein zentrales Problem der Krankenhäuser in Deutschland ist, dass sie medizinisch zwar vielfach auf höchstem technischem Niveau arbeiten, das Thema IT-Sicherheit aber eher vernachlässigen. Hier ist eine grundlegende Änderung unverzichtbar.“

Kai Grunwitz

Sicherheitsmaßnahmen und Best Practices

Zur Reduzierung der IT-Schwachstellen empfiehlt NTT unter anderem folgende Sicherheitsmaßnahmen und Best Practices:

  • Berücksichtigung der IT-Sicherheit bereits bei der Auswahl und beim Einkauf von IT-Lösungen und medizinischen Geräten
  • Permanentes Monitoring der Systeme etwa mit Alerts oder der Analyse von Logdateien
  • Regelmäßige Installation von Updates und Patches, um Sicherheitslücken zu schließen
  • Segmentierung des Netzwerkes in Bereiche für die klassische Office-IT, das Patienten-Management-System, den OP-Bereich und das WLAN für Patienten und Besucher
  • Verbot des Internet-Surfens auf kritischen Systemen
  • Implementierung einer IAM (Identity and Access Management)-Lösung für die Verwaltung von Identitäten (Ärzte, Pflegekräfte, Patienten, Besucher, Studenten an Unikliniken) und Zugriffsrechten
  • Verschlüsselung sensibler Daten
  • Nutzung von Managed Security Services für die Verwaltung der IT-Systeme und Medizingeräte
  • Aufsetzen eines Incident-Response-Planes
  • Sensibilisierung der Mitarbeiter für potenzielle Sicherheitsrisiken
8 Best Practices zur Sicherung von IT-Systemen in Krankenhäusern (Quelle: NTT)

„Grundsätzlich gilt, dass Krankenhäuser kontinuierlich ihren Sicherheitsstatus überprüfen sollten und vor allem mehr Zeit und Geld in den Schutz ihrer IT-Systeme und medizinischen Geräte investieren müssen.
Nur so können sie sich letztlich besser gegen mögliche Angriffe wappnen.“

Security Experte Kai Grunwitz

Weitere Informationen unter
hello.global.ntt

Über die Security Division und NTT Ltd.

Security ist eine Division von NTT Ltd., einem globalen Technologie-Dienstleister, der die Expertise marktführender Unternehmen vereint, einschließlich NTT Communications, Dimension Data und NTT Security. Die Security Division hilft Unternehmen beim Aufbau eines digitalen Geschäfts, das dem Grundsatz Security-by-Design entspricht. Auf Basis einer globalen Threat Intelligence bietet die Security Division hinsichtlich Cyber-Bedrohungen Prävention, Erkennung, Abwehr und Reaktion. Security verfügt über 10 SOCs, sieben Zentren für Forschung und Entwicklung sowie mehr als 2.000 Sicherheitsexperten und behandelt jährlich Hunderttausende Sicherheitsvorfälle auf sechs Kontinenten. Die Division sichert zudem eine effiziente Ressourcennutzung, indem der richtige Mix an Managed Security Services, Security Consulting Services und Security-Technologie zur Verfügung gestellt wird.

Bei Rückfragen wenden Sie sich bitte an:

NTT Security Division
Romy Däweritz
Regional Security Marketing Manager – Europe
Tel.: +41 76 509 21 51
romy.daeweritz@global.ntt
NTT Germany AG & Co. KG
Hakan Cakar
Senior Director Marketing Germany
Tel.: +49 89 9911 20 08
hakan.cakar@global.ntt
PR-COM GmbH
Franziska Fricke
Account Manager
Tel.: +49 89 59997 707
franziska.fricke@pr-com.de

European Identity & Cloud Conference 2020

Save the Date: Die 14. European Identity & Cloud Conference (EIC) vom 12. bis 15. Mai 2020 im Infinity Ballhausforum in München-Unterschleißheim

Verantwortliche für IAM- und Cybersecurity-Strategien erfahren die neuesten und relevantesten Topics rund um Informationssicherheit und digitale Identität.

Als europäische Leitveranstaltung für die Zukunft der digitalen Transformation bietet die EIC Ihnen eine spannende Mischung aus visionären Keynote-Präsentationen und Best Practice-Diskussionen. Klar im Mittelpunkt stehen in diesem Jahr privilegierte Zugriffe (PAM) und digitale Identitäten („Identity Fabrics“) als zentrales Element einer ganzheitlichen und zukunftsfesten Cybersecurity-Strategie. Aber auch: KI in der Cybersecurity bzw. anders rum: sichere KI.

Hinzu kommt das Thema Cyber Supply Chain Risk Management, das durch die kürzliche Enthüllung der Eigentüerschaft der Crypto AG durch NSA und BND und die daraus resultierende Spionage von über 100 Staaten an Brisanz zugenommen hat.  Erleben Sie mehr als 200 hochkarätige Analysten und Referenten führender Unternehmen darunter Audi, Bosch, BNP Paribas, Mastercard, General Electrics, BBC, Thomson Reuters, Novartis und Amazon.

Die Konferenz startet am Abend des 11. Mai mit der „EIC 2020 Innovation Night gefolgt von vier Konferenztagen mit insgesamt mehr als 120 Stunden Vorträgen, Workshops und Social-Events.

Einige Highlights der EIC 2020 im Überblick:

  • Mastercard: Your Digital Identity, Your Choice (12. Mai)
  • PwC: Helping the CISO to have Impact – From Cost Generation to Protecting and Adding Value (12. Mai)
  • Thycotic: How Does a Hacker Reduce the Risk From Getting Hacked – Inside the Mind of a Hacker (13. Mai)
  • Novartis: Blockchain-anchored Identities and Credentials Enabling Digital Transformation in the Pharma (14. Mai)
  • Audi: CIAM at AUDI – A Constant Transformation in a worldwide Digital Ecosystem (14. Mai)

Fakten zur Veranstaltung

Wann: 12. – 15 . Mai 2020

Wo: Infinity Ballhausforum in München-Unterschleißheim

Tickets: Early Bird bis 15. April 2020 – https://www.eic2020.de/tickets

Veranstalter: Kuppinger Cole

Pressevertreter und Journalist haben Sie die Möglichkeit, sich ab sofort kostenlos für die EIC 2020 zu akkreditieren:
https://www.kuppingercole.com/press/accreditation/eic2020

Weitere Informationen zur European Identity & Cloud Conference 2020
https://www.eic2020.de/  

Lizenz:
Dies ist eine Pressemitteilung von Weissenbach PR

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Green Bond Bulletin: Grüne Anleihen haben bei Wertentwicklung die Nase vorn

NN Investment Partners (NN IP) hat untersucht, wie sich grüne Indizes im Vergleich zu Indizes für herkömmliche Euro-Staats- und Unternehmensanleihen entwickelt haben. Die Analyse hat die vergangenen vier Jahre berücksichtigt, da der Markt für grüne Anleihen vor 2016 noch zu unreif war, um einen Vergleich anzustellen. Die Renditen und Volatilität von grünen Anleihen, insbesondere Unternehmensanleihen, machen die Anlageklasse in Portfolios zu einem echten Ersatz für herkömmliche Anleihen.

Der Analyse von NN IP lagen zunächst der Bloomberg Barclays MSCI Euro Green Bond Index und der Bloomberg Barclays MSCI Euro Aggregate Index zugrunde. Im Jahr 2019 lag die Rendite grüner Anleihen bei 7,4%, herkömmliche Anleihen erzielten 6,0%. In drei der vier Jahre schnitten grüne Euro-Anleihen um durchschnittlich 0,7% pro Jahr besser ab. Gleichzeitig war auch die Volatilität des grünen Anleiheindex in drei dieser Jahre höher.

Die Duration des Bloomberg Barclays MSCI Euro Green Bond Index stieg Anfang 2017 deutlich an. Damals hatte die Aufnahme der ersten grünen Staatsanleihe Frankreichs in den Index einen großen Einfluss. Das hohe Emissionsvolumen von 7 Milliarden Euro in Kombination mit der langen Laufzeit der Anleihen von 22 Jahren hat sich auf die Duration des Index ausgewirkt. Diese höhere Duration bedeutet, dass grüne Anleihen empfindlicher auf Zinsveränderungen reagieren. Da die Zinsen im vergangenen Jahr weiter zurückgegangen sind, hat der Bloomberg Barclays MSCI Euro Green Bond Index im Jahr 2019 besser abgeschnitten als der Bloomberg Barclays Euro Aggregate Index.

Grüne Unternehmensanleihen: vergleichbare Duration, bessere Wertentwicklung

Im nächsten Schritt hat NN IP den Bloomberg Barclays MSCI Euro Green Bond Index: Corporate mit dem Bloomberg Barclays MSCI Euro Aggregate Corporate Index verglichen. Der gesamte grüne Anleihenmarkt ist in den vergangenen Jahren deutlich gewachsen, Unternehmensanleihen haben allerdings besonders stark zugelegt. Das spiegelt sich auch in der Breite des Marktes wider, die Zahl der vertretenen Branchen hat deutlich zugenommen.

Im Jahr 2019 haben grüne Unternehmensanleihen eine Rendite von 6,4% erzielt, herkömmliche Unternehmensanleihen 6,2%. Grüne Unternehmensanleihen erzielten in drei der vier Jahre (2016, 2018, 2019) eine bessere Wertentwicklung, ihre Volatilität war in allen vier Jahren ebenfalls höher. Allerdings hat sich die Volatilität beider Anleihetypen von Jahr zu Jahr zunehmend angenähert. NN IP hat die tägliche Volatilität der beiden Unternehmensanleiheindizes über die vergangenen vier Jahre verglichen (Abbildung). Die blaue Linie verdeutlicht, dass die Differenz kontinuierlich abgenommen hat. Der Grund für diese Konvergenz ist nach Ansicht von NN IP das Wachstum und die zunehmende Diversifizierung des Marktes für grüne Unternehmensanleihen (in der Abbildung auf der rechten Achse invers dargestellt). Die Duration der beiden Indizes ist fast gleich. Das schrumpfende Volatilitätsgefälle bedeutet, dass die Hürden, in einem Portfolio traditionelle Unternehmensanleihen durch grüne Unternehmensanleihen zu ersetzen, niedriger geworden sind. Die Argumente sprechen für grüne Unternehmensanleihen – nicht nur als Mittel, um Impact zu erzielen, sondern auch aus finanzieller und Risiko-Ertrags-Sicht.

Tägliche Volatilitätsdifferenz zwischen herkömmlichen und grünen Unternehmensanleihen

Green-Bond-Bulletin-performance-data-confirm-green-bonds-are-becoming-mainstream_Graph-6

Quelle: Bloomberg, NN Investment Partners

Bram Bos, leitender Portfoliomanager für grüne Anleihen bei NN IP: „Die Ergebnisse unserer Analyse untermauen unsere Überzeugung, dass Anleger bei einer Investition in grüne Anleihen keine Kompromisse bei der Wertentwicklung eingehen zu müssen. Grüne Anleihen werden in der Regel von innovativen, zukunftsorientierten Emittenten ausgegeben, die mit ihren Aktivitäten auf die Dringlichkeit des Klimawandels reagieren. Infolgedessen sind diese Unternehmen geringeren Klima- und ESG-Risiken ausgesetzt und ihre Aktivitäten sind transparenter. Die konsistente Outperformance der grünen gegenüber den herkömmlichen Anleiheindizes unterstreicht dies und ist auch in einem breiteren Kontext ein überzeugendes Argument für grüne Anleihen. Dabei ist bei grünen Anleihen ein aktives Management notwendig, vor allem um hellgrüne Anleihen zu meiden.“

Die grünen Anleihestrategien von NN IP wendet einen strengen Auswahlprozess an, um „hellgrüne“ Anleihen zu vermeiden. Dadurch wird sichergestellt, dass nur Anleihen ausgewählt werden, die Projekte finanzieren, die einen messbar positiven Umweltbeitrag leisten, und dass sie von Unternehmen emittiert werden, die wirklich es ernst damit meinen, zentrale Nachhaltigkeitsfragen anzugehen. Im Zuge dieses Analyseprozesses schließt NN IP rund 15% der weltweit ausstehenden grünen Anleihen aus und stellt so sicher, dass das eigene Portfolio wirklich dunkelgrün ist.

Bram Bos: „Sobald wir unser Universum definiert haben, können wir selektiv vorgehen. Wir betrachten die einzelnen Anlagekandidaten aus einer fundamentalen Perspektive und wählen nur die aus, von denen wir überzeugt sind. Das ermöglicht es uns, stärker diversifizierte und weniger konzentrierte Portfolios zu konstruieren und auf die Anleihen mit dem besten Risiko-Rendite-Profil zu setzen.“

Weitere Informationen unter:
www.nnip.com

Dies ist eine Pressemitteilung von NN Investment Partners

Nachfolge im Management: Unternehmen tun sich nach wie vor schwer

Mehr als die Hälfte der Unternehmen (55 Prozent) hat heute ein institutionalisiertes Programm zur internen Identifikation und Bindung von ‚High Potentials‘, die als Nachfolger für das Management aufgebaut werden. Vier von fünf Befragten sind der Meinung, dass Nachfolgeplanung heute deutlich wichtiger genommen wird als vor fünf Jahren. Dennoch: ein Drittel (34 Prozent) denkt, dass nicht intensiv genug nach internen Nachfolgern gefahndet wird. Das ist das Ergebnis einer aktuellen Befragung der Personal- und Organisationsberatung Korn Ferry.

„Unternehmen, gerade größere Konzerne, haben in den vergangenen Jahren intensiv in das so genannte ‚Succession Management‘ investiert“, sagt Christoph Mât, Leiter Assessment & Succession bei Korn Ferry in Deutschland. „Auch, aber nicht nur aufgrund des Fachkräftemangels haben sie erkannt: für viele Positionen gibt es die geeigneten Nachfolger bereits im Unternehmen. Es gilt diese zu finden, zu entwickeln, zu binden und schließlich in Verantwortung zu bringen. Die Lösung einer externen Besetzung dagegen wird immer öfter zur zweiten Lösung. Auch weil es die notwendigen Kandidatinnen und Kandidaten am Markt oft nicht gibt.“

Und so haben 31 Prozent der Befragten angegeben, dass das eigene Unternehmen vor allem interne Kandidaten befördern würde. In nur 13 Prozent der Fälle dominieren externe Kandidatinnen und Kandidaten bei der Neubesetzung von Führungsfunktionen. 56 Prozent bescheinigen ihrem Unternehmen einen weites gehend ausgeglichenen Mix in der Besetzung zwischen intern und extern.

Es gilt auch die Kandidatinnen und Kandidaten zu finden, die nicht unmittelbar im Scheinwerferlicht stehen

Bei den Unternehmen, die ein aktives Nachfolgeprogramm unterhalten, setzt sich die Identifikation von künftigen ‚High Potentials‘ wie folgt zusammen: 38 Prozent ermuntern ihre Führungskräfte, ihre Nachfolger zu identifizieren. 28 Prozent richten sich nach vorhandenen Daten, die über die Performance möglicher Kandidatinnen und Kandidaten Aufschluss geben. 13 Prozent nutzen ein fundiertes Assessment. Und in fünf Prozent der Fälle können Kandidatinnen und Kandidaten sich selbst vorschlagen.

Christoph Mât sagt: „Grundsätzlich ist es gut und richtig, wenn die jetzigen Führungskräfte eine Auswahl treffen, wem sie zutrauen in ihre Fußstapfen zu treten. Menschen können Menschen gut einschätzen. Wir alle wissen aber auch, dass eine solche Einschätzung aus vielerlei Hinsicht nicht unbedingt neutral abläuft. Denn Benennungen haben vielfach Einfluss auf die Position und Karriere der Nominierenden selbst. Wir empfehlen darum, mit wissenschaftlich fundierten Assessment-Verfahren nicht nur die Nominierten zu validieren. Sondern mit breit angelegten Suchen auch diejenigen im Unternehmen zu finden, die – aus welchen Gründen auch immer – nicht von anderen ins Scheinwerferlicht gebracht worden sind. Oftmals finden sich hier Talente, deren Potenzial Organisationen nicht einzusetzen vermögen – weil sie es gar nicht kennen.“

Talente werden zu oft übersehen, weil Nachfolgeprogramme zu spät greifen

Wer oder was ein ‚High Potential‘ ist, das beschreiben die teilnehmenden Unternehmen sehr unterschiedlich. Die kleinste Anzahl (10 Prozent) beginnt schon bei Einsteigern damit, diese in mögliche Entwicklungsprogramme aufzunehmen. In 18 Prozent der Fälle können Mitarbeiterinnen und Mitarbeiter mit erster Führungserfahrung in die Nachfolgeplanung einrücken, in 27 Prozent der Fälle das untere mittlere Management, in einem Viertel der Fälle Führungskräfte der dritten Ebene und bei einem Fünftel werden sogar erst obere Führungskräfte in einem formellen Programm für höhere Aufgaben vorbereitet.

„Wer mal im Top-Management reüssieren kann, entscheidet sich nicht in den ersten Berufsjahren“, sagt Christoph Mât. „Wer Führungspotenzial hat, lässt sich dagegen sehr frühzeitig erkennen. Unternehmen, die dies so schnell es geht identifizieren und potenzielle Nachfolger bereits nach ihrem Berufseinstieg anfangen zu entwickeln, haben auch die größte Möglichkeit, diese zu prägen und damit zu binden. Eingebunden zu sein, gefördert zu werden, schafft Nähe und Loyalität. Unternehmen, die sich erst sehr spät damit beschäftigen, wer einmal das Zeug für Mehr hat, drohen auf der Strecke dorthin bereits wichtige Talente verloren zu haben. Der künftige CEO könnte noch in der Arbeitsebene sitzen. Wird er an seinem Arbeitsplatz nicht erkannt, wird er später vielleicht dennoch ein Unternehmen führen – aber ein anderes.“

Weitere Informationen unter:
http://www.kornferry.com/

„Digitalisiert euch“

“Digitalisiert euch” ist der Auftrag an den Mittelstand, denn junge Unternehmen wie Uber, AirBnB und andere stellen derzeit ganze Branchen auf den Kopf. Wer da mit den technologischen Entwicklungen nicht Schritt hält, läuft Gefahr, den langfristigen Erfolg des Unternehmens aufs Spiel zu setzen. Die Auswahl der Methoden, um die Digitalisierung umzusetzen, scheint vielfältig: Die einen vertrauen auf klassische Strategieberatungen, die anderen begnügen sich mit Start-up-Safaris. Dass das aber nicht ausreicht, meinen Alexander Mahr und Jan Sedlacek, Co-Founder und Partner bei Stryber im Interview mit der Redaktion. Stryber ist ein Corporate Venture Builder, der Ansätze aus der Konzern- und der Start-up-Welt vereint, für seine Auftraggeber innovative Ventures aufbaut und so deren Zukunftsfähigkeit optimiert.

Ihr Unternehmen beschäftigt sich mit strategischem Corporate Venture Building. Was genau verbirgt sich hinter diesem Begriff?
Alexander Mahr: Corporate Venture Building ist eine Methode, um die Zukunftsfähigkeit von Unternehmen zu steigern. Das bedeutet konkret: Aus finanziellen und anderen materiellen und immateriellen Ressourcen des eigenen Unternehmens werden agile Start-ups aufgebaut. Diese können im Hinblick auf das Kerngeschäft des “Mutterunternehmens” neue oder ergänzende Geschäftsfelder besetzen, um dem steigenden Wettbewerbsdruck etwas entgegenzuhalten. Bricht bestehendes Geschäft des Mutterkonzerns weg, kann der Umsatz aus den Start-ups die Verluste langfristig auffangen.
Jan Sedlacek: Ein Problem gibt es jedoch bei dem Aufbau solcher Ventures: Das Risiko des Scheiterns ist sehr hoch, gerade bei Start-ups mit sehr innovativen Angeboten. Die Lösung hierfür ist das Corporate Venture Portfolio Building, also der parallele Aufbau eines Portfolios an Start-ups. Um die Zukunftsfähigkeit von Unternehmen verlässlich zu sichern, sollten sich Entscheider somit nicht nur auf den Erfolg einzelner Ventures verlassen. Die Idee dahinter ist nicht neu: Wie wichtig eine gezielte Risikostreuung ist, hat unter anderem der US-amerikanische Ökonom Harry Markowitz bereits in den 1950er Jahren bewiesen.

Welche Vorteile bietet dieser Ansatz für Unternehmen? Wie unterscheidet er sich von herkömmlichen Methoden zur digitalen Transformation?
Jan Sedlacek: Der Hauptvorteil für Unternehmen ist zweifellos die beschriebene Risikostreuung. Wer alles auf ein Projekt setzt, kann schnell in Bedrängnis geraten, wenn das Start-up am Markt nicht besteht. Die Chance, dass ein einzelnes Start-up scheitert, ist sehr hoch. Somit ist Diversifikation sinnvoll. Die Unternehmen profitieren von den agilen, digitalen und innovativen Start-ups, sichern sich aber gleichzeitig gegen deren Misserfolg ab.
Alexander Mahr: Für den von uns vertretenen Portfolio-Ansatz sind ein entsprechendes Mindset und eine agile Kultur, die neuen Wegen und Geschäftsmodellen gegenüber aufgeschlossen ist, zentral. Entscheidungen müssen tagtäglich im Sinne des Vorankommens des gesamten Start-up-Portfolios getroffen werden. Hierfür benötigt man ein stimmiges Governance-Modell, das es erlaubt, Ventures von der Ideenfindung über die Lancierung am Markt bis hin zur Erschließung des gesamten Wachstumspotentials professionell zu führen.
Jan Sedlacek: Anders als bei dem oftmals nur kurzfristigen Hinzuziehen von Unternehmensberatern oder Start-up-Studios wird hier zudem ein langer Planungshorizont benötigt. Gleichzeitig macht diese Herangehensweise das Unternehmen dafür aber auch langfristig zukunftssicher und erfolgreich.

Für welche Unternehmen ist Corporate Venture Building geeignet?
Alexander Mahr: Am besten eignet sich der Aufbau eines Start-up-Portfolios für Mittelständler mit einem Umsatz von mehreren hundert Millionen Euro, die über einen längeren Zeithorizont hinweg planen können. Denn zum einen müssen Unternehmen langfristig beträchtliche Summen investieren können – je nach Portfoliogröße sprechen wir hier von zweistelligen Millionenbeträgen.
Jan Sedlacek: Wichtig ist, dass das Kapital möglichst effektiv eingesetzt wird – insbesondere in methodisch schlank aufgesetzten Portfolios. Zum anderen ist zum Aufbau eines Portfolios ein Zeitfenster von circa zehn Jahren notwendig. Kurzfristig ist es kaum möglich, mit dem gesamten Portfolio nennenswerte Gewinne zu erzielen. Bis sich die jungen Unternehmen am Markt etabliert haben und profitabel werden, vergeht etwas Zeit. Das ist auch der Grund, warum Venture-Capital-Fonds eine Laufzeit von zehn bis 15 Jahren haben.

Wie unterstützen Sie und Ihre Mitarbeiter die Unternehmen bei dem Portfolio Building?
Alexander Mahr: Während unserer Zeit in Beratungen, Konzernen und Start-ups haben wir selbst gesehen, was nicht funktioniert. Mit Stryber verfolgen wir nur Ansätze, an die wir persönlich glauben und unsere Kunden profitieren von diesem Fokus. Das macht uns zum führenden unabhängigen Anbieter im deutschsprachigen Markt.
Ich denke, der Mehrwert der Zusammenarbeit mit uns liegt insbesondere in zwei Aspekten. Zum einen helfen wir unseren Kunden, das Thema Innovation und Zukunftsfähigkeit richtig einzuordnen: Wie groß muss der Ergebnisanspruch an das Portfolio sein? Wie groß muss das Portfolio sein? Welche Geschäftsmodelle kommen in Frage? Wie muss so ein Portfolio gesteuert werden? Zum anderen können wir mit unseren Mitarbeitern erste Ansätze direkt auf die Straße bringen und durch messbare Ergebnisse zeigen, wie Corporate Venture Building funktioniert. Unternehmen können so Schritt für Schritt eigene Kompetenzen aufbauen.
Jan Sedlacek: Wir unterstützen unsere Partner zu Anfang immer mit einer ausführlichen Analyse, um fundierte Investmenthypothesen aufstellen zu können. Ziel ist es, eine solide Basis an Daten und Informationen zu erarbeiten, um Entscheidungen nicht aus dem Bauch heraus zu treffen. Die Auswirkungen von einer falschen Herangehensweise an die digitale Transformation von Unternehmen sind zu gravierend und komplex, um auf die Intuition einzelner Personen zu vertrauen.

Was sind die größten Hemmnisse bei dem Aufbau von Venture Portfolios? Welche Voraussetzungen müssen geschaffen werden?
Jan Sedlacek: Der Aufbau eines strategischen Corporate Venture Portfolios ist mit einigem Aufwand verbunden. Das schreckt leider viele Unternehmen ab. Das ist sehr schade, denn wichtig ist vor allem, sich zu trauen, endlich loszulegen, dabei wirklich strategisch zu denken und alte Zöpfe abzuschneiden! Ein weiteres Hemmnis ist die vermeintlich fehlende Unterstützung, sowohl intern als auch extern. Ohne die richtigen Köpfe, um die Projekte umsetzen, fühlen sich viele Entscheider verloren und trauen sich verständlicherweise schlichtweg nicht, höhere Summen zu investieren.
Alexander Mahr: Auch nicht zu unterschätzen sind die kulturellen Hemmnisse und die internen Machtstrukturen. Oft sind die Hierarchien und damit verbundenen Organisationsstrukturen in Traditionsunternehmen recht festgefahren und die Kultur wurde von diesen Hierarchien geprägt. Agiles Arbeiten bedeutet aber einen massiven Machtverlust für die bisher Mächtigen, die eine ganz neue Rolle erlernen müssen, nämlich die des Investors. Oft greifen Unternehmen dann doch auf die erwähnten oberflächlichen Ansätze, wie beispielsweise Innovationslabore und Start-up-Safaris, zurück.

Nennen Sie uns einen wichtigen Tipp, ein zentrales Learning aus Ihrer täglichen Arbeit im Venture Portfolio Building.
Alexander Mahr: Die einzelnen Schritte und Prozesse im Aufbau von Start-ups können schnell unübersichtlich und komplex werden. Tägliche Entscheidungen sind oft schwierig in das große Ganze einzuordnen, haben aber oft schwerwiegende Auswirkungen auf den Start-up-Erfolg. Eine stabile Methodik, ein durchdachter Modus Operandi und eine klare Governance sind unabdingbar. Dazu gehört auch der lange Atem: Die Ventures brauchen, wie gesagt, ihre Zeit, um profitabel zu werden. Wichtig sind am Ende aber immer der Blick auf die Zahlen und unsentimentale Entscheidungen.
Jan Sedlacek: Ich würde hierbei die Bedeutung der richtigen Governance doppelt und dreifach unterstreichen: Viele Leute im Unternehmen möchten sich gerne mit spannenden Themen beschäftigen, das heißt aber nicht, dass die entsprechenden Fähigkeiten auch vorhanden sind. Das gilt für einzelne Mitarbeiter, aber auch für die Organisation als Ganzes, mit all ihren etablierten Strukturen und Mechanismen. Der erfolgreiche Umgang mit Ventures kann nur mit den richtigen Spielregeln innerhalb der richtigen Strukturen gelingen. Diese zu schaffen, ist die zentrale Aufgabe der obersten Führungsriege.

Jan Sedlacek – Co-Founder und Partner bei Stryber

Jan Sedlacek ist Gründer und Partner von Stryber, einem strategischen Corporate Venture Builder, und sichert durch den Aufbau von innovativen Corporate Venture Portfolios die Zukunft von Unternehmen im digitalen Zeitalter.

Alexander Mahr – Co-Founder und Partner bei Stryber

Als Gründer und Partner von Stryber, baut Alexander Mahr tagtäglich innovative Corporate Venture Portfolios auf und stellt so die Zukunftsfähigkeit von Unternehmen im digitalen Zeitalter sicher.

Weitere Informationen unter:
https://stryber.com/

Smart Factory

Damit aus Visionen der Industrie 4. 0 Wirklichkeit werden, gilt es Schritt für neue Technologien anzuwenden und bestehenden Anlagen und Prozesse zielgerichtet und funktional zu vernetzen.

Sind Unternehmen fit für die Arbeitswelt 4.0?

Dies ist ein Gastbeitrag von Ulrike Rüger, Senior Sales Director, Head of Business Unit Client Solutions, Dell Technologies Deutschland

Durch die Digitalisierung steht die Arbeitswelt, wie wir sie kennen, vor einem fundamentalen Wandel. Technologien wie Künstliche Intelligenz, Data Analytics oder Robotics erlauben künftig eine immer stärkere Automatisierung von Routinetätigkeiten und machen damit viele heute noch selbstverständlich erscheinende Berufe und Tätigkeiten schlichtweg obsolet. Daraus ergibt sich eine Reihe sehr wichtiger Fragen: Wo bleibt der Mensch, wenn seine Arbeit digital wird? Welche Jobs wird er übernehmen, wenn Roboter und Künstliche Intelligenz mit ihm konkurrieren? Mit einem Wort: Wie sieht der Arbeitsplatz der Zukunft aus?

Fakt ist: Klassische Büros mit festem Schreibtisch, Rechner und Telefon sind schon heute für viele nicht mehr das Maß aller Dinge. Dank Notebook und Smartphone kann die Arbeit von überall aus erledigt werden. Anstatt mit allen Kollegen gemeinsam in einem Gebäude zu sitzen, arbeiten Teams immer öfter verteilt und auch länderübergreifend zusammen. Home Office und innovative Arbeitszeitmodelle tragen obendrein dem Wunsch nach mehr Flexibilität Rechnung, und Telearbeit wird zu einem wichtigen Bestandteil des Employer-Brandings.

Das erfordert auf technischer Seite die Ausstattung der Mitarbeiter mit modernsten mobilen Geräten, deren umfassende Vernetzung sowie den Einsatz digitaler Kommunikationsmittel wie Messenger, Video-Chat-Systeme oder Conferencing-Tools. Ein One-size-fits-most-Ansatz reicht dabei jedoch bei weitem nicht aus, denn jeder Mitarbeiter hat individuelle Anforderungen und Bedürfnisse, die berücksichtigt werden müssen. Vergleichbar mit der Customer Journey sollten Unternehmen also auf die „Employee Journey“ gehen und herausfinden, wie ihre Mitarbeiter jeden Tag durch ihre Aufgaben und Entscheidungen navigieren, wann sie mit welchen Kollegen kommunizieren und wie sie einzelne Technologien nutzen. So lässt sich die für den jeweiligen Mitarbeiter ideale Arbeitsplatzlösung definieren, um letztendlich die Produktivität und Zufriedenheit der Nutzer zu erhöhen.

Die größte Herausforderung wird künftig sicher der drohende Wegfall von Arbeitsplätzen sein. Warum sollte der Mensch noch schwere Routine-Aufgaben durchführen, wenn schon heute Roboter in der Automobilindustrie Fahrzeuge zusammenschrauben oder riesige Kräne im Hafen weitgehend selbstständig Metallcontainer manövrieren. Auch für das mühsame Auswerten von Excel-Dateien oder die Suche nach Zusammenhängen in großen Datenpools sind KI-Technologien definitiv besser gerüstet als der Mensch und erledigen derlei Tätigkeiten oft im Handumdrehen.
Ein Grund zur Sorge besteht dennoch nicht, im Gegenteil. Arbeitsmarktforscher sind sich weitgehend einig, dass durch die Digitalisierung in den kommenden Jahren zwar viele Berufe wegfallen, dafür aber völlig neue Berufsbilder entstehen werden. Gleichzeitig wird die zunehmende Automatisierung zu mehr Zufriedenheit am Arbeitsplatz führen: Während ungeliebte Aufgaben von Maschinen übernommen werden, können sich die Mitarbeiter stärker auf die Bereiche Strategie, Kreativität oder Soziales konzentrieren. Kombinationsfähigkeit jenseits herkömmlicher Gedankenspiele und Einfühlungsvermögen sind immer noch dem Menschen vorbehalten – der „Human Touch“ bleibt unersetzbar.
Technologie wird also zum nützlichen Begleiter – mehr aber auch nicht. So unterstützen Digital-Intelligence-Plattformen die Automatisierung von Entscheidungen, Chatbots sowie intelligente Assistenten ermöglichen eine Mensch-Maschine-Automation, und Augmented beziehungsweise Mixed Reality verändern ganze Arbeitsabläufe. Nehmen wir als Beispiel die Wartung von Aufzügen: Während der Arbeit kann sich der Techniker/die Technikerin ein Hologramm des Aufzugs anzeigen lassen, woraus sich dann unter anderem die Pläne einzelner Teile aufrufen und visualisieren lassen. Man kann zudem Anleitungen und Video-Tutorials aufrufen oder sich per Skype-Videoanruf jederzeit die Unterstützung eines Experten in der Zentrale holen.

Was heißt das alles für Unternehmen? Aus operativer Sicht gilt es, firmeninterne Prozesse auf die Mensch-Maschine-Interaktion hin anzupassen. Dabei sollten vor allem die Arbeitsabläufe zwischen Mitarbeitern und digitalen Technologien abgestimmt und optimiert werden. Die Mitarbeiter wiederum erwarten für die eigene berufliche Zukunft neue Möglichkeiten bezüglich Arbeitszeit und Arbeitsort sowie eine entsprechende Unternehmenskultur. Für die Firmen ist es also höchste Zeit umzudenken, denn Zufriedenheit am Arbeitsplatz ist vielen Mitarbeitern inzwischen sogar wichtiger als die Höhe des Gehalts.

Weitere Informationen unter:
www.dell.com

Über die Autorin:

Ulrike Rüger ist Senior Sales Director und Head of Business Unit Client Solutions von Dell Technologies Deutschland. In dieser Funktion verantwortet sie das gesamte PC-Geschäft von Dell Technologies Deutschland sowie die strategische Geschäftsausrichtung dieses Geschäftsbereiches. Sie kam im Dezember 2016 von Fujitsu, wo sie 16 Jahre in unterschiedlichsten Vertriebs- und Managementrollen tätig war. Davor leitete sie viele Jahre das Business Development Clients EMEA sowie das Produkt-Marketing für Clients, Storage und Cloud auf europäischer und globaler Ebene. Vor ihrem Wechsel zu Fujitsu war sie fünf Jahre in unterschiedlichsten EMEA-Vertriebsfunktionen bei Samsung beschäftigt.