Corona macht es überdeutlich: Wir brauchen dringend eine europäische Dateninfrastruktur

Aufgrund des großen Zeitdrucks nutzen viele IT-Abteilungen einfach kurzerhand die Public-Cloud-Dienste der US-amerikanischen Internetgiganten, um die Home Offices mit den nötigen Tools auszustatten – und diese Dienste unterliegen allesamt dem US Cloud Act.

Open-Data-Studie

Die aktuelle Studie “The Economic Impact of Open Data: Opportunities for Value Creation in Europe” verdeutlicht die Vorteile von Open Data. Die Nutzung führt demnach zu positiven Effekten wie einer gesteigerten Effizienz und vergünstigten Services und hilft zudem, soziale und ökologische Ziele zu erreichen.

Eine ausgezeichnete Idee

er Fahrbahnbelag kann mehrfarbig leuchten und bietet auch die Möglichkeit, Informationen mit (autonomen) Fahrzeugen und anderen Verkehrsteilnehmern auszutauschen. Auch die kabellose Lademöglichkeit von Elektrofahrzeugen mittels Induktion ist damit umsetzbar und würde die Verbreitung von E-Mobilität unterstützen.

Verhinderte Eigentümer!

Rund die Hälfte der Menschen in Deutschland, die kein Wohneigentum besitzen, wäre gerne Eigentümer.

Silodenken bremst die digitale Transformation

Die Digitalisierung verändert gesamte Branchen. Doch nicht alle Unternehmen sind in der Lage, mit der Entwicklung Schritt zu halten. Häufig der Grund dafür: Silodenken. Mitarbeiter und Abteilungen haben lediglich ihren Kompetenzbereich im Fokus. Wo Schnittstellen fehlen, muss jedoch Transformation scheitern.

Um das zu ändern, braucht es ein Maßnahmenbündel. Wie dies aussehen kann, beschreibt Gastautor Christoph Drebes, Geschäftsführer der Mystery Minds GmbH.

In den vergangenen Jahren nahm die Digitalisierung schnell an Fahrt auf. Um dem Anspruch von Kunden gerecht zu werden und gleichzeitig Vorgänge in-house zu optimieren, sind Unternehmen heute gezwungen, sich neue Technologien in kurzer Zeit zunutze zu machen – oder diese selbst zu entwickeln. Für alle Branchen gehen damit disruptive Veränderungsprozesse einher. Davon betroffen sind Produkte, Prozesse, die Organisation – und nicht zuletzt die Art und Weise, wie Mitarbeiter zusammenarbeiten. Somit steht die gesamte Unternehmenskultur im Fokus. Denn Veränderungen erfolgreich zu bewältigen gelingt nur, wenn im Unternehmen eine Offenheit für das vorhanden ist, was auf es zukommt. Und gleichzeitig die Fähigkeit abgerufen werden kann, schnell auf neue Anforderungen zu reagieren.

Silos hemmen Transformation

Es ist nicht die Aufgabe einzelner Abteilungen wie IT, Human Resources oder Marketing, auf den immer schneller rollenden Digitalisierungszug aufzuspringen. Vielmehr braucht es für technologische Innovationsfähigkeit einen integrierten, unternehmensweiten Ansatz – weit über Bereichsgrenzen hinweg. Silos aufzulösen, ist dabei der erste Schritt. Entscheidende Impulse können von überall aus kommen, dabei sind multiple Fachgebiete beteiligt.

An dieser Stelle sind Austausch, Zusammenarbeit und agile Prozesse von Bedeutung. Vorhandene Grenzen verschwimmen zusehends. Dies bedeutet: Dynamische Netzwerke treten anstelle hierarchischer Modelle in den Vordergrund. Schnittstellen helfen sowohl im Hinblick auf innovative Entwicklungen als auch beim Wissensmanagement. So führt das Zusammenbringen der Expertise unterschiedlicher Akteure zu einer höheren kollektiven Intelligenz. Neue Touch Points zwischen Mitarbeitern aus unterschiedlichen Bereichen sind damit eine Grundlage, damit Firmen den Weg der digitalen Transformation gehen können.

Förderung einer neuen Unternehmenskultur

Die Kultur zu verbessern, gelingt nicht durch neue Vorgaben. Um eine Veränderung der Denkweisen im gesamten Unternehmen zu ermöglichen, ist vielmehr ein „Bottom-up“-Ansatz die bessere Wahl. Spielerische und informelle Angebote an Mitarbeiter können helfen, Gewohnheiten aufzubrechen und die Basis für eine Kultur zu schaffen, die Innovation erlaubt. Dafür gibt es eine Reihe von Beispielen:

One-to-One-Meetings: Informelle Meetings zwischen Kollegen aus unterschiedlichen Einheiten, die bislang keine Berührungspunkte hatten, ermöglichen bessere Vernetzung innerhalb der Organisation. Dabei unterstützt ein zwangloses Kennenlernen das gegenseitige Verständnis für Arbeitsweisen, außerdem entstehen neue Synergien. So lassen sich beispielsweise Online-Plattformen einsetzen, die Mitarbeiter mit Kollegen aus anderen Abteilungen zum Mittagessen oder zum Kaffee zusammenbringen. Dabei lost ein Algorithmus per Zufallsprinzip Paare zusammen – so ergeben sich Lunch Blind Dates, die auf längere Sicht zum Abbau von Silos beitragen.

Networking Events: Veranstaltungen tragen seit jeher zur besseren Vernetzung bei. Hier gilt es für die Organisatoren jedoch, gezielt Elemente einzubinden, die Abteilungsgrenzen aufreißen und zum Austausch zwischen Kollegen aus verschiedenen Bereichen beitragen. Klassische Maßnahmen wie firmeninterne Sportturniere oder ein Betriebsausflug in die Berge eignen sich dabei ebenso wie innovativere Ansätze: Etwa „Lunch & Learn“ Events, im Zuge derer interessierte Kollegen aller Abteilungen beim Mittagessen einem inspirierenden Vortrag folgen und im Anschluss diskutieren und netzwerken.

Brainstormings: Wenn Kollegen über Abteilungen hinweg im Rahmen von Brainstorming-Sessions „out of the box“ denken, liegt darin großes kreatives Potenzial. So wird es möglich, Feedbacks einzuholen, gemeinsame Konzepte zu entwickeln und neue Blickwinkel einzunehmen. Daraus resultieren mehr Effizienz und eine neue Meeting-Kultur. Webbasierte Plattformen, auf denen sich Mitarbeiter anmelden können, schaffen eine Grundlage.

Integrierte Projekte: Die Zusammenarbeit zwischen verschiedenen Bereichen schafft neben einem besseren Verständnis für den Arbeitsalltag der jeweils anderen auch neue Ideen und Innovationsansätze. Die Zusammenarbeit kann im Rahmen konkreter Projekte realisiert werden – oder im Rahmen eines Job Shadowing, bei dem Mitarbeiter bei Kollegen hospitieren, um deren Arbeitsalltag kennenzulernen. Letztlich entstehen so neue Brücken.

Flexible Mentoring Ansätze: Ein Mentor bietet Unterstützung für die Weiterentwicklung und im Hinblick auf spezifische Expertise. Dabei können dynamische Varianten gewählt werden: Etwa, indem Mentor und Mentee die Rollen tauschen. Das junge Talent wird zum Mentor, routinierte Fachkräfte nehmen die Position des Lernenden ein. So entsteht eine neue Durchlässigkeit – in Verbindung mit einem spielerischen Umgang miteinander.

Über den Autor:

Christoph Drebes ist Geschäftsführer der Mystery Minds GmbH. Mit den Software-as-a-Service (SaaS) Lösungen des Unternehmens mit Sitz in München werden bessere Vernetzung und persönliche Zusammenarbeit ermöglicht. Ziele sind der Abbau von Silos und die Etablierung einer zukunftsweisenden Unternehmenskultur. Mehr unter www.mysteryminds.com

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Hybride Planung sichert Projekterfolg

Braucht die digitale Transformation ein neues Projektmanagement und neue Projektmanager? Genügen für die digitale Transformation die herkömmlichen Instrumente des Projektmanagements? Thomas Schlereth, Geschäftsführer der Can Do GmbH, gibt im Interview mit der Redaktion Antworten.

Herr Schlereth, welche Rolle spielt das Projektmanagement im Kontext der digitalen Transformation?
Die digitale Transformation begünstigt die Relevanz des Projektmanagements in der gegenwärtigen Situation. Zum einen müssen Unternehmen die Digitalisierung jetzt zügig angehen und sind damit wirklich schon spät dran; zum anderen müssen Unternehmen die Digitalisierung zielstrebig fortsetzen. Dies betrifft vor allem die Zusammenarbeit der Personen, um Vorhaben gezielt schnell und sicher umzusetzen. Dabei greifen die üblichen Verfahren „auf Zuruf“ und „Meetings“ immer seltener, da sie zeitraubend und fehleranfällig sind. Die häufig anzutreffende Planung mit Hilfe von Excel-Listen hat sich in der Vergangenheit als umständlich und fehlerbehaftet erwiesen. Sie wird vom Personal schlicht und ergreifend nicht mehr akzeptiert. Der Wunsch nach einer professionellen Planung von Projekten und der dedizierten Zuweisung von Arbeitspaketen und Ressourcen wird dementsprechend lauter.

Welche Rolle spielen agile Methoden schon oder klassische Methoden noch?
Die Modelle verschmelzen zunehmend. Lange, klassische Projekte mit der Wasserfallmethode lassen sich gar nicht mehr umsetzen. Dazu sind die Themenstellungen inzwischen zu komplex und volatil. Ein rein agiles Vorgehen, beispielsweise mit Scrum, ist für viele Vorhaben aber auch nicht die Lösung, da hier die mittel- und langfristige Planungssicherheit fehlt. Während Entwicklungsabteilungen beispielsweise auf agile Methoden wie Scrum schwören, stellt diese Vorgehensweise Projektmanager und Portfoliomanager in der Planung vor unlösbare Aufgaben: Sie wissen nicht, ob und wann die agilen Teams die Arbeiten für das Projekt umsetzen. Ebenfalls fehlt die Kapazitätsplanung in agilen Methoden, was das unternehmensweite Ressourcenmanagement des Portfoliomanagers erschwert. Diese Informationsdefizite können nur durch einen hohen Abstimmungs- und Kommunikationsaufwand ausgeglichen werden. Insofern macht es sehr viel Sinn, beide Methoden in einem Projekt zu kombinieren und damit den „hybriden Königsweg“ der Umsetzung zu beschreiten.

Welche Vorteile haben Unternehmen, die heute auf hybrides Projektmanagement setzen?
Die Projektleitung und das Team nutzen im hybriden Projektmanagement „das Beste aus zwei Welten“, denn sie können den agilen und den klassischen Planungsansatz in den Projekten kombinieren. Die ersten Phasen des Projektes werden häufig klassisch geplant. Kommt es zur Umsetzung, wird eher agil gearbeitet. Das klingt herausfordernder als es ist, denn die modernen Softwaresysteme unterstützen diese Vorgehensweise optimal. Die Software nimmt den Teammitgliedern viel Denkarbeit ab, so dass sie keine Spezialisten sein müssen. Sie vereinfacht die Synchronisation der beiden Planungswelten, so dass letzten Endes der gesunde Menschenverstand ausreicht, um Projekte hybrid und erfolgreich zu managen.

Wo lagen die Herausforderungen um beide Welten zu verbinden?
Die klassische Planung gibt sehr genau vor, wer was wann macht. Agile Verfahren billigen den Teams dagegen hohe Entscheidungsbefugnisse zu. So können sie beispielsweise schnell selbst entscheiden, wer was wann macht und die Planung dynamisch – wenn auch in gewissen Grenzen – den Gegebenheiten des Teams anpassen. Besonders herausfordernd ist in diesem Zusammenhang die Ressourcenplanung, da diese mehr und mehr extrem komplex wird und den Anspruch hat, Überlastungen und andere Risiken zu berücksichtigen. Diese verknüpfte Planung und Berücksichtigung aller Restriktionen kann nur von Software-Tools geleistet werden, die die erwähnten Auslastungen und damit verbundenen Risiken mit dynamischen Kapazitätsmodellen verbinden. So wird hybrides Arbeiten überhaupt erst möglich und Erfolg versprechend.

Thomas Schlereth zu den Vorteilen hybriden Projektmanagements: „Die Projektleitung und das Team nutzen im hybriden Projektmanagement „das Beste aus zwei Welten“, denn sie können den agilen und den klassischen Planungsansatz in den Projekten kombinieren. Die ersten Phasen des Projektes werden häufig klassisch geplant.“

Herr Schlereth, wie wird künstliche Intelligenz in Zukunft das Projektmanagement beflügeln?
Die komplexen Algorithmen, die sehr tiefgreifende, umfassende Analysen in Echtzeit durchführen und Empfehlungen für das Management aussprechen, sind längst bei den Firmen angekommen. KI und clevere Algorithmen reduzieren die Arbeit im Projektmanagement meines Erachtens bereits heute um 50%. Analysen bei unseren Kunden haben ergeben, dass Planer KI quasi ständig verwenden. Das tun sie, weil sie einen Nutzen davon haben. Die KI werden jedoch immer weiterentwickelt und immer tiefer in die Methodik der Systeme eingebaut. Häufig merken Anwender gar nicht, dass manche Ergebnisse durch Mustererkennung oder lernende Systeme geliefert werden. Bisher sind dies immer Ratschläge und Empfehlungen. Die Entscheidung trifft noch der Mensch. Der nächste große Schritt wird aber die automatische Anpassung und Optimierung von Projektplänen durch KI sein.

Was bedeutet das zum Beispiel für die skill-basierte Kapazitätsplanung?
Hochqualifizierte Mitarbeiter in Unternehmen haben heute ca. fünf bis zehn Skills bzw. Fähigkeiten, die sie einbringen. Diese Menschen sind in den Unternehmen häufig weltweit verteilt, oft sogar in verschiedenen Tochterfirmen. Durch eine langfristige strategische Planung mit Skills kann das Unternehmen den Bedarf an Fähigkeiten, die benötigt werden, jedoch vorhersehen und entsprechend auch langfristig reagieren sowie unternehmensweit planen. Die Weiterbildung und Qualifizierung von Beschäftigten im Unternehmen sowie das Rekrutieren von neuem Personal wird damit auf eine völlig neue Ebene gehoben. Auch die Angestellten profitieren, da sie sehen, welche persönlichen Weiterentwicklungsmöglichkeiten auf der Basis zukünftiger Anforderungen bestehen. Sie gestalten ihren Karrierepfad und haben damit einen positiven Bezug zu ihrem Unternehmen. Häufig scheitert dieses Vorgehen aber an der Unfähigkeit des Top-Managements, langfristige Visionen und damit auch eine langfristige Skill-Planung zu erarbeiten. Umso größer ist dann die Überraschung, wenn ein technologischer Wandel unvermeidbar ist und das erforderliche Know-how im Unternehmen fehlt. Derartige Überraschungen und Hektik sind immer ein Zeichen für schlechte Planung durch das Management. Das wissen auch die Mitarbeitenden.

Inwieweit werden auch die Fähigkeiten ganzer Teams erfasst?
Das Kern-Know-how sollte sich im Idealfall besser nicht nur auf ein bis zwei Köpfe verteilen. Eine Klassifizierung, bei der wenige Teammitglieder die Know-how-Träger sind, während die anderen Beteiligten „nur“ zuarbeiten, ist ungünstig zu bewerten. Erst ein breites Spektrum von Wissen macht ein Team schlagkräftig und motiviert. Skill-Analysen und KI-gestützte Risikoermittlung unterstützen das Management bei der richtigen Team-Zusammenstellung und Entwicklung. Grundsätzlich sollten Teams immer gesamtheitlich betrachtet werden, um daraus die richtigen Schlüsse in puncto Projektplanung zu ziehen und gegebenenfalls entsprechende Qualifizierungsmaßnahmen abzuleiten.

Wie sollten Unternehmen gegen den Fachkräftemangel vorgehen?
Ich musste meine Ansichten zu diesem Thema in den letzten zwei Jahre deutlich verändern. Zunächst dachte ich, dass der Fachkräftemangel auf dem völligen Versagen der Bildungspolitik basiert. Die Europäische Union und die Globalisierung in diesem Bereich zeigen aber, dass es genügend Fachkräfte in allen Bereichen gibt. Fachkräftemangel ist daher – zu dieser Einsicht bin ich inzwischen gekommen – dem Attraktivitätsproblem der Firmen geschuldet. Der Bedarf an hochqualifizierten Menschen für die Betriebe kann weltweit leicht gedeckt werden. Voraussetzung aber ist, dass das Unternehmen attraktiv und global ausgerichtet ist. Beispielsweise wird in unserem Unternehmen in vielen Teams quasi selbstverständlich englisch gesprochen. Ebenfalls können die Teammitglieder frei wählen, ob sie vor Ort oder im Homeoffice arbeiten möchten und können darüber hinaus ihre Arbeitszeiten frei gestalten. Zum Einsatz kommt nur die modernste Technik, denn in der IT-Branche möchten die Leute nicht mit alten langsamen Notebooks an billigen kleinen Schirmen arbeiten. Sie möchten Smartphones haben und von Zuhause arbeiten, wann immer sie wollen. Dieser Arbeitsstil muss vom Management vorgelebt und verinnerlicht werden. Häufig sind aber gerade Mitglieder des Managements Bedenkenträger und Bremser. Diese Haltung führt dazu, dass Unternehmen es schwer haben, die Fachkräfte zu rekrutieren, die sie brauchen.
Zudem wollen die Menschen ja ihre Fähigkeiten im Unternehmen einbringen. Dementsprechend sollte auch geplant werden. Dynamik, Flexibilität und Kreativität sind die Basis für den Unternehmenserfolg. Diese Eigenschaften stellen kombiniert mit modernsten Computersystemen die Arbeitswelt von heute dar. Sie ist bereits Gegenwart und keine Zukunftsmusik!

Weitere Informationen unter:
https://www.can-do.de/hybrid-projectmanagement-whitepaper

Kollaborationssoftware für Bildungseinrichtungen und Non-Profit-Organisationen

Aufgrund der immer stärkeren Ausbreitung von Covid-19 bleiben in allen Bundesländern Schulen geschlossen.  Um dem so entstehenden Unterrichtsausfall entgegen zu wirken, bieten digitale Lösungen zur Kommunikation und Zusammenarbeit die Möglichkeit, den Unterrichtsbetrieb virtuell aufrecht zu erhalten. 

Frank Kirsch, Head of Collaboration Solutions bei Avaya Germany, gibt Tipps, was bei der kurzfristigen Einrichtung von solchen Lösungen beachten werden muss.  

Tipp 1: Nutzen Sie Lösungen, die mit der bestehenden Hardware kompatibel ist 

Um digitale Lösungen schnell umzusetzen, lohnt es sich, Kommunikations- und Kollaborationslösungen zu verwenden, die mit der bereits bestehenden IT-Infrastruktur kompatibel sind. Da diese in viele Lehreinrichtungen in Deutschland allerdings nicht auf dem neusten Stand ist, empfiehlt es sich, eine Cloud-basierte Lösungen zu verwenden, bei der keine neue Hardware benötigt wird und Implementationsprozesse schnell und einfach abgeschlossen sind und nur geringe Verwaltungs- und Wartungskosten mit sich bringen. Der Unterricht kann so ohne Probleme über die von der Lehreinrichtung zur Verfügung gestellten Geräte oder aber, bei entsprechender Einwilligung, über Laptops, Tablets oder Handys der Schüler, Studierenden und des Lehrpersonals virtuell stattfinden.  

Tipp 2: Mit Videos und Chat den Unterrichtsbetrieb virtuell aufrechterhalten  

Viele Schulen und Universitäten nutzen bereits E-Mails und Online-Lernplattformen, auf denen sie Dokumente und Aufgabenstellungen hochladen können. Hier fehlt jedoch ein direkter Austausch zwischen dem Lehrpersonal und den Schülern und Studierenden, so wie er im Klassen- oder Vorlesungsraum stattfinden würde. Hier schaffen Lösungen Abhilfe, die Kommunikation und Zusammenarbeit zentralisierten und für alle leicht zugänglich machen. Diese ermöglichen es, virtuelle Classroom-Meetings zu veranstalten, bei denen sich alle Teilnehmer via Webcam einwählen. Auch können über einzelne virtuelle Räume klasseninterne Dokumente geteilt und von allen bearbeitet werden. Über die Chat-Funktion oder persönliche Videogespräche können Lehrpersonen auch direkt mit den Schülern oder Studierenden Kontakt aufnehmen und persönliches Feedback geben. Diese Funktionen schaffen eine klassenraumähnliche Atmosphäre im virtuellen Raum. 

Tipp 3: Vergessen Sie den Datenschutz nicht 

Auch wenn viele Schulen und Universitäten digitale Lösungen zur Kommunikation und Kollaboration zwischen Schülern, Studierenden und dem Lehrpersonal lieber heute als morgen implementieren würden, dürfen Datenschutz und IT-Sicherheit nicht zu kurz kommen. Insbesondere personenbezogene Daten von Schülern und Studenten und dem Lehrpersonal müssen ausreichend geschützt sein. Der Zugang zu den Lösungen sollte deshalb am besten mit einer Zwei-Faktor-Authentifizierung ausgestattet werden. Cloud-basierte Lösungen bieten den Vorteil, dass sie den geltenden Datenschutz- und Sicherheitsbestimmungen entsprechen und die Leistung über Server in Europa anbieten.  

„Unser Team arbeitet mit Feuereifer daran, Organisationen, die vom Corona-Virus besonders beeinträchtigt sind, und die, die dagegen kämpfen, zu unterstützen. Wir hoffen, dass wir mit unserem kostenlosen Spaces-Angebot einen Beitrag leisten können.“

Avaya Präsident und CEO Jim Chirico

Avaya kommt gesellschaftlicher Verpflichtung nach 

Als führender Anbieter von Kommunikationslösungen, die es Menschen ermöglichen, an jedem Ort der Welt miteinander in Kontakt zu bleiben, kommt Avaya in der aktuellen Coronakrise seiner globalen Verantwortung nach und trägt dazu bei, die Auswirkungen des Virus zu verringern. So hat Avaya entschieden, die Kollaborationssoftware Avaya Spaces bis zum 31. August 2020 allen Bildungseinrichtungen und Non-Profit-Organisationen weltweit kostenlos zur Verfügung zu stellen.  

„Wir wissen, dass besonders im Bildungssektor großer Bedarf herrscht, da Schulen und Universitäten nach Möglichkeiten suchen, die Sicherheit ihrer Schüler und Studierenden zu gewährleisten und gleichzeitig den Unterricht weiterzuführen, damit Lernziele erreicht werden können“, erklärt Avaya Präsident und CEO Jim Chirico. „Unser Team arbeitet mit Feuereifer daran, Organisationen, die vom Corona-Virus besonders beeinträchtigt sind, und die, die dagegen kämpfen, zu unterstützen. Wir hoffen, dass wir mit unserem kostenlosen Spaces-Angebot einen Beitrag leisten können.“ 

Avaya Spaces, das seit März 2020 in Deutschland zur Verfügung steht, ist eine Cloud-basierte Meeting- und Kollaborationslösung, die Unternehmen und Organisationen ermöglicht, unkompliziert aus der Ferne zusammenzuarbeiten. Zu den Funktionen der Avaya Spaces App zählen Chat, Telefon- und Videoanrufe bzw. -konferenzen für bis zu 200 Teilnehmer sowie Online-Meetings und die Möglichkeit, Inhalte online zu teilen.  

In italienischen Schulen sind bereits Avaya-Lösungen im Einsatz, damit Lehrer weiterhin verlässlich mit Schülern, Eltern und untereinander kommunizieren können. Mithilfe von Avaya Spaces können Lehrer hier Dokumente teilen und Aufgaben vergeben und nachverfolgen, egal wo sich die Schüler aufhalten. In Zeiten geschlossener Schulen werden auf diese Weise Unterrichtsunterbrechungen reduziert und Lehrplanrückstände bestmöglich verringert. 

 
In Deutschland verwenden bereits Mitarbeiter von einigen Stadt- und Gemeindeverwaltungen als erste Non-Profit-Organisationen Avaya Spaces, um auch in kritischen Zeiten einen zuverlässigen Geschäftsbetrieb aufrechtzuerhalten. 

Bereits im Januar waren Avaya-Teams in der chinesischen Region Wuhan vor Ort, um Kommunikationslösungen zu spenden und zügig bereitzustellen. Mehrere Krankenhäuser der Region können seitdem mithilfe von Avaya-Technologie Video-Sprechstunden anbieten, während Patienten besser Kontakt zu ihren Angehörigen halten können. 

Weitere Informationen zu Avaya Spaces finden Sie hier

Das Anmeldeformular für die kostenlose Avaya Spaces Lösung finden Sie hier.  

Pressekontakt: 

BCW (Burson Cohn & Wolfe) GmbH für Avaya Deutschland 
Karolin Rau 
Infanteriestraße 11  
80797 München 
Tel.: +49 (0)89 710 4078 453 
Email: avaya@bcw-global.com 

Lizenz:
Dies ist eine Pressemitteilung von Avaya

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

So geht Digitale Transformation durch Anwendungsmodernisierung

Dies ist ein Gastbeitrag von Nadine Riederer, CEO bei Avision

Die Anforderungen der Digitalisierung lassen sich oft schon durch die Modernisierung vorhandener Anwendungen erfüllen. Riskante Neuentwicklungen oder -implementierungen sind dann überflüssig. Vorausgesetzt, man geht es richtig an.

Nicht jedes Unternehmen ist ein Technologieführer wie Netflix, Facebook oder Uber, das von Haus aus modernste Software einsetzt; oder ein frischgebackenes Start-Up, das auf der grünen Wiese von Anfang an maßgeschneiderte Softwarelösungen für sich entwickeln kann; und auch kein Early Adopter, der es sich leisten kann, stets den neuesten Trends zu folgen und immer State-of-the-Art-Software zu betreiben. Für das ganz normale Unternehmen ist die Neuentwicklung einer Individualsoftware oder die Einführung einer neuen Standardlösung oft mit zu großen Risiken und zu hohen Aufwänden verbunden.

So sind seine Mitarbeiter etwa an die vorhandenen Anwendungen gewöhnt. Bekommen sie es mit einer neuen Software zu tun, sind oft umfangreiche Anwenderschulungen erforderlich und es kann zu Akzeptanzproblemen kommen. Bei einer Neuentwicklung besteht außerdem immer die Gefahr, dass Fehler passieren. Sie können dazu führen, dass geplante Kosten und Zeiten deutlich überschritten werden und die Software schwere qualitative Mängel aufweist. Nicht zuletzt erfordert eine Neuentwicklung oder Neuanschaffung in der Regel eine komplexe Migration der vorhandenen Daten – und daran ist schon so manches Projekt gescheitert.

Den Anforderungen der Digitalisierung müssen diese Unternehmen aber natürlich dennoch gerecht werden, sonst drohen ihnen Wettbewerbsnachteile gegenüber den Playern, die aktuellste Software nutzen. Das können sie in vielen Fällen durch die Modernisierung ihrer bestehenden Anwendungen erreichen. Damit aber nicht auch hier hohe Kosten und unnötige Risiken entstehen, sollten sie dabei möglichst gezielt vorgehen.

Zuallererst aufs Business schauen

Statt auf Technologien, sollten die Unternehmen zuallererst auf ihr Business schauen. Sie sollten genau analysieren, was ihr Kerngeschäft ausmacht und wie sie dieses durch Digitalisierung in Form von Modernisierung weiterbringen können. Vor allem große Unternehmen können unmöglich alle IT-Bereiche modernisieren; deshalb ist es umso wichtiger, die Anwendungen zu identifizieren, auf die es wirklich ankommt. Ein Handelsunternehmen beispielsweise muss seinen Kunden heute unbedingt einen modernen und mobil optimierten Online-Shop bieten. Ein Versicherungsunternehmen sollte seine Vertreter mit Tablets zu den Kunden schicken können, die mit einer attraktiven Software zur Unterstützung der Beratungsgespräche ausgestattet sind. Die internen Backendsysteme, die jeweils hinter diesen Kundenschnittstellen stehen, müssen dafür aber nicht zwangsläufig State-of-the-Art sein.

Bei der Wahl der Modernisierungstechnologien ist die Gefahr oft groß, aktuellen Hypes zu erliegen. Erfolgversprechend ist das aber nicht, denn nicht jede Technologie eignet sich für jeden Fall. Das zeigt das Beispiel Cloud. Eine Migration in die Cloud gilt gemeinhin als hervorragende Möglichkeit zur Modernisierung von Anwendungen – das ist sie aber nicht per se. Altanwendungen bilden oft monolithische Blöcke und sie als Ganzes in die Cloud zu heben, bringt wenig, weil dadurch viele spezifische Vorteile der Cloud hinfällig werden. Diesen Block Cloud-gerecht aufzuspalten ist technisch zwar möglich, etwa mit Hilfe von Microservices; betriebswirtschaftlich sinnvoll ist das aber nicht, denn die Kosten dafür sind in aller Regel so hoch, dass eine komplette Neuentwicklung günstiger käme. Eine gute Lösung ist die Cloud dagegen in Fällen, in denen ein hybrider Ansatz möglich ist. Das Backend der Anwendung verbleibt dabei im Unternehmen und lediglich das Frontend wird in die Cloud verlagert. Dort kann es ihre spezifischen Features nutzen, beispielsweise Authentifizierungsservices, eine einfache Skalierung bei erhöhten Zugriffen und eine praktisch endlose Bandbreite.
Ähnlich wie mit den Technologien verhält es sich auch mit modernen Organisationstechniken. Die Prozesse und Werkzeuge der agilen Softwareentwicklung beispielsweise können bei der Modernisierung vorhandener Anwendungen wertvolle Dienste leisten – aber nur dann, wenn die Voraussetzungen stimmen. So eignet sich nicht jedes Projekt für Agilität. Vor allem bei Entwicklungsprojekten, bei denen das zu erreichende Ziel klar und der Weg dorthin bekannt ist, hat die klassische Wasserfallmethode Vorteile. Außerdem müssen auch die Firmenkultur und die Mitarbeiter bereit sein. Stark hierarchische Strukturen sind mit Agilität nicht zu vereinbaren und manche Mitarbeiter fühlen sich in klassischen Projekten mit weniger Selbstverantwortung einfach besser aufgehoben. Sind die richtigen Rahmenbedingungen gegeben, sollten Unternehmen ihre Modernisierungsprojekte allerdings agil umsetzen.

Externer Blick kann hilfreich sein

Bei der Entscheidung, was modernisiert werden sollte, und welche Technologien und Organisationstechniken sich dafür am besten eignen, kann ein Blick von außen hilfreich sein. Externe Berater können die Gegebenheiten hinterfragen und dadurch gegebenenfalls neue Lösungsmöglichkeiten sichtbar machen. Aber auch die Teilnahme an Konferenzen oder Fortbildungen können bei diesen Entscheidungen helfen. Bei der Umsetzung empfiehlt sich dann eine Strategie der kleinen Schritte. Dadurch lässt sich am besten sicherstellen, dass alle Beteiligten „mitgenommen“ werden, und die Akzeptanz der Nutzer ist bei kleineren Veränderungen erfahrungsgemäß viel besser. Nicht zuletzt verschlingen große Umbrüche viel Geld auf einmal und haben ein deutlich höheres Risiko, zu scheitern.

Nadine Riederer ist CEO bei Avision, einem auf Software Revival spezialisierten IT-Dienstleister

Weitere Informationen unter:
https://www.avision-it.de/

Drei Tage Wochenende

Dies ist ein Gastbeitrag von Steven van Tuijl, General Manager der ADP Deutschland

Was würden Sie mit Ihrer gewonnen Zeit machen? Eine viertätige Arbeitswoche klingt wie ein Traum und ist in aller Munde. ADP hat die Fakten gesammelt, die Sie bei der nächsten Diskussion mitreden lassen.

„The Workforce View in Europe“, eine jährlich erscheinende Studie von ADP, belegt in ihrer Ausgabe für 2019: Mehr als die Hälfte der europäischen Arbeitnehmer würde sich für eine viertägige Arbeitswoche entscheiden, wenn sie die Wahl hätte. Was zunächst wie das Wunschdenken von abhängig Beschäftigten und ein schlechtes Geschäft für Arbeitgeber klingt, ist in den meisten Fällen eher das Gegenteil: Praktische Erfahrungen mit einer verkürzten Arbeitszeit haben gezeigt, dass Mitarbeiter in der Mehrzahl der Fälle genauso viel erreichen und eine bessere Work-Life-Balance erzielen können.

Dieser Ansatz ist also eine Win-win-Situation und passt besser zu den widersprüchlichen Anforderungen durch privates Leben und Beruf. Eine viertägige Arbeitswoche könnte also einen großen Beitrag zur Schaffung einer besseren Arbeitswelt leisten, in der jeder beruflich und persönlich sein volles Potenzial entfalten kann. Stellen Sie sich vor, was es für Auswirkungen bei der Gleichstellung am Arbeitsplatz haben könnte? Paaren könnte es erleichtert werden, familiäre Verpflichtungen zu bewältigen und so könnten mehr Frauen die beruflichen Möglichkeiten voll ausschöpfen.

Längere Arbeitszeiten könnten für Unternehmen zwar kurzfristig von Nutzen sein, haben jedoch gravierende negative Auswirkungen auf Motivation, Engagement, Bindung und Produktivität. Schließlich sind Berufs- und Privatleben miteinander verzahnt: Mehr als die Hälfte der deutschen Beschäftigten gab bei der von ADP beauftragten Befragung an, dass sich ihr persönliches Leben auf ihre Leistung bei der Arbeit auswirkt.

Die bessere Hälfte – was wäre, wenn Sie Ihren Job mit Ihrem Kollegen teilen?

Einen weiteren gangbaren Weg zu mehr Zeit für eine verbesserte Work-Life-Balance bereitet das Jobsharing. Viele Arbeitgeber sehen hier zwar noch vor allem die organisatorischen und logistischen Nachteile, die entstehen können, wenn ein Vollzeitjob in zwei Teilzeitstellen aufgeteilt wird. Diese werden jedoch mit ein wenig Fingerspitzengefühl durch Effizienz- und Produktivitätsgewinne mehr als ausgeglichen. Wussten Sie, dass es kaum Anhaltspunkte dafür gibt, dass Menschen, die durchgehend mehr arbeiten, einen besseren Job machen?

Das Aufteilen eines Arbeitsplatzes verbessert auch die Ausgangsgrundlage für Unternehmen, die sich mit dem allgegenwärtigen Fachkräftemangel herumschlagen müssen. Denn gerade für Fachkräfte in der Mitte ihrer Karriere ist das Jobsharing eine äußerst interessante Methode, Geldverdienen und familiäre Verpflichtungen unter den Hut zu bringen, die die Vollzeitbeschäftigung nicht anbieten kann. Unternehmen, die Jobsharing ermöglichen, sind so in der Lage, Mitarbeiter für sich zu gewinnen, die ansonsten konkurrierende Angebote in Betracht ziehen würden. Ähnlich lässt sich übrigens auch bei der Mitarbeiterbindung argumentieren. Denn wenn aus der zu knappen Freizeit mangelnde Motivation wird, sinkt nicht nur die Produktivität, sondern es verstärkt sich auch der Wunsch, den Arbeitsplatz beim aktuellen Arbeitgeber dauerhaft zu verlassen.

Mein Schreibtisch ist dein Schreibtisch

Ohne Zweifel, unser Leben ist heute für immer mehr Menschen digital bestimmt. Social Media und digitales Entertainment prägen die Freizeit, wir spielen, informieren uns und flirten per Mausklick, Tippen und Wischen. Ebenso sieht die Berufswelt aus: Akten und Kommunikation, Aufträge und Services – alles digital.

Diese Konstellation öffnet das Tor zu einer neuen Arbeitsform: dem Desk Sharing. Hinter diesem Anglizismus verbirgt sich nichts anderes, als dass für Beschäftigte innerhalb ihres Tätigkeitsbereichs weniger Arbeitsplätze als Mitarbeiter existieren. Die Mitarbeiter können ‚ihren‘ Arbeitsplatz täglich je nach aktuellem Bedarf frei selbst bestimmen. Dies funktioniert am besten, wenn unterschiedliche Arbeitsorte wie Büros, Teamflächen oder Home-Office-Plätze zur Verfügung stehen.

Desk Sharing bietet nicht nur mehr Flexibilität für Arbeitnehmer und -geber, sondern kann durchaus auch als Team-Building-Maßnahme verstanden werden. Zudem begegnen sich Mitarbeiter und Führungskräfte auf Augenhöhe, da sie im gleichen Büro sitzen, und die Flexibilität des Arbeitsortes geht zunehmend mit einer zeitlichen Entgrenzung einher.

„Kollege“ Roboter

Eines der zentralen Themen beim Blick in die Arbeitswelt der Zukunft ist die Automatisierung, die sich Jahr für Jahr beschleunigt und pessimistischen Berichten zufolge in den nächsten Jahren Tausende menschlicher Arbeitnehmer ersetzen wird. Dies schürt Unsicherheiten: So zeigte sich mehr als die Hälfte der im Rahmen der ADP-Studie befragten europäischen Arbeitnehmer davon überzeugt, dass die Automatisierung in den nächsten Jahren erhebliche Veränderungen in der Arbeitswelt bewirken werde. Knapp jeder Dritte befürchtet, dass Roboter mittelfristig Jobs von Menschen gänzlich übernehmen könnten. Könnten Sie sich das bei Ihrem Arbeitsplatz vorstellen?

Der Arbeitsplatz der Zukunft wird anders sein. Da die Automatisierung allgegenwärtig in den Köpfen der Beschäftigten ist und häufig als Bedrohung für den eigenen Arbeitsplatz wahrgenommen wird, ist es für Unternehmen im Rahmen der Mitarbeiterbindung und -motivation eminent wichtig, anstehende Veränderungen in diese Richtung klar zu kommunizieren. Und zwar im Vorfeld. Denn mehr Roboter bedeuten nicht zwangsläufig, dass Mitarbeiter überflüssig werden. Durch die Automatisierung werden neue Stellen geschaffen, während sich andere Rollen erheblich verändern. Arbeitgeber sollten also ihre Mitarbeiter entsprechend qualifizieren, damit diese so schnell wie möglich bereit sind, Seite an Seite mit Maschinen zu arbeiten. Ob Roboter irgendwann auch um drei Tage Wochenende bitten?

Über den Autor

Steven van Tuijl ist General Manager der ADP Deutschland. In dieser Funktion ist er für das operative Geschäft in Deutschland verantwortlich. Steven kam 2011 zur ADP als Director Customer Services in der Schweiz. Danach war er verantwortlich für Implementierung, Customer Services und Business Development für die Region 2SP (Spanien, Portugal, Polen und die Schweiz). In 2014 zog Steven mit seiner Frau und seinen 3 Kindern nach Deutschland um, wo er zuerst den Bereich Implementierung und danach Customer Services leitete. Im Februar 2016 wurde Steven zum Vorsitzenden der Geschäftsführung der ADP Deutschland ernannt.
Steven hat über 15 Jahre Berufserfahrung im Vertrieb und in unterschiedlichen kundenbezogenen Positionen in den Niederlanden, der Schweiz und in Deutschland gesammelt und war vor seinem Eintritt bei der ADP 5 Jahre im Executive Recruitment bei Michael Page tätig. Er spricht Englisch, Deutsch, Niederländisch und Französisch.

Quellen und weitere Informationen

• „Office Analytics“, Fraunhofer IAO, 2018
https://www.iao.fraunhofer.de/lang-de/presse-und-medien/aktuelles/2013-fuer-jeden-arbeitstypen-das-passende-buero.html
• „The Workforce View in Europe 2019“, ADP, 2019
https://www.de-adp.com/hr-einblicke-themen-trends/mitarbeiterbindung-talentmanagement/workforce-view-2019/
• „Die Entwicklung der Arbeitswelt 2.0“, ADP, o.J.
https://ch.new.international.adp.com/assets/vfs/Account-109205/ADP-CH-DE-Responsive/de-evolutionofwork-2.0-infographic-final.pdf
• „Weißbuch Arbeiten 4.0“, Bundesministerium für Arbeit und Soziales, 2016
https://www.bmas.de/DE/Service/Medien/Publikationen/a883-weissbuch.html

Mit Programmatic Advertising gegen den Fachkräftemangel

Das eigene Unternehmen für die Zukunft wappnen und neue Mitarbeiten mit neuen Möglichkeiten gewinnen.

Gastbeitrag von David Lange

Fachkräftemangel ist eines der größten Probleme der modernen Arbeitswelt. Schon heute haben viele Unternehmen Probleme entsprechende Stellen zu besetzen – in der IT-Branche bereits über 70 Prozent. Verstärkt durch den Demografischen Wandel gehen Branchenübergreifend knapp 60 Prozent der Personaler davon aus, dass der Kampf um Experten in den nächsten Jahren weiter zunehmen und zur größten Herausforderung für die Entwicklung ihres Unternehmens wird. Schon heute wird der wirtschaftliche Schaden durch den Fachkräftemangel auf rund 50 Milliarden Euro pro Jahr beziffert. Damit das eigene Unternehmen für die Zukunft gewappnet ist, wird man potentiellen Mitarbeitern nicht nur einiges bieten, sondern auch kreative Wege bei der Mitarbeitergewinnung gehen müssen. Eine Möglichkeit: Programmatic Advertising als Recruiting Tool.

Was ist Programmatic Advertising?

NIcht nur bunt, sondern mit System… Der datengetriebene Vorteil von Programmatic Advertising könnte auch beim Recruiting zum Einsatz kommen.

Programmatic Advertising bezeichnet den vollautomatisierten und individualisierten Echtzeit-Einkauf von Werbeflächen und die dazugehörige Werbemittel-Ausspielung. So lassen sich Kampagnen effektiv durchführen und Zielgruppen, in diesem Fall potentielle neue Mitarbeiter, passgenau erreichen. Zum Recruiting lassen sich sowohl Native Ads als auch dynamische Werbemittel nutzen.
Native Ads bestehen aus Bild-Text Kombinationen, die im redaktionellen Umfeld ausgespielt werden. Sie haben dementsprechend einen gewissen redaktionellen Charakter und erreichen mit spezifischem Targeting perfekt die gewünschten Zielgruppen.

Dynamische Werbemittel hingegen sind Display Ads mit dynamischen Elementen. Das hat den Vorteil, dass nur ein Banner als Grundlage erstellt wird, bei dem verschiedene Elemente wie Texte, Bilder oder in diesem Fall komplette Stellenanzeigen dynamisch eingebunden werden. Die Einbindung erfolgt über einen Datenfeed, der zu jeder Zeit an aktuelle Gegebenheiten, wie neuen Vakanzen oder bereits besetzten Positionen, angepasst werden kann.
So wird jedem Nutzer auf Grundlage von Daten die jeweils für ihn passende Stelle ausgespielt. Besonders bei großen Unternehmen mit vielen Stellenangeboten und einem entsprechend umfangreichen Datenfeed wird durch die Kombination von dynamischen Bannern und Programmatic Advertising viel Zeit und Geld gespart werden.

Möglichkeiten für das Recruiting

Um potentielle neue Mitarbeiter zu erreichen kann Programmatic Advertising auf verschiedene Arten genutzt werden. Angefangen mit dem klassischen Retargeting, das auf Nutzer abzielt, die sich die entsprechende Stellenanzeige schon einmal angeschaut, aber noch keine Bewerbung abgeschickt haben. Eine weitere Möglichkeit ist das Geo-Targeting. Bei dieser Form wird die Stellenanzeige in einem definierten Umkreis rund um den Arbeitsort ausgespielt. Auch lassen sich Stellenanzeigen mit Kontext-Targeting in einem gewünschten Umfeld ausspielen. So können neue Mitarbeiter beispielsweise auf relevanten Branchen-Websites oder über bestimmte Keywords angesprochen werden.

Sogenanntes Prospecting bietet ebenfalls großes Potential zum Recruiting. Dabei werden gezielt Nutzer angesprochen, die bislang noch keinen Kontakt mit dem Unternehmen hatten, durch ihr digitales Surf-Verhalten, zum Beispiel Suchanfragen oder aufgerufene Websites, jedoch mit hoher Wahrscheinlichkeit an einem Jobwechsel interessiert sind. So erreicht man zusätzliche Bewerber, die bei anderen Targeting-Varianten durch das Raster fallen würden.

Keine “One-fits-All”-Lösung beim Bewerber-Check

Sobald durch Programmatic Advertising viele, auf den ersten Blick passende, Bewerbungen vorliegen, werden die Bewerber, die es in die engere Auswahl geschafft haben, genau unter die Lupe genommen. Lebensläufe und bisherige Stationen sind zwar ein erster Indikator, um das Potential und den richtigen “Fit” zum Unternehmen einzuschätzen, aber auch nicht mehr. Um sich für den richtigen Bewerber zu entscheiden sind also verschiedene Tests während des Bewerbungsprozesses notwendig. Unternehmen sollten allerdings bedenken, dass es keine “One-fits-All”-Lösung gibt – unterschiedliche Positionen erfordern unterschiedliche Prozesse.

Für die Besetzung analytischer Jobs, wie den eines Data Scientists, eignen sich Case Studies oder die aus Assessment Centern bekannten Logiktests. So lässt sich das Zahlenverständnis der Bewerber überprüfen und ob er oder sie in der Lage ist, Potentiale richtig einschätzen zu können. Für kreative Berufe, wie beispielsweise Grafikdesigner, sind Probetage eine gute Option. Hier können Bewerber ihr Können an konkreten Aufgaben unter “Alltagsbedingungen” zeigen. Die gewünschten Soft Skills sollten nach wie vor in einem persönlichen Gespräch abgeklopft werden.

Damit diese Prozesse einen wirklichen Mehrwert bieten, müssen sie gut organisiert und inhaltlich vorbereitet werden. Die Zeit soll schließlich sinnvoll und effektiv genutzt werden.
Grundlage für ein effektives und alle Seiten faires Bewerbungsverfahren ist eine klare und vor allem der Wahrheit entsprechende Jobbeschreibung. Nur so gibt es im laufenden Prozess kein böses Erwachen bei einem der Beteiligten.

Daten als wichtiger Faktor

Programmatic Advertising kann ein mächtiges Recruiting-Tool im Kampf um Fachkräfte sein. Um seine volle Kraft zu entfalten werden aber drei Dinge benötigt. Zum einen entsprechende Targeting-Daten, damit die Stellenausschreibungen auch an die gewünschte Zielgruppe ausgespielt werden können. Zum anderen gut strukturierte Datenfeeds sowie das Know-how ihrer Agentur in der Kreation von dynamischen Werbemitteln. Wenn all das der Fall ist, sind Sie gut gerüstet für den Kampf um Talente.

Über den Autor

David Lange ist Co-Gründer & Geschäftsführer von adlicious und verschreibt sich dort seit 2014 erfolgreich der Aufgabe, die Werbewirkung von programmatisch ausgesteuerten Kampagnen zu maximieren, indem Werbebudgets effizient eingesetzt werden. Der studierte Sinologe und Wirtschaftswissenschaftler hat u.a. die Universität Zhejiang (Hangzhou) besucht, hält einen Master in Corporate Management & Economics und ist Co-Autor des Buchs „War for Growth: How to make it in the Chinese Internet Market“. Vor der Gründung von adlicious war David im Start-up und Corporate Finance-Umfeld tätig. Zu seinen bisherigen Arbeitgebern gehörten d3media AG, venturecapital.de / Corporate Finance Partners und Delinero GmbH.

Weitere Informationen unter:
www.adlicious.me

Hannover Messe im Juli 2020

Die Gesundheit der Aussteller, Besucher und Mitarbeiter sowie der Bevölkerung hat für die Deutsche Messe AG höchste Priorität!


Die HANNOVER MESSE 2020 wird auf die Woche vom 13. bis 17. Juli verschoben.

Die Deutsche Messe AG reagiert damit auf die weltweiten Entwicklungen rund um Covid-19 (Coronavirus). Die Entscheidung für die Terminverschiebung in den Juli 2020 erfolgte in enger Abstimmung mit dem Gesundheitsamt der Region Hannover, dem Ausstellerbeitrat der HANNOVER MESSE sowie den Partnerverbänden VDMA (Verband Deutscher Maschinen- und Anlagenbau) und ZVEI (Zentralverband Elektrotechnik- und Elektronikindustrie).

Das Gesundheitsamt hat der Deutschen Messe AG dringend empfohlen, die Hinweise des Robert-Koch-Instituts zu beachten. Diese beinhalten umfassende Maßnahmen zur Gesundheitssicherung bei der Ausrichtung von Veranstaltungen. Dazu gehören Fiebermessstationen an allen Eingängen, sowie die Umsetzung der Maßnahme, keine Teilnehmer aus Risikogebieten zuzulassen und Teilnehmern, die Kontakt zu Personen aus Risikogebieten hatten, den Zutritt zu den Veranstaltungen zu verweigern. Das hätte eine umfangreiche Überprüfung aller Teilnehmer zur Folge.

Die genannten Maßnahmen sind von der Deutschen Messe nicht realisierbar. Zudem würde deren Umsetzung dazu führen, dass die störungsfreie Durchführung der Veranstaltung in einem Maße beeinträchtigt wäre, dass der mit der geplanten Ausrichtung angestrebte Veranstaltungszweck weder für die Aussteller, noch für die Besucher nicht oder nur mit erheblichen Einschränkungen erreicht werden könnte.

„Mit dem Termin im Juli bieten wir unseren Ausstellern den frühestmöglichen Zeitpunkt, um ihre Innovationen einem Weltpublikum zu präsentieren und Geschäfte anzubahnen“, sagt Dr. Jochen Köckler, Vorsitzender des Vorstandes der Deutschen Messe AG. „Angesichts der weltwirtschaftlichen Herausforderungen, die durch das Coronavirus im ersten Halbjahr ausgelöst wurden, bietet der neue Termin erhebliche Chancen. Denn so kann die weltweit wichtigste Industriemesse bereits im Juli frühzeitig wichtige Impulse für die globale Konjunktur setzen. Damit ist und bleibt die HANNOVER MESSE die Galionsfigur der deutschen Industrie.“

„Der VDMA unterstützt die Entscheidung der Deutschen Messe AG. Angesichts der aktuellen Schwierigkeiten, die durch das Coronavirus verursacht werden, halten wir eine Verschiebung der HANNOVER MESSE in den Juli für richtig“, sagt VDMA-Hauptgeschäftsführer Thilo Brodtmann. „Wir gehen davon aus, dass sich die Lage in den kommenden Monaten beruhigt und der Maschinenbau dann von einer sich belebenden Geschäftslage profitieren wird.“

„Die heutige Entscheidung der Deutschen Messe AG, die HANNOVER MESSE zu verschieben, ist inhaltlich richtig und kommt zur rechten Zeit“, betont auch Wolfgang Weber, Vorsitzender der ZVEI-Geschäftsführung. „Als international bedeutende Industriemesse lebt sie in besonderer Weise von der Begegnung von Menschen aus aller Welt. Diese kann nur erfolgen, wenn keine Gesundheitsgefahren bestehen. Für die Elektroindustrie ist es wichtig, dem Publikum ihre Produkte für Industrie 4.0, Elektrifizierung und mehr Energieeffizienz nunmehr im Sommer zu präsentieren.“

Weiterführende Informationen:
https://www.hannovermesse.de/de/news/covid-19-hinweise

Lizenz:
Dies ist eine Pressemitteilung: Deutsche Messe
Bildrechte: Deutsche Messe

New Work: Was kommt auf Bewerber und Unternehmen zu?

Alle reden von New Work und dennoch weiß niemand so genau, welche Auswirkungen Themen wie Digitalisierung, Künstliche Intelligenz, Machine Learning, Collaboration & Co. auf den eigenen Job oder das Unternehmen haben. Ein Erfahrungsbericht von Adacor Managerin Kiki Radicke.

Ein Arbeitsplatz für die Generation Z

Mit der Generation Z schwappt auch eine neue Arbeitskultur in die Unternehmen. Moderne Abläufe kommen hinzu, alteingesessene Prozesse auf den Prüfstand. Doch wie sieht der Arbeitsplatz der Zukunft eigentlich aus?

3 Maßnahmen für eine verbesserte Datenqualität

Ihre Analysen sind nur so gut wie ihre Daten – steigern Sie die Qualität Ihrer Unternehmensdaten!

Mein letzter Artikel auf dem Daten-Blog beschrieb unternehmensinterne und
externe Anforderungen an Datenqualität
sowie Methoden zur Datenqualitätsmessung.

Zur Weiterführung des Themas stellt dieser Beitrag Maßnahmen vor, mit denen Sie die Qualität Ihrer Unternehmensdaten steigern können.

Dr. Tobias Brockmann

Die drei wichtigsten Maßnahmen für nachhaltig verbesserte Datenqualität:

  1. Datenbereinigung
  2. Systemintegration
  3. Regelmäßige Datenqualitätsprüfungen

Verbesserung der Datenqualität durch Datenqualitätsmanagement

Eine reine Messung der Datenqualität ist sinnvoll, um einen ersten Überblick zu erhalten. Dies bewirkt aber noch keine Verbesserung der Datenqualität. Daher erfolgt im Anschluss an eine Datenqualitätsmessung die Behebung der Datenfehler, die Identifikation und Bekämpfung der Fehlerursachen sowie die Schaffung von organisatorischen Maßnahmen (Aufbau und Umsetzung einer Data Governance).

Dazu ist eine Kombination aus präventiven Maßnahmen, wie bspw. die Einführung von Prüfregeln zur Vermeidung von Datenqualitätsproblemen unmittelbar bei der Datenanlage oder -änderung, und reaktiven Maßnahmen, wie z. B. die Duplikatsbereinigung und Korrektur von Fehlern nötig.
In dem dazugehörigen Datenqualitätsmanagement (Data Governance) werden diese Maßnahmen konsolidiert und verankert.

Ziel ist die Ermittlung einer optimalen Kombination aus präventiven sowie reaktiven Maßnahmen, um frühzeitig Datenprobleme zu erkennen und dadurch Risiken und Kosten zu vermeiden. Wobei das langfristige Ziel einer jeden Organisation die nachhaltige Umsetzung eines präventiven Konzeptes zur Sicherung der Datenqualität ist.

1. Datenbereinigung

Reaktiver Ansatz: Datenbereinigungen sind häufig der erste Ansatz zur Wiederherstellung einer korrekten Datenbasis als Grundlage für eine Verbesserung der Datenqualität. Die Duplikatserkennung und -beseitigung spielt dabei eine entscheidende Rolle, ebenso wie der Aufbau von Prüfregeln zur Messung der Datenqualität sowie der Erfolgskontrolle nach der Bereinigung. Spezielle Softwaretools überprüfen den kompletten Datensatz und finden

Einträge, die dasselbe Geschäftsobjekt betreffen, jedoch abweichende Informationen enthalten. In einem Prozess, der sich Datenharmonisierung nennt, werden diese zu einem übergreifenden aussagekräftigen Datensatz – dem Golden Record – zusammengeführt.

Weitere typische Korrekturen sind Plausibilitätsverletzungen (z. B. muss das Nettogewicht immer kleiner sein als das Bruttogewicht eines Artikels), Füllgrade und Grenzwerte wie Minund Max-Werte (z. B. müssen Postleitzahlen aus genau fünf Ziffern bestehen, die eine Zahl zwischen 01067 und 99998 ergibt). Zusätzlich bietet es sich an, bei der Datenbereinigung direkt Formatanpassungen zur Vereinheitlichung der Datenstruktur vorzunehmen. Typische Formatanpassungen sind zum Beispiel die Nutzung von Standards für Datumsformate (z. B.TT.MM.JJJJ), Adressen (z. B. Hausnummern in eigenem Feld) oder Telefonnummern (z. B. Ländervorwahl-Ortsvorwahl-Rufnummer).

Die nachhaltige Wirkung der Datenbereinigung ist allerdings begrenzt. Im Laufe der Zeit erfährt Ihr Stammdatensatz neue Qualitätseinbußen durch die fortwährende Neuanlage und Aktualisierung von Daten durch unterschiedliche Fachabteilungen und Nutzer. Nutzen Sie also die Erkenntnisse Ihres Datenbereinigungsprozesses zur Dokumentation typischer Datenqualitätsprobleme in Ihrem Unternehmen. Auf deren Grundlage sollten Sie ein strukturiert abgelegtes Qualitätsregelwerk erstellen, das Sie für weiterführende qualitätssichernde Maßnahmen (Erfolgskontrolle) und zum Aufbau von präventiven Ansätzen (Data Governance) nutzen können.

2. Systemintegration

In den meisten Unternehmen werden die Daten, je nach Datentyp (Kundendaten, Materialdaten, Produktdaten, Debitorendaten, Kreditorendaten, u.v.m.) in mehreren Systemen (z. B. ERP-, CRM-, PIM-Systeme oder individuell aufgesetzte Datenbanken) parallel verwaltet. Wenn Sie das genutzte Datenmodell verändern, kann dies bereits positive Auswirkungen auf die Datenqualität haben. So vereinfacht zum Beispiel die Trennung von Einheit & Wert und die Normierung auf eine Größe, wie Kilogramm (kg) die spätere systemübergreifende Analyse der Datenqualität und den Aufbau von unternehmensweit gültigen Kennzahlen zur Datenqualität im Reporting.

Zusätzlich ist es ratsam, Ihre Systeme dahingehend zu optimieren, dass die Benutzung noch einfacher und intuitiver wird, indem Sie bspw. die Bezeichnung der Datenfelder anpassen, um die Verständlichkeit für alle involvierten Nutzer zu steigern. Legen Sie außerdem ein besonderes Augenmerk auf die verwendeten Schnittstellenprogramme, da die Weitergabe von Daten über die Systemgrenzen hinweg eine häufige Fehlerquelle darstellt.

Zur weiteren Verbesserung Ihrer Datenqualität ist es sinnvoll, einen zentralen Hub zu schaffen, der mit allen relevanten Systemen verbunden ist. Dort laufen alle Daten in einem Single Point of Truth zusammen. Ein hinterlegtes Datenqualitätsregelwerk kann bereits während der Eingabe automatisiert überprüfen, ob die neu hinzugefügte und bearbeitete Werte gültig sind oder ob in diesem Moment ein Duplikat erzeugt wird.

3. Regelmäßige Datenqualitätsprüfungen

Um konstant hohe Datenqualität zu gewährleisten, müssen neben der Datenbereinigung unbedingt auch Data Governance Prozesse konzipiert und umgesetzt werden. Die führt häufig auch dazu, dass Prozesse angepasst werden und dass das unternehmensweite Daten- und Qualitätsmanagement angepasst werden muss. Nur wenn die relevanten Geschäftsprozesse durch Data Governance Prozesse unterstützt werden, oder zumindest regelmäßige Datenqualit.tsprüfungen in den Geschäftsprozessen umfasst sind, können identifizierte Datenqualitätsfehler langfristig beseitigt werden.

Ein Beispiel dafür ist die Verteilung von Verantwortlichkeiten für die Datenanlage, -pflege und Qualitätssicherung. Die Datenverantwortlichen benötigen Entscheidungskompetenzen – ihre Ernennung ist also eine organisatorische Frage. Sie werden durch die fachliche Expertise der Datenstewards unterstützt. Alle Mitarbeiter, die Rollen im Datenmanagement übernehmen, müssen entsprechend geschult werden. In der Praxis hat sich diese präventive Maßnahme als äußerst zielführend erwiesen, da sie den Mitarbeitern neben technischen Hilfestellungen durch die oben genannten Systemoptimierungen bei ihrer täglichen Arbeit enorm unterstützt.

Ebenso kann in den unternehmensweiten Prozessen die regelmäßige Datenqualitätsprüfung etabliert werden. Eine permanente Überwachung lässt sich durch wiederholte Messungen der Datenqualität realisieren. Diese ermöglichen einen Überblick über die Entwicklung und aktuellen Stand der Datenqualität des Unternehmens.

Data Governance sichert langfristig höchste Datenqualität in Ihren Systemen

Um Ihre Daten über deren gesamten Lebenszyklus hinweg qualitativ zu sichern, ist die Einführung einer Data Governance notwendig. Richtlinien legen fest, welche Standards im Unternehmen Anwendungen finden und welche Zuständigkeitsbereiche die Aufgaben im Datenmanagement übernehmen. In diesem Sinne ist Data Governance das Rahmenwerk für Ihr Datenqualitätsmanagement. Sie profitieren davon, die unternehmensweite Ressource „Daten“ zielführend in Ihren Wertschöpfungsprozessen einzusetzen und fortlaufend die Datenqualität in Ihrem Unternehmen zu stärken.

Weiterführende Informationen unter:
www.innoscale.de

Quelle:
Hildebrand, Knut (Hrsg.): Daten- und Informationsqualität: Auf dem Weg zur Information
Excellence. Wiesbaden: Vieweg + Teubner. 1. Aufl. 2008.

Aufmacherbild / Quelle / Lizenz
Photo by Fitore F on Unsplash

Ist Amazon ein Vorbild im Lebensmittelhandel?

Brian Walker, Chief Strategy Officer, Bloomreach kommentiert:

Der Schwerpunkt von Amazon Go ergibt sich aus der Betonung der legendären Flywheel (Schwungrad)-Strategie von Amazon. Der Schwerpunkt liegt dabei auf dem Sortiment, der Kundenfreundlichkeit und niedrigeren Betriebskosten – vor allem durch die Reduzierung von Arbeitskosten. Da Amazon Go nun zu einem vollen Lebensmittelgeschäft skaliert, nutzt Amazon seine Investitionen in die KI, sein Prime-Programm, die Zahlungsabwicklung, den Betrieb und die Logistik, um sowohl die Kosten zu senken als auch eine neue Kundenerwartung rund um das Erlebnis des Lebensmitteleinkaufs zu schaffen.

Amazon hat mit seinen marktplatzbasierten Online-Erfahrungen bereits den Druck erhöht und versucht nun, dies auch im Bereich Lebensmitteleinkauf zu erreichen. Die sehr öffentliche Ankündigung und die Medienpräsenz rund um Amazon Go zeigen, dass Amazon möglicherweise absichtlich den Blutdruck und die Einsätze in den Vorstandsetagen der Wettbewerber erhöhen will – und in den Märkten allgemein. Erinnern Sie sich an die „60-Minuten-Drohnen“? Wenn der Amazon Go-Versuch erfolgreich ist, dann würde dies sehr schnell auf die gesamte „Whole-Foods-Market“-Kette ausgedehnt, was bisher nicht geschehen ist. Amazon kann es sich leisten, groß angelegte Versuche durchzuführen, kontinuierlich in sie zu investieren – und die Medien saugen dies auf.

Aber wir sollten nicht zu viel hineininterpretieren. Dennoch können Lebensmittelhändler und Unternehmen aller Art von Amazons jüngstem Vorhaben in einigen Schlüsselbereichen lernen: Man sollte sich darauf konzentrieren, ein komfortables Kundenerlebnis zu schaffen, das digitale Kanäle als zentrale Komponente dieses Erlebnisses nutzt, man sollte Daten und KI als Werkzeuge zur Kostensenkung verwenden und das Erlebnis stärker personalisieren.

Nicht zuletzt gilt es zu erkennen – ob einem dies bisher bewusst war oder nicht –, dass man in einem Technologieunternehmen arbeitet. Die Messlatte rückt immer höher und es braucht Unternehmen, die trotz all dieser Disruption weiter florieren.

Über den Autor

Brian Walker ist Chief Strategy Officer bei Bloomreach (www.bloomreach.com), Anbieter einer Digital Experience Plattform (DXP). Als erfahrener Strategie- und Marketing-Experte konzentriert er sich auf die Transformation von digitaler Kundenbindung und Commerce. Er war bereits in vielfältigen Positionen tätig – vom Praktiker über Analyst bis hin zum Berater und Anbieter – und hat so einen Einblick erhalten, welche Fähigkeiten und Ansätze Unternehmen benötigen, damit sich die digitalen Kanäle zum wichtigsten Motor für das Unternehmenswachstum entwickeln. Bevor er zu Bloomreach kam, war Brian Walker als Chief Strategy Officer bei Amplience, Managing Director, Global Commerce Strategy bei Accenture, Chief Strategy Officer bei SAP Hybris tätig und leitete die Abteilung Commerce Technology Reseach bei Forrester Research. Davor hatte Brian Walker zudem Führungspositionen bei Amazon, Expedia und der Otto Group inne.

Aufmacherbild / Quelle / Lizenz cc by
https://commons.wikimedia.org/wiki/File:Amazon_Go_-Seattle(20180804111407).jpg
Sikande

Die digitale Transformation stottert noch in Deutschland

Dies ist ein Gastbeitrag von Dominik Neumann, Vice President Consulting Services bei CGI in Deutschland

In der digitalen Transformation steht die Konzentration auf das Kerngeschäft im Vordergrund – die Zeiten wilden Experi-mentierens sind vorbei. Eine zentrale Herausforderung bleibt dabei die Modernisierung der IT. Die stärkere Nutzung von Cloud-Services und innovativen Technologien sowie die Neugestaltung der IT mit einer Verschmelzung von IT und Fachbereichen bei Produkten und Services sind nach CGI Schritte in die richtige Richtung.

Der Wunsch, die digitale, agile Transformation voranzutreiben, zählt bei Unternehmen weiterhin zu den Top-Trends. Doch eine gelungene Digital Journey erfordert Zeit und den richtigen Fokus. Laut einer jährlich durchgeführten globalen Kundenumfrage von CGI, nach brand-eins-Ranking einer der besten IT-Dienstleister 2020 in Deutschland, verfolgen 57% Prozent der Befragten eine digitale Strategie auf Unternehmensebene, jedoch lediglich 10 Prozent konnten damit die erwarteten Mehrwerte realisieren (1).

Dabei ist digitale Agilität heute nicht nur ein Buzzword, sondern Gebot der Stunde. Offenheit und Flexibilität beim Einführen von modernen Technologien wie KI- oder Cloud-Services ist bei diesem Prozess unabdingbar. Was vielfach jedoch nicht beleuchtet wird, sind die Herausforderungen und Schwierigkeiten, die Unternehmen bei der Umsetzung im Wege stehen.

Der Digitalisierungsgrad ist in den verschiedenen Branchen recht unterschiedlich ausgeprägt. So ist vielfach gerade bei im B2B-Bereich tätigen Unternehmen eine niedrige Digitalisierung beziehungsweise verzögerte digitale Transformation zu registrieren. Der Grund ist, dass der Druck zur Digitalisierung vor allem vom Endverbraucher getrieben wird und damit im B2C-Segment tätige Unternehmen an einer umfassenden Digitalisierung zur Optimierung der Customer Experience kaum vorbeikommen – im Unterschied zu B2B-Unternehmen, deren Digitalisierungsinitiativen sich im Wesentlichen auf Prozesseffizienz fokussieren.

Digitalisierungsstrategien haben Unternehmen bisher auch deshalb oft nicht den gewünschten Erfolg gebracht, weil sie im Zuge von Diversifizierungsvorhaben und Versuchen, etablierte Geschäftsmodelle durch Blue-Ocean-Strategien zu ersetzen, das Kerngeschäft aus den Augen verloren haben. Hier setzt nun ein Umdenken ein: mit einer Fokussierung auf das Kerngeschäft und damit verbunden mit einer auf das Kerngeschäft fokussierten Digitalisierung.
Bei der Umsetzung einer solchen Strategie sehen es 72% der von CGI befragten Kunden als ihre Top-Herausforderung an, die operative Exzellenz zu verbessern. Dazu gehört vor allem die Neuordnung der IT.

IT und Fachbereiche verschmelzen

„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.
„Eine hohe Mitarbeitermotivation muss gegeben sein, ansonsten führen alle Initiativen zwangsläufig irgendwann ins Leere“, betont Dominik Neumann von CGI Deutschland.

Der Umbau der IT zielt ab auf eine Trennung von nach Innen ge-richteter Unternehmens-IT mit zentralen Systemen wie ERP oder Controlling- und Human-Resources-Applikationen und nach Außen gerichteter IT, die Geschäftsmodelle, Produkte und Services sowie Customer Touch Points betrifft. Die interne IT verantwortet in der Regel der CIO, die externe IT hingegen der CDO beziehungsweise der jeweilige CDO eines Unternehmens- oder Geschäftsbereiches.

Die entscheidende Veränderung ist die Verschmelzung von IT-Teams mit den Fachbereichen. IT und Business, also IT- und Geschäftsprozesse, gehen in neuen, hocheffizienten Wertschöpfungsnetzen auf. Beispiele dafür finden sich bereits in Unternehmen, die eine Abkehr vom klassischen Produktverkauf eingeleitet haben. Maschinen und Ausrüstungsgüter werden dabei in ein umfassendes Predictive-Maintenance-Konzept eingebunden und der eigentliche Gebrauch nach dem Pay-per-Use-Modell abgerechnet. Dazu muss die IT unmittelbar in die Produkte und damit auch in die Wertschöpfungskette integriert sein.

In engem Zusammenhang mit dem Verschmelzen von IT und Fachbereichen steht die Etablierung einer neuen Organisationsform. Das Management muss diesen Weg mitgehen und das Vorgehen aktiv unterstützen. Vielfach müssen dabei auch „alte Zöpfe“ zugunsten einer Machtverschiebung abgeschnitten werden. Voraussetzung für die Sicherstellung einer hohen Flexibilität und Agilität sind schnelle Entscheidungen. Dazu müssen Organisationsstrukturen verändert und Entscheidungsparameter angepasst werden. In der Regel erfordert dies ein generelles Umdenken im Management und den Abbau von Hierarchien, also dezentrale Strukturen mit kurzen Entscheidungswegen. 82% der Entscheider in Unternehmen haben das, laut CGI-Umfrage, erkannt.

IT-Modernisierung ist unumgänglich

Für eine agile Transformation erweist sich eine teure, veraltete IT als Hemmschuh. Viele Unternehmen werden noch immer durch Legacy-Software und umfangreiche, komplexe, monolithische Anwendungen belastet. Zur gleichen Zeit müssen sie die Infrastrukturkosten senken, Produkte und Dienstleistungen schneller auf den Markt bringen und generell mehr Flexibilität und Agilität erreichen. Bei der Modernisierung müssen vor allem auch neue Services und Technologien Berücksichtigung finden, die zur Optimierung der operativen Exzellenz, Steigerung der Geschwindigkeit und damit zur Verbesserung der Wirtschaftlichkeit beitragen. Gerade bei zentralen Building Blocks der digitalen Transformation wie Cloud, KI, IoT, Automation oder Blockchain zeigen sich dabei elementare Herausforderungen der meisten Unternehmen: das nicht vorhandene, IT- und anforderungsspezifisch qualifizierte Personal und die nicht verfügbaren Fachkräfte auf dem Arbeitsmarkt. Zwangsläufig muss deshalb intern Know-how, anders gesagt, eine „lernende Organisation“ aufgebaut werden. Der Wissenstransfer muss von außen nach innen erfolgen, und der Know-how-Aufbau darf nicht in Form einer Verordnung oder eines Zwanges, sondern muss vielmehr intrinsisch erfolgen. Eine hohe Mitarbeitermotivation muss gegeben sein, ansonsten führen alle Initiativen zwangsläufig irgendwann ins Leere. Gleichzeitig müssen Unternehmen mit der Dynamik des Marktes mithalten und für das eigene Unternehmen relevante technologische Entwicklungen erkennen und auf dieser Basis in den Kompetenzaufbau der eigenen Mitarbeiter investieren.

Die Cloud wird wichtiger

Auch die Nutzung von Cloud-Services und Cloud-Infrastrukturen wird immer wichtiger. Bei der weltweiten Befragung geben 76% der Entscheider an, die Cloud im Unternehmen zu nutzen. In zahlreichen Unternehmen – insbesondere im Mittelstand – fehlt es aber an der notwendigen Expertise und häufig an grundlegenden Sicherheitsstandards. Nur 42% verfügen über Mechanismen, um zu ermitteln, wo wichtige Datenbestände in der Cloud für ihre eigenen Organisationen und Kunden gespeichert sind.

Nach Ansicht von CGI ist es daher unverzichtbar, eine gründliche Bewertung jeder Cloud-Implementierungsstrategie durchzuführen. Dabei sollte anhand klarer Kriterien untersucht werden, welche Art von Cloud – Public, Hybrid oder Private – für die jeweilige Anwendung am besten geeignet ist und nötigenfalls ein „balanced Cloud Approach“ angewendet werden. Diese Kriterien sollten sich auf persönliche Daten, den Datenspeicherort, die Sicherheit und die Business Continuity sowie die entstehenden Kosten beziehen.

Leider muss man jedoch noch erwähnen, dass deutsche Unternehmen im internationalen Vergleich einen klaren Wettbewerbsnachteil haben, da kein Cloud-basierter Wirtschaftsraum besteht, weder in Deutschland noch in Europa. Prinzipiell wäre der europäische Markt zwar groß genug, aber Marktbarrieren und sprachliche wie kulturelle Unterschiede haben bisher den Aufbau eines europäischen Cloud-Binnenmarkts verhindert. So ist ein neues digitales Geschäftsmodell in Deutschland und auch Europa nur sehr schwer zu etablieren, etwa im Vergleich zu den USA oder zu China.

Insgesamt sind für eine erfolgreiche digitale agile Transformation in einem ersten Schritt zwei Punkte von hoher Relevanz. Die kontinuierliche, manchmal auch radikale Veränderung der Organisation, in der die IT-Fachbereiche zu agilen Wertschöpfungsnetzwerken verschmelzen (dezentrale End-2-End IT) und die Cloud-Transformation mit der Modernisierung der Legacy-Systeme und der Nutzung neuer Technologien. Durch die Einbettung der IT in die wertschöpfenden Prozesse der Fachbereiche und die dadurch entstehenden innovativen Produkte und Services lässt sich der digitale Wandel aktiv vorantreiben. Wird dies unterfüttert mit einer kontinuierlichen und effektiven Modernisierung der IT-Systeme, kann die verstärkte Nutzung von Cloud-Services und digitalen Technologien adressiert werden. Auf diese Weise lässt sich eine zukunftsfähige IT als Motor der digitalen Transformation etablieren.

Weitere Informationen unter:
https://www.de.cgi.com/de

(1) Die Kundenumfrage „CGI Client Global Insights 2019, Global Report“ kann angefordert werden bei info.de@cgi.com

Industrie 4.0 zugriffssicher gestalten

Informationstransparenz, Vernetzung von Produktionsmitteln über das Internet of Things (IoT), technische Assistenzsysteme und automatisierte, autonome Entscheidungen cyberphysischer Systeme (Robotik) haben das Potenzial, das Produktionsumfeld nachhaltig umzugestalten und die vierte industrielle Revolution voranzutreiben.

Die Vorteile liegen auf der Hand: Über eine hohe Vernetzung können Produktionsabläufe wesentlich effizienter ablaufen, Produktionsmittel besser in Schuss gehalten werden sowie Produktionskosten durch den effizienteren Einsatz von Mensch und Maschine gesenkt werden.
Dies klingt alles sehr verlockend. Jedoch gibt es auf diesem Weg noch einige Hürden, eine wesentliche ist die IT-Sicherheit.

Sicherheit fraglich

Genau das Thema Sicherheit beschäftigt Hersteller auf ihrem Weg zur Industrie 4.0. Zu hoch sind die Risiken, Opfer eines Cyberangriffs zu werden und zu schwerwiegend ist der Schaden, der entsteht, wenn die Produktion auch nur für einen kurzen Zeitraum stillsteht. Dabei ergeben sich die Herausforderungen für die IT-Sicherheit aus den vier Kernaspekten von Industrie 4.0.

Höhere Vernetzung

Industrieanlagen sind heute wesentlich weiter miteinander vernetzt, als es früher der Fall war. Die Komponenten der Fabrikation werden nicht nur – wie jetzt auch – über Ländergrenzen und organisatorische Einheiten hinaus miteinander verbunden sein, sondern diese Vernetzung erfolgt auch wesentlich dynamischer. So reicht es künftig nicht nur mehr aus, den Zugriff auf die Produktionsmittel innerhalb des eigenen Unternehmens zu steuern, da sich alle Teilnehmer der Wertschöpfungskette daran beteiligen.

Herausforderungen für die IT-Sicherheit aus den vier Kernaspekten von Industrie 4.0: zunehmende Vernetzung, Daten, Automatisierung und externe Akteure

Zunahme der Informationen

Die Gesamtmenge der zu verarbeiteten Daten nimmt ständig zu. Diese können entweder absichtlich innerhalb der Kommunikation anfallen oder auf den Systemen zugänglich gemacht werden. Hier handelt es sich um Informationen, die jedes Mitglied der Wertschöpfungskette auf eine andere Art einschätzt. Sind sie für das eine Unternehmen geheim und schützenswert, können sie für das andere weniger vertraulich sein. Doch nicht nur die eigene Einschätzung ist ausschlaggebend. Oft unterliegen Daten aufgrund staatlicher Regularien einem besonders hohen Schutzgrad.

Automatisierte Entscheidungen

Ein weiterer wichtiger Kernaspekt ist die Tatsache, dass Entscheidungen in der Industrie 4.0 zunehmend von autonomen Systemen durchgeführt werden. Diese wirken sich durchaus sicherheitsrelevant aus und ergeben sich aus Änderungen in den Abläufen in den unterschiedlichen Domänen und Partnersystemen. Für die Entscheidung werden so Informationen aus unterschiedlichen Quellen hinzugezogen.

Externe Akteure

Zusätzlich erhalten immer neue externe Akteure wie etwa Zulieferer, Logistiker, Entwickler oder Wartungspersonal für Steuerungssysteme oder Maschinen Zugriff in das unternehmenseigene Produktionsnetzwerk. Dadurch werden seine Grenzen fließender, denn schließlich können die Netzwerk-Administratoren diese Arbeitskräfte nicht aus den Prozessen ausschließen.

Diese vier Faktoren führen dazu, dass weitere Risiken entstehen. Dadurch, dass der Produktionsablauf immer komplexer wird und immer mehr Akteure sich daran beteiligen sollen, fallen alte Methoden der Absicherung der eigenen Netzwerkumgebung nun weg. Wesentliche Herausforderung ist dabei, dass sich die Systemarchitektur entsprechend anpassen kann. Dynamische, echtzeitoptimierte und sich selbst organisierende unternehmensübergreifende Ad-hoc-Wertschöpfungsnetzwerke werden entstehen. Dies alles kann natürlich nicht mehr durch veraltete Mittel abgesichert werden. Wer beispielsweise starre Vorgaben für die Reaktion auf Bedrohungsszenarien einsetzt, könnte in ernste Schwierigkeiten kommen, da Wettbewerber oder Cyberkriminelle weitaus flexibler vorgehen als früher.

Übergeordnetes Sicherheitsmanagement nötig

Aus diesem Grund müssen sich IT-Verantwortliche neu mit den Rollen sowohl der Akteure und – oft vergessen – der beteiligten Subsysteme und Applikationen befassen. Hier müssen nicht nur die Zugriffsrechte der Beteiligten neu definiert werden, sondern auch das Zusammenspiel verschiedener Maschinen. Letzteres ist nötig, da zunehmend Systeme autonom miteinander agieren, ohne dass ein Mensch in diesen Prozess eingreift. Jedoch ist das natürlich besonders dann riskant, wenn Angreifer ein System übernehmen und sich sozusagen huckepack in andere, möglicherweise fremde IT-Umgebungen einschleusen lassen. Grundsätzlich müssen alle Maßnahmen in einer koordinierten OT/IT-Sicherheitsstrategie abgebildet werden, die nicht nur das eigene Unternehmen sondern auch die gesamte Wertschöpfungskette umfasst. Dazu gehört auch, dass die Teilnahme eines Partners am gesamten Prozess davon abhängig gemacht wird, ob er den IT-Sicherheitsrichtlinien zustimmt.

Nicht zuletzt sollten auch technische Maßnahmen wie etwa ein sicheres, protokollübergreifendes Industrial-OT-Gateway eingesetzt werden, denn für ein manuelles Management sind die Prozesse bereits jetzt schon zu komplex. Hierfür eignen sich insbesondere Privileged-Access-Management-Lösungen (PAM).

„Ein ganzheitlicher Ansatz, das Privileged Access Management sowohl für Administratoren als auch für externe Partner, Lieferanten und Dienstleiter sowie Anwendungen ist notwendig, um in dynamischen, vernetzten Welten der Industrie 4.0 für signifikante Verbesserung der Sicherheit zu sorgen.“

Stefan Rabben, Area Sales Director DACH and Eastern Europe bei WALLIX

Wie kann eine PAM-Lösung ein OT-Gateway konkret schützen?

Die Kommunikation mit Industrieanlagen und Produktionsmitteln erfolgt üblicherweise über ein sogenanntes OT-Gateway, welches den Zugriff von Steuerungs- & Analysesoftware, Robots sowie des Wartungspersonals ermöglicht.

Um für diese Zugriffe maximale Sicherheit zu gewährleisten, sind vor allem zwei Punkte zu beachten:

  1. Steuerungs- und Analysesoftware sollte ausschließlich mit den geringstmöglichen Privilegien ausgeführt werden, die für den ordnungsgemäßen Betrieb notwendig sind. Hier spricht man vom „Principle of Least Privilege“ (POLP). Diese Mindest-Privilegien können für die verschiedenen Produktionsmittel (OT-Devices) unterschiedlich sein und sollten somit dynamisch vergeben werden können.
  2. Die Zugangsdaten zu den Produktionssystemen dürfen niemals auf dem OT-Gateway selbst abgelegt werden. Die Erfahrung zeigt jedoch, dass in vielen Fällen statische Passwörter – oftmals sogar im Klartext – direkt in den Anwendungen auf dem OT-Gateway hinterlegt sind. Dies stellt ein enormes Sicherheitsrisiko dar.

Mit einer speziell auf OT-Gateways angepassten PAM-Lösung können die Privilegien sämtlicher Applikationen automatisch und dynamisch so angepasst werden, dass für sämtliche Arbeitsschritte ausschließlich die geringstmöglichen Berechtigungen angewendet werden – selbst wenn die Applikation aus einem Administrator-Kontext heraus gestartet wird.

Ebenso werden die Zugangsdaten zu den Produktionsmitteln dynamisch für die jeweilige Sitzung aus einem sicheren Passwort-Tresor angefordert und sind auf dem OT-Gateway zu keiner Zeit mehr einsehbar.

Insofern hinaus müssen sich die Unternehmen darüber klarwerden, dass ein ganzheitlicher Ansatz, das Privileged Access Management sowohl für Administratoren als auch für externe Partner, Lieferanten und Dienstleiter sowie Anwendungen notwendig ist, um in dynamischen, vernetzten Welten der Industrie 4.0 für signifikante Verbesserung der Sicherheit zu sorgen. PAM hilft den Unternehmen die Prozesse und Datenzugriffe nicht nur zu verwalten, sondern auch zu auditieren. Dies ist ein wichtiger Aspekt, um eben nicht nur die Sicherheit zu erhöhen, sondern auch, um rechtlichen Anforderungen zu entsprechen oder diese gar zu übertreffen.

Falls IT-Entscheider ihre Sicherheitsmaßnahmen automatisieren und diese auf alle Prozesse ausdehnen, steht einer Einführung von sicherer und vertrauensvoller Industrie 4.0 nichts mehr im Wege.

www.wallix.com/de/

Stefan Rabben erläutert im Interview, warum privilegierte Konten ein lohnendes Ziel für Cyberkriminelle darstellt.
Lesen Sie mehr: https://www.trendreport.de/privilegierte-konten-ein-lohnendes-ziel-fuer-cyberkriminelle/

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay
Beitragsbild:
Bild von Gerd Altmann auf Pixabay

Den eigenen digitalen Reifegrad messen

Nikolai Stoyanov, Geschäftsführer der perXoom GmbH, langjähriger Trainer und Berater bei ibo, hat kürzlich ein Minimum Viable Product (MVP) gelauncht, mit dem es Mitarbeitern möglich wird, ihre Fähigkeiten für die digitale Transformation zu beurteilen. Der Ansatz gleicht einem Assessment, das sehr viel Aufschluss über die eigenen Möglichkeiten und Perspektiven bietet. Um einem möglichen Missverständnis vorzubeugen: Auch die menschlichen Fähigkeiten werden gefragt sein – nicht nur die Fähigkeit, Code zu schreiben. Genauso wie es Softwareentwickler und KI-Experten braucht, werden Experten im Umgang mit dem Menschen, Experten für Leadership und Change-Management benötigt, wie Stoyanov im nachfolgenden Interview mit der TREND-REPORT-Redaktion ausführt.

Herr Stoyanov, wie spielen Bildung und digitaler Wandel zusammen?
Der digitale Wandel hat eine enorme Auswirkung auf unser Arbeitsumfeld. Viele Arbeitsplätze verändern sich gravierend, andere werden in absehbarer Zeit nicht mehr existieren. Die Anforderungen von Unternehmen an ihren Mitarbeiter ändern sich natürlich auch und zwar in einer sehr hohen Intensität. Das Lernen und der Aufbau von Fähigkeiten und Kompetenzen sind der Schlüssel für eine gelungene digitale Transformation. Für die MitarbeiterInnen bedeutet digitale Fitness mehr Sicherheit und Erfüllung in der Arbeitswelt von morgen. Für die Unternehmen stellt die digitale Fitness ihrer Mitarbeiter eine Garantie dar, dass sie sicher und erfolgreich die digitale Transformation meistern.

Welche Rolle spielt eine Plattform wie perXoom in diesem Kontext?
Die Digitalisierung ermöglicht uns einen unglaublichen Zugang zu Wissen. Wir haben viele Möglichkeiten von den besten Experten zu lernen, unsere Erfahrungen zu teilen und von den Erfahrungen anderer zu profitieren und uns mit Gleichgesinnten zu vernetzen. Diese Vernetzung, den Austausch von Erfahrungen und Expertise, das gegenseitige voneinander lernen und profitieren nennen wir ein Lern-Ökosystem. Unsere Plattform organisiert und unterstützt den Aufbau von solchen Lern-Ökosystemen.

Nikolai Stoyanov: „Die digitale Transformation besteht aus mehr als nur Technik.“

Wie analysieren Sie den Status Quo und den Wissensbedarf bei Menschen und Organisationen? Welche Schlüsse lassen sich aus den Ergebnissen ableiten?
Zunächst mal geht es uns darum, für Menschen und Unternehmen eine Orientierung zu bieten: Welche digitale Kompetenzen brauche ich überhaupt? Wo stehe ich oder mein Unternehmen im Vergleich zu den so genannten „digital Leader“, also digitalen Vorreitern? Welcher Handlungsbedarf besteht für mich? Nach einer Analyse der eigenen digitalen Expertise und der aktuellen Aufgabenbereiche erhält jeder einzelne User unserer Plattform Vorschläge für seine individuelle Lernreise – Videos, Blogs, Expertentreffen, Seminare, etc.
Die Ergebnisse aus der Analyse können auch im Unternehmenskontext vielfältig verwendet werden. Z.B. für die Erstellung von Personalentwicklungsstrategien, für die Besetzung von Projekten, für Skill- und Talentmanagement und vieles mehr.

Nicht jeder wird und will Data Scientist oder KI-Experte werden. Wie kann perXoom weiterhelfen, die eigenen Qualitäten im Kontext der Digitalen Transformation zu beurteilen?
Die digitale Transformation besteht aus mehr als nur Technik. Neben technischen Spezialisten brauchen wir Expertise in Bereichen wie Leadership, Management, Vertrieb, Produktentwicklung, etc. Auch der Umgang mit dem Menschen in der Digitalisierung gewinnt an Bedeutung. Und damit steigt der Bedarf an Wissen und Expertise in Themen wie Change-Management, Stressbewältigung und Resilienz, Coaching, etc. Zusammenfassend – es gibt viele Bereiche in denen auch Nicht-IT-Spezialisten Verwirklichung und Erfüllung finden. Um die eigenen Stärken besser einzuschätzen kann z.B. eine Persönlichkeitsanalyse helfen. Oder auch ganz einfach – Neues lernen, ausprobieren und wenn es einem Spaß und Freude bereitet – einfach weitermachen.

Sie bringen sehr viele Erfahrungen aus der agilen Organisation mit. Wie agil gehen Sie selbst bei der Entwicklung vor? Wie könnten nächste Ausbaustufen aussehen?
Agiles Vorgehen bedeutet für uns vor allem folgendes: Kurzzyklisches Vorgehen, Nutzer aktiv einbeziehen, Fokus auf den Funktionalitäten, die für den Nutzer den höchsten Mehrwert darstellen.

Im Detail heißt es: Wir arbeiten in 1-wöchigen Sprints und verifizieren unsere Anforderungen und Ergebnissen mit ausgewählten Nutzern. Mit dem ersten Minimum Viable Product haben wir den Kreis unserer Testnutzer erweitert und zusätzliches Feedback gesammelt. Dieses Feedback bestimmt die Entwicklung für die nächsten 4 Wochen. Konkret – die nächsten 4 Wochen arbeiten wir an der Vereinfachung unserer Digital Fitness Tests und an der Verbesserung des Lernerlebnisses.
Technisch betrachtet ist in der Entwicklung einfach alles möglich. Deshalb versuchen wir mit Methoden wie z.B. Customer Journey und Design Thinking den Fokus auf bestimmte Zielgruppen und Technologien zu legen.

Sie haben perXoom als eigenständiges Unternehmen ausgegründet. Was waren die Beweggründe dazu?
Wir haben zuerst innerhalb der ibo Akademie ein Projekt angefangen und den Bedarf an digitalen Kompetenzen bei unseren bisherigen Kunden evaluiert. Wir haben ca. 400 Kundenbefragungen und Interviews durchgeführt, Prototypen erstellt und verifiziert. Am Ende dieses Projektes haben wir festgestellt, dass wir ein neues Geschäftsmodell brauchen, um die Kundenbedürfnisse zu erfüllen – nämlich eine Plattform zum Aufbau und Teilen von Wissen. Die Entscheidung perXoom als eigenständiges Unternehmen zu führen war die logische Konsequenz dieser Erkenntnis und sichert uns mehr Flexibilität und Geschwindigkeit in der Entscheidungsfindung und Umsetzung.

Welche „Lernkurve“ haben Sie selbst in den vergangenen Monaten bestritten?
Für mich persönlich waren die letzten Monate mit unglaublich vielen Erlebnissen, Erkenntnissen und Erfahrungen verbunden. Technisch wie fachlich habe ich sehr viele neue Themen für mich entdeckt, deshalb kann ich diese Lernkurve als sehr steil bezeichnen. Wenn ich nur ein Aspekt daraus hervorheben sollte, dann ist es die Offenheit, mit der unsere potenzielle Kunden, Experten, Partner und Mitgestalter ihre Erfahrungen, Ideen und Wünsche mitgeteilt haben. Während der Entstehung von perXoom haben wir ein großartiges Lern-Ökosystem entstehen lassen, das jeden einzelnen von uns persönlich und fachlich bisher weitergebracht hat. Diese steile Lernkurve gibt mir die Energie, solche Lern-Ökosysteme auch für andere Menschen und Unternehmen zu erschaffen.

Wenn Sie für die Entwicklung einen Wunsch frei hätten…
… wäre es, Wissen öffentlich zugänglich und bezahlbar für alle Menschen zu machen.

Weitere Informationen unter:
https://perxoom.com

Krankenhäuser unterschätzen IT-Schwachstellen

Etliche Hackerangriffe zeigen, dass viele deutsche Krankenhäuser ihre IT-Systeme noch nicht ausreichend vor Cyber-Attacken schützen. Die Security Division von NTT Ltd., einem weltweit führenden Technologie-Dienstleister, beschreibt die wichtigsten Gründe für das hohe Gefährdungspotenzial.

Es wäre ein Albtraum, wenn der Kardiologe die endoskopische Herz-OP unterbrechen müsste, weil das Kamerabild nicht mehr auf den Bildschirm übertragen wird. Ein abwegiges Szenario? Keinesfalls: Die nächste Hackerattacke wird nicht lange auf sich warten lassen.

Bis dato waren Angriffe auf Krankenhäuser noch eher die Ausnahme. Einer der letzten größeren Fälle ereignete sich in Rheinland-Pfalz und im Saarland Mitte 2019. Dabei wurden elf Krankenhäuser und vier Altenpflegeeinrichtungen des Deutschen Roten Kreuzes (DRK) Opfer einer Ransomware-Attacke. Das Schadprogramm verschlüsselte Datenbanken und Serverdaten und legte so das gesamte Netzwerk des DRK-Klinikverbundes lahm. Erst nach einigen Tagen konnte das DRK die Daten aus einem Backup wiederherstellen und die Server wieder in Betrieb nehmen. Zuletzt sorgte im Dezember 2019 das Klinikum Fürth für Schagzeilen.

„Alle Anzeichen deuten darauf hin, dass es künftig nicht mehr bei Einzelfällen bleiben wird.
Kliniken sollten folglich ihre Cyber-Security-Strategie schnellstens auf einen modernen Stand bringen, vor allem deshalb, weil im Gesundheitswesen eine besondere Gefährdungslage vorliegt.“

Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland

Gefährdungspotenzial in Kliniken

NTT nennt sechs Gründe, die die hohe Bedrohungslage von Kliniken belegen:

  • Gefahr für Leib und Leben: Wenn Hacker Geräte etwa auf der Intensivstation manipulieren oder per DDoS-Angriff ausschalten, können Patienten sterben.
  • Sensible Patientendaten: Sie sind streng vertraulich und unterliegen einem besonderen Schutz.
  • Hohes Maß an Digitalisierung: Die meisten Kliniken verwalten mittlerweile Patienteninformationen, klinische Dokumentationen und Finanzen komplett digital. Sie übertragen Patientendaten über mobile Geräte und steuern Infusionspumpen auf Intensivstationen teilweise zentral.
  • Vernetzte Medizingeräte: Viele medizinische Geräte oder OP-Systeme sind mit dem Office-Netzwerk oder untereinander vernetzt – und damit potenziell gefährdet. Durch die steigende Zahl an IoT-Geräten vergrößert sich die Angriffsfläche weiter; ein Beispiel dafür sind tragbare medizinische Geräte zur Fernüberwachung von Patienten, die Vitalwerte wie Blutdruck, Puls oder Blutzucker messen.
  • Einfacher Zugang für Angreifer: Krankenhäuser sind für Patienten und Besucher, aber auch für Hacker öffentlich zugänglich.
  • Angreifbares WLAN: Kliniken fungieren inzwischen selbst oft als IT-Service-Provider, wenn sie beispielsweise ihren Patienten WLAN-Zugänge bereitstellen; damit existiert ein weiteres Einfallstor für Hacker.

„Ein zentrales Problem der Krankenhäuser in Deutschland ist, dass sie medizinisch zwar vielfach auf höchstem technischem Niveau arbeiten, das Thema IT-Sicherheit aber eher vernachlässigen. Hier ist eine grundlegende Änderung unverzichtbar.“

Kai Grunwitz

Sicherheitsmaßnahmen und Best Practices

Zur Reduzierung der IT-Schwachstellen empfiehlt NTT unter anderem folgende Sicherheitsmaßnahmen und Best Practices:

  • Berücksichtigung der IT-Sicherheit bereits bei der Auswahl und beim Einkauf von IT-Lösungen und medizinischen Geräten
  • Permanentes Monitoring der Systeme etwa mit Alerts oder der Analyse von Logdateien
  • Regelmäßige Installation von Updates und Patches, um Sicherheitslücken zu schließen
  • Segmentierung des Netzwerkes in Bereiche für die klassische Office-IT, das Patienten-Management-System, den OP-Bereich und das WLAN für Patienten und Besucher
  • Verbot des Internet-Surfens auf kritischen Systemen
  • Implementierung einer IAM (Identity and Access Management)-Lösung für die Verwaltung von Identitäten (Ärzte, Pflegekräfte, Patienten, Besucher, Studenten an Unikliniken) und Zugriffsrechten
  • Verschlüsselung sensibler Daten
  • Nutzung von Managed Security Services für die Verwaltung der IT-Systeme und Medizingeräte
  • Aufsetzen eines Incident-Response-Planes
  • Sensibilisierung der Mitarbeiter für potenzielle Sicherheitsrisiken
8 Best Practices zur Sicherung von IT-Systemen in Krankenhäusern (Quelle: NTT)

„Grundsätzlich gilt, dass Krankenhäuser kontinuierlich ihren Sicherheitsstatus überprüfen sollten und vor allem mehr Zeit und Geld in den Schutz ihrer IT-Systeme und medizinischen Geräte investieren müssen.
Nur so können sie sich letztlich besser gegen mögliche Angriffe wappnen.“

Security Experte Kai Grunwitz

Weitere Informationen unter
hello.global.ntt

Über die Security Division und NTT Ltd.

Security ist eine Division von NTT Ltd., einem globalen Technologie-Dienstleister, der die Expertise marktführender Unternehmen vereint, einschließlich NTT Communications, Dimension Data und NTT Security. Die Security Division hilft Unternehmen beim Aufbau eines digitalen Geschäfts, das dem Grundsatz Security-by-Design entspricht. Auf Basis einer globalen Threat Intelligence bietet die Security Division hinsichtlich Cyber-Bedrohungen Prävention, Erkennung, Abwehr und Reaktion. Security verfügt über 10 SOCs, sieben Zentren für Forschung und Entwicklung sowie mehr als 2.000 Sicherheitsexperten und behandelt jährlich Hunderttausende Sicherheitsvorfälle auf sechs Kontinenten. Die Division sichert zudem eine effiziente Ressourcennutzung, indem der richtige Mix an Managed Security Services, Security Consulting Services und Security-Technologie zur Verfügung gestellt wird.

Bei Rückfragen wenden Sie sich bitte an:

NTT Security Division
Romy Däweritz
Regional Security Marketing Manager – Europe
Tel.: +41 76 509 21 51
romy.daeweritz@global.ntt
NTT Germany AG & Co. KG
Hakan Cakar
Senior Director Marketing Germany
Tel.: +49 89 9911 20 08
hakan.cakar@global.ntt
PR-COM GmbH
Franziska Fricke
Account Manager
Tel.: +49 89 59997 707
franziska.fricke@pr-com.de

European Identity & Cloud Conference 2020

Save the Date: Die 14. European Identity & Cloud Conference (EIC) vom 12. bis 15. Mai 2020 im Infinity Ballhausforum in München-Unterschleißheim

Verantwortliche für IAM- und Cybersecurity-Strategien erfahren die neuesten und relevantesten Topics rund um Informationssicherheit und digitale Identität.

Als europäische Leitveranstaltung für die Zukunft der digitalen Transformation bietet die EIC Ihnen eine spannende Mischung aus visionären Keynote-Präsentationen und Best Practice-Diskussionen. Klar im Mittelpunkt stehen in diesem Jahr privilegierte Zugriffe (PAM) und digitale Identitäten („Identity Fabrics“) als zentrales Element einer ganzheitlichen und zukunftsfesten Cybersecurity-Strategie. Aber auch: KI in der Cybersecurity bzw. anders rum: sichere KI.

Hinzu kommt das Thema Cyber Supply Chain Risk Management, das durch die kürzliche Enthüllung der Eigentüerschaft der Crypto AG durch NSA und BND und die daraus resultierende Spionage von über 100 Staaten an Brisanz zugenommen hat.  Erleben Sie mehr als 200 hochkarätige Analysten und Referenten führender Unternehmen darunter Audi, Bosch, BNP Paribas, Mastercard, General Electrics, BBC, Thomson Reuters, Novartis und Amazon.

Die Konferenz startet am Abend des 11. Mai mit der „EIC 2020 Innovation Night gefolgt von vier Konferenztagen mit insgesamt mehr als 120 Stunden Vorträgen, Workshops und Social-Events.

Einige Highlights der EIC 2020 im Überblick:

  • Mastercard: Your Digital Identity, Your Choice (12. Mai)
  • PwC: Helping the CISO to have Impact – From Cost Generation to Protecting and Adding Value (12. Mai)
  • Thycotic: How Does a Hacker Reduce the Risk From Getting Hacked – Inside the Mind of a Hacker (13. Mai)
  • Novartis: Blockchain-anchored Identities and Credentials Enabling Digital Transformation in the Pharma (14. Mai)
  • Audi: CIAM at AUDI – A Constant Transformation in a worldwide Digital Ecosystem (14. Mai)

Fakten zur Veranstaltung

Wann: 12. – 15 . Mai 2020

Wo: Infinity Ballhausforum in München-Unterschleißheim

Tickets: Early Bird bis 15. April 2020 – https://www.eic2020.de/tickets

Veranstalter: Kuppinger Cole

Pressevertreter und Journalist haben Sie die Möglichkeit, sich ab sofort kostenlos für die EIC 2020 zu akkreditieren:
https://www.kuppingercole.com/press/accreditation/eic2020

Weitere Informationen zur European Identity & Cloud Conference 2020
https://www.eic2020.de/  

Lizenz:
Dies ist eine Pressemitteilung von Weissenbach PR

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay