Mit Vollgas auf die digitale Überholspur

Der deutsche Mittelstand strotzt vor Innovationskraft und nimmt mit eigenen Lösungen eine internationale Vorreiterrolle ein.

von Doris Albiez

Auch wenn vor allem Großkonzerne als Vorreiter in puncto Digitalisierung gelten – der deutsche Mittelstand mit seinen zahlreichen innovativen Produkten und Geschäftsmodellen ist längst auf der Überholspur. Als Motor Deutschlands genießt er zu Recht weltweit ein hohes Ansehen. Manch heimischer Firmenlenker, aber auch die internationale Konkurrenz kann sich ein Beispiel an ihm nehmen, um nicht den digitalen Anschluss zu verpassen.

Was wurde nicht schon alles über Digitalisierung gesagt und geschrieben – vor allem darüber, dass Deutschland nach und nach den digitalen Anschluss verliere und drauf und dran sei, im globalen Wettbewerb ins Hintertreffen zu geraten. All diesen Berichten ist eines gemein: Sie schauen vornehmlich auf das, was nicht funktioniert, statt sich vielmehr auf eine differenzierte Betrachtung zu konzentrieren. Trotz aller sicher existierenden Hindernisse und Verzögerungen – die Behauptung, deutsche Unternehmen stünden allesamt vor der Digitalisierung wie der Hase vor der Schlange, ist verkürzt und so nicht haltbar.

Doris Albiez

Es ist also Zeit, sich die Firmen und ihre Geschäftsmodelle genauer anzusehen. Zwar mögen digitale Dienste für die Massen von amerikanischen Konzernen wie Google, Amazon oder Facebook beherrscht werden, bei der Digitalisierung der Industrie sind deutsche Unternehmen jedoch Meister. EOS aus dem oberbayerischen Krailling beispielsweise ist führend bei 3-D-Druckern. Schunk aus Lauffen am Neckar, Spezialist für Greifzeuge und Spanntechnik, rüstet Roboter weltweit mit digital gesteuerten Fingern aus, sodass sie Werkstücke exakt bewegen können. TeamViewer mit Sitz im schwäbischen Göppingen, Experte für die Fernwartung von Computern und Smartphones, ist inzwischen auf über 1,8 Milliarden Geräten installiert. Die Märkte und Geschäftsmodelle dieser Unternehmen sind höchst verschieden, aber eins haben sie alle gemeinsam: Sie spielen mit ihren digitalen Lösungen auf internationaler Bühne ganz vorne mit. Hidden Champions – also unbekannte Weltmarktführer – werden solche erfolgreichen Mittelständler genannt.

Die Spur ist frei für den Mittelstand …

Den kompletten Beitrag finden Sie im Open-Content-Buchprojekt „Handbuch Digitalisierung“ veröffentlicht.
Lesen Sie hier mehr…

KI-Start-Ups

Bisher gibt es in Deutschland ca. 275 Startups die sich im Kern ihrer Entwicklungsarbeit den KI-Technologien und Anwendungen verschrieben haben.

Der geopolitische Wettlauf

Um positiv zu starten, wir sind in Deutschland Pioniere, wenn es um das Thema KI geht. „Es ist wichtig für unseren Fortschritt, dass es immer wieder Menschen gibt, die das scheinbar Unmögliche verfolgen“, sagte Bundesforschungsministerin Anja Karliczek 2018 zum 30-jährigen Jubiläum des Deutschen Forschungszentrums für Künstliche Intelligenz.

Was ist KI?

Künstliche Intelligenz“ – wie kaum ein anderer weckt gerade die­ser Begriff Ängste und Hoffnun­gen, die Vorstellung von utopi­schen Welten, in denen der Einzelne seinen Neigungen und Interessen nachgehen kann, während intelligente Maschinen alle mühsa­men und ungeliebten Tätigkeiten überneh­men, oder die Vorstellung einer Dystopie, in der die Maschinen die Macht überneh­men und schließlich den nutzlos gewordenen Menschen beseitigen.

Internationalisierung beginnt bei der Sprache

Weltweit mitreden können – dank automatisierter Übersetzungsprozesse

von Christian Weih-Sum

Willy Brandt sagte einmal: „I‘m selling to you, I speak your lan­guage. If I‘m buying, dann müssen Sie Deutsch sprechen.“ Dieses Zitat ist nach wie vor aktuell. In internationalen Märkten wird ein Unternehmen seine Produkte nur dann erfolgreich vermarkten, wenn es auch die kulturellen Gegebenheiten der Zielmärkte berücksichtigt. Die Adaption und Lokalisierung der gesamten Produkt- und Unternehmenskommunikation für das jeweilige Land spielen dabei eine zentrale Rolle – nicht zuletzt aufgrund des zunehmenden Einkaufs über das Internet.

Für einen erfolgreichen internationalen Marktauftritt greift das pure Übersetzen also nicht weit genug. Vielmehr müssen Inhalte lokalisiert, also nicht nur von einer Sprache in eine andere transformiert, sondern dabei länderspezifische Gegebenheiten berücksichtigt werden.

Christian Weih-Sum

Bevor ein Interessent sich für ein Produkt entscheidet, hat er sich bereits intensiv im Internet informiert. Umso wichtiger ist es, dass er attraktive Inhalte auf der Webseite eines Anbieters vorfindet, die „Lust auf mehr“ machen. Idealerweise finden sich entlang der Customer Journey an jedem Touchpoint Informationen in verständlicher Form wieder. Verständlichkeit über alle Phasen der Customer Journey hinweg stellt eine Grundvoraussetzung für die Bildung von Vertrauen dar, das als einer der wesentlichen Erfolgsfaktoren für Marken und damit für die Kaufentscheidung gilt. Dazu gehört auch, dass die Inhalte in der jeweiligen Landessprache vorhanden sind.

In Zeiten zunehmender Personalisierung erwarten Interessenten, dass sie Produktbeschreibungen, Artikeltexte, Kategorietexte, Multimedia-Inhalte für Shop und Marktplätze genauso wie Unternehmenswebseiten, Landingpages, Blogs, Kurznews und Ankündigungen, Ratgeberinhalte, E-Books, Kundenfeedbacks und Bewertungen in ihrer Landessprache vorfinden. Entgegen der Annahme vieler Verantwortlicher für Marketing, Content und Verkauf ist es nicht ausreichend, den vorhandenen Content nur in englischer Sprache vorzuhalten.

Den kompletten Beitrag finden Sie im Open-Content-Buchprojekt „Handbuch Digitalisierung“ veröffentlicht.
Lesen Sie hier mehr…

Künstliche Intelligenz ohne Vorurteile

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren.

Die Chancen der künstlichen Intelligenz

Künstliche Intelligenz (KI) ist heute in aller Munde. Auf gesellschaftlicher, politischer und wirtschaftlicher Ebene schlägt kaum ein anderes Thema so große Wellen, schürt Faszination aber auch Zukunftsangst.

Digitale Souveränität wahren

ie TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Proaktives Master Data Management

Proaktiv oder reaktiv? Master Data Management in der Organisation verankern

Wer Master Data Management (MDM) im Unternehmen vorantreiben und etablieren möchte, steht vor einer Reihe Entscheidungen. Die strategische Aufhängung des Themas in der Organisation, die Zuweisung von Zuständigkeiten und die Ausgestaltung der Anlage- und Korrekturprozesse für sämtliche Unternehmensdaten gilt es zu definieren.
Im Interview mit Herrn Dr. Brockmann, Gründer der innoscale AG, erfahren Sie mehr zu den Ausgestaltungsvarianten.

Herr Dr. Brockmann, welche Strukturen sind nötig, damit MDM funktioniert?

„Der Schlüssel zur nachhaltigen Datenqualität ist zweifellos ein proaktiver (Vermeidungs-)Ansatz.
Dr. Tobias Brockmann

Zu Beginn des MDM-Projekts kommt es ganz darauf an, wie weit die MDM-Reife eines Unternehmens ist. Viele Faktoren spielen dabei eine Rolle. Gab es bereits Voranalysen oder Data-Governance-Richtlinien? Eventuell existieren bereits erste Regeln zur Neuanlage oder Korrektur von Daten. Mitunter wurden bereits Ansprüche an die Datenqualität formuliert. Dann ist es nötig zu evaluieren, wie weit das Know-How zum Stammdatenmanagement im Unternehmen schon aufgebaut ist. Und schließlich muss eine Grundsatzentscheidung dazu gefällt werden, wie MDM organisatorisch im Unternehmen aufgehängt werden soll. Dafür gibt es zwei klassische Modelle: zentral oder dezentral.

Der zentrale Ansatz zeichnet sich durch zentrale Anlageprozesse und Pflegeprozesse aus. Häufig ist das MDM-Team ein größer. Einer unserer Kunden beschäftigt beispielsweise zwölf Mitarbeiter in der MDM-Abteilung. Deren Zuständigkeiten sind in Teilbereiche aufgeteilt: Materialwirtschaft, Kreditoren, Debitoren, Instandhaltungsdaten, usw.

Der dezentrale Ansatz beinhaltet eine steuernde MDM-Service-Einheit, die Vorgaben definiert, Prozesse ausgestaltet und Regeln aufbaut. Diese werden dann über ein Rollenkonzept, bestehend aus MDM-Ownern, Data Stewards und Data Producern.

Data Stewards übernehmen für einen bestimmten Teil der Unternehmensdaten die Qualitätssicherung und die Kontrolle über die Einhaltung von Data-Governance-Vorgaben. Sie kommen zwingend aus den Fachabteilungen und sind in den gesamten MDM-Prozess bestmöglich zu integrieren. Data Producer sind mit der Neu-Anlage und Pflege von Daten betraut.

Wer verfügt über das nötige MDM-Know-How im Unternehmen?

Es gibt kein eigenes Berufsbild der MDM-Experten. Häufig handelt es sich um ehemalige Datenanalysten oder Personen, mit SAP-Erfahrung. Ich treffe in der Regel Heads of Master Data Management oder Leiter Stammdatenmanagement, die zuvor als Data Producer Stammdaten in den Systemen gepflegt haben und dann in die leitende Rolle aufgestiegen sind.

Ein weit verbreitetes Missverständnis ist, dass Stammdatenmanagement ein IT-Thema ist und die entsprechende Abteilung deshalb an die IT anzugliedern sei. Meine klare Position dazu ist, dass MDM ein fachliches Thema ist und es deshalb am besten zu bearbeiten ist, wenn es als eigenständige Abteilung existiert oder aber an die Fachabteilungen angebunden ist. Trotzdem gilt: Es geht nicht ohne die IT – je enger die Zusammenarbeit desto besser. Die Aufgabe der IT sehe ich darin, die Software zu betreiben, Server zur Verfügung zu stellen und bei der Schnittstellen-Integration zu unterstützen.

Wie läuft der Start eines MDM-Projekts ab?

Wenn alle Ressourcen bereitstehen, starten wir das Projekt mit folgenden Fragen:

  • Welche Systeme gibt es?
  • Welche Datenbanken sind darunter?
  • Wie hängen die Systeme jetzt schon zusammen?
  • Welche Datenfelder sind relevant für die Messung der Datenqualität?
  • Welchen Kriterien sind maßgeblich für die Messung der Datenqualität?

Das ist das IST-Bild. Häufig ist es bei unseren Kunden bereits vorhanden und wir können darauf zurückgreifen. Dabei lässt sich sehr viel über die Organisation lernen. Wir sprechen über Abhängigkeiten, Geschäftsprozesse und erfahren, wer für was zuständig ist.

Im nächsten Schritt entwerfen wir dann das SOLL-Bild. Wir klären, ob unsere MDM-Software sich einfach über die aktuelle Systemarchitektur legen soll oder in das gesamte Szenario zu integrieren ist. Die wichtigste Entscheidung, die dahintersteht, betrifft die Data-Governance-Prozesse. Diese Prozesse umfassen die Anlage von Stammdaten, deren Änderung sowie die sogenannten redaktionellen Prozesse. Gemeinsam mit den Kunden entscheiden wir, ob Änderungen an der Data Governance vorzunehmen sind, z.B. Änderungen an dem Datenmodell oder an den Regeln zur Messung der Datenqualität.

Wie funktioniert die Verbesserung der Datenqualität in der Praxis?

Ein reaktiver Ansatz bedeutet, dass weitestgehend alles beim Alten bleibt. Wir prüfen die Qualität der vorhandenen Daten und verbessern sie entweder im Quellsystem oder in unserem Software-Tool und spielen sie dann zurück.

Der proaktive Ansatz zielt darauf ab, neue Datenfehler zu vermeiden, indem die Neuanlage und Korrektur ab einem bestimmten Zeitpunkt im Projekt nur noch über die MDM-Software erfolgen. Der Schlüssel zur nachhaltigen Datenqualität ist zweifellos ein proaktiver (Vermeidungs-)Ansatz: Fehleingaben vermeiden, sämtliche Änderungs- und Anlageprozesse über das MDM-Tool abbilden und so die Mitarbeiter entlasten. Der proaktive Ansatz ist aber aufwändig, bedarf organisatorischer Anpassungen und benötigt eine entsprechende Software-Unterstützung. Daher starten viele Unternehmen zunächst mit einem reaktiven Ansatz und bauen im Laufe der Zeit schrittweise ein proaktives Szenario darauf auf.

Und schließlich kann es losgehen mit der Bereitstellung von Servern, Installation der Software und Integration der Datenbanken. Wir beginnen zumeist mit einem einzelnen Datenbereich – je nach Priorität unserer Kunden: Debitoren, Kreditoren, Materialstämme oder einzelnen Produktgruppen aus dem Materialstamm. Eine Pilotierung zeigt dann, ob die erarbeiteten Konzepte und Software-Tools den gewünschten Erfolg bringen.


Das Gespräch führte Nadja Schröder, Marketing Managerin bei der innoscale AG.

 

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Ist das KI oder kann das weg?

Aktuell wird viel über künstliche Intelligenz (KI) diskutiert, von der man wahre Wunder erwartet oder vor der man sich fürchtet. Auch in Marketing und Vertrieb beschäftigt man sich mit der Thematik. Allerdings ist vielen nicht klar, was man unter künstlicher Intelligenz versteht und wie man sie sinnvoll einsetzt. Entsprechend wenig werden die vorhandenen Angebote in der täglichen Arbeit genutzt. Dabei gibt es bereits erfolgreiche Use-Cases, die zeigen, wie künstliche Intelligenz heute schon erfolgreich genutzt werden kann, um die Arbeit in Marketing und Vertrieb weiter zu automatisieren. In diesem Beitrag finden sich einfach umsetzbare Praxistipps, mit deren Hilfe man heute beginnen kann, KI in Marketing und Vertrieb einzusetzen.

Digitaltrends für 2020

2020 steht vor der Tür und gibt einen willkommenen Orientierungspunkt dafür, welche Trends und Entwicklungen das kommende Jahr entscheidend mitbestimmen werden. Technologien wie Künstliche Intelligenz und die Cloud entwickeln sich rasant weiter und werden auch in 2020 zu den dominierenden Themen der Digitalisierung gehören. Doch die Hürden auf dem Weg zur erfolgreichen Implementierung werden dank innovativer Lösungen wie Datenvirtualisierung immer kleiner.

  1. Künstliche Intelligenz für Conversational Analytics
    Künstliche Intelligenz ist in den vergangenen Jahren immer stärker auf das Radar von Unternehmen gerückt. Dabei dominierte vor allem das große Potenzial durch effizientere Prozesse und Automatisierung. Echte Use Cases waren bisher hingegen rar gesät. Das wird sich 2020 ändern: Die Verzahnung von KI mit Sprachassistenten wie Google und Alexa wird die Customer Experience auf ein neues Level heben. Natural Language Processing (NLP) hilft dabei, Kundenanfragen besser zu verstehen und schneller weiterzuverarbeiten, indem diese in analysierbare Daten konvertiert werden. So lassen sich diese leichter durch Analyse-Tools auslesen und Unternehmen können ihr Angebot besser personalisieren und Zielgruppen treffgenauer definieren. Auch Datenvirtualisierung wird sich hier als Schlüsselfaktor etablieren. Die Technologie ermöglicht es, alle relevanten Daten in dem jeweils benötigten Format bereitzustellen und kann damit zur Produktivität der Data Scientists beitragen. Gartner prognostizierte dieses Jahr, dass 2020 bereits 50 Prozent aller analytischen Abfragen durch Suche, NLP oder automatisierte Software-Anfragen generiert wird.
  2. Der Digital Twin auf dem Vormarsch
    Ein digitaler Zwilling ist die digitale Darstellung eines physikalischen Objekts oder Systems. Digital Twins werden verwendet, um ein virtuelles Duplikat von physischen Objekten mit Hilfe von Sensoren durch computergestütztes Design (CAD) und Modellierungssoftware zu erstellen. Digitale Zwillinge werden während der Produktentwicklung verwendet, um die Produktleistung und das Produktionssystem zu simulieren sowie Prognosen und Bewertungen aufzustellen, ehe in physische Prototypen und Anlagen investiert wird. Durch Simulationsmodellierung, Datenanalyse und maschinelles Lernen sind Digital Twins in der Lage, den Bedarf an Prototypen zu reduzieren. So verkürzt sich die Entwicklungszeit, während sich die Qualität des Endprodukts verbessert.
    Die meisten Analysten sind der Auffassung, dass der verstärkte Einsatz von Digital Twins mit dem Vormarsch des Internet of Things (IoT) einhergeht. Laut einer aktuellen IoT-Implementierungsstudie von Gartner „verwenden 13 Prozent der Unternehmen, die Projekte im IoT-Bereich verfolgen, bereits Digital Twins, während 62 Prozent entweder dabei sind, entsprechende Prozesse zu implementieren oder dies planen.“ Die zunehmende Popularität von digitalen Zwillingen ist vor allem darauf zurückzuführen, dass sie die Gestaltung von IoT-Ökosystemen erheblich vereinfachen und gleichzeitig deren Effizienz steigern.
  3. Stärkere Diversifizierung durch hybride Multi-Cloud
    Cloud-Lösungen stellen heute eine zentrale Säule für erfolgreiche Digitalisierungsstrategien dar. Dabei werden sich die flexiblen Bereitstellungsmodelle über hybride Multi-Cloud-Strukturen weiter ausbreiten und stärker diversifizieren. Diese erlaubt es Unternehmen, ihre Infrastruktur exakt auf die eigenen Bedürfnisse zuzuschneiden und die Vorteile aller Plattformen zu nutzen. Zum Beispiel können Unternehmen riesigen Mengen an unsensiblen Daten in Public Clouds speichern, während sensible Kundendaten in Private Clouds gehalten werden und die On-Premises-Infrastruktur für die Bearbeitung von KI/ML-Workloads genutzt wird.
    Zudem bietet die Multi-Cloud-Architektur Schutz vor Ausfällen. Wenn ein Cloud-Service ausfällt oder offline geht, hat der Nutzer die Möglichkeit, mit einer anderen Cloud zu arbeiten. Datenschutz und Disaster Recovery sind das Fundament für die erfolgreiche Implementierung einer Multi-Cloud-Architektur. Viele Multi-Cloud-Umgebungen unterstützen Unternehmen bei der Einhaltung von Governance-, Risikomanagement- und Compliance-Vorschriften. Um die unterschiedlich gelagerten Datensätze zuverlässig bereitzustellen und zu strukturieren, wird zudem Datenvirtualisierung stärker in den Vordergrund rücken, um die volle Kontrolle über komplexe Hybrid-Cloud-Infrastrukturen zu gewährleisten und agil zu bleiben. Datenvirtualisierung erleichtert den Zugriff auf fragmentierte Daten und modernisiert die Infrastruktur ohne Einbuße bei Geschwindigkeit oder Funktionsfähigkeit und wird also im Bereich der hybriden Architekturen eine immer wichtigere Rolle spielen.

Weitere Informationen unter:
www.denodo.com

Cyberbetrug mit Hilfe von Abwesenheitsnotizen

Weihnachten steht vor der Tür, und so wie die Feiertage 2019 liegen, dürfte es wohl für den überwiegenden Teil der Arbeitnehmer am Jahresende eine verdiente Auszeit geben. Dabei ist es üblich, eine Abwesenheitsnotiz für eingehende E-Mails zu erstellen. Ziel ist natürlich sicherzustellen, dass wichtige Nachrichten nicht einfach bis zur Rückkehr des Urlaubers im Posteingang liegen, sondern das Fortlaufen des Geschäftsbetriebs ermöglicht wird. So weit – so gut!

Doch leider haben mittlerweile auch Cyberkriminelle festgestellt, dass sich diese Abwesenheitsnotizen perfekt als Grundlage für einen Cyberbetrug eignen. Daher ist es wichtig, sich daran zu erinnern, dass einige der eingehenden E-Mails von Leuten kommen, die man nicht kennt – und in einzelnen Fällen sogar von kriminellen Akteuren stammen, die dem Unternehmen Schaden zufügen wollen. Das mag nun etwas weit hergeholt klingen, ist es aber nicht.

Die vom Urlauber angegebenen Daten können für böswillige Zwecke verwendet werden und das steigert die Wahrscheinlichkeit, dass das Unternehmen einem Angriff ausgesetzt wird. Denn: Das Problem an einer detaillierten Out-of-office-Mail ist, dass auf diese Weise Cyberkriminelle erfahren, dass jemand am 21. Dezember in Urlaub geht und am 7. Januar wiederkommt. Ein kurzer Blick auf das Facebook- oder Instagram-Profil zeigt außerdem, dass der abwesende Mitarbeiter über Weihnachten zunächst bei den Eltern in Berlin ist und im Januar ein paar Tage in den Bergen. Die Kriminellen wissen dann genau, in welchem Zeitraum sie sich eine Identität zunutze machen können. Dass die Angreifer via gegebenenfalls ungesicherte Social-Media-Profile eben auch über die Ferienorte informiert sind, macht es noch einfacher, den Kollegen oder Geschäftspartnern des Urlaubers dessen Identität vorzutäuschen. Bei diesen Täuschungsmanövern der Cyberkriminellen geht es meist darum, Personen, die mit sensiblen Daten arbeiten oder Einfluss auf Geschäftsvorgänge haben, wie in der Buchhaltung, im Personalwesen und der Führungsebene, in ihrem Sinne zu beeinflussen.
Dabei wäre es sehr einfach, durch wenige Schritte die Chancen der Angreifer auf Erfolg drastisch zu reduzieren. Folgende drei Tipps helfen dabei, ein besseres Gleichgewicht zwischen Produktivität und Sicherheit zu finden.

Tipp #1: So wenig Details wie möglich in die Abwesenheitsnotiz

Was müssen die Kollegen und Geschäftskontakte über die Abwesenheit wissen? Sicher nicht viel. Und der Grund für die wenigen Informationen ist offensichtlich: Nicht nur Geschäftskontakte oder Kollegen können dem Abwesenden eine Nachricht schicken, während dieser nicht im Büro ist. Das können auch Cyberkriminelle. Und diese erhalten die automatische Antwort auf deren Basis sie versuchen könnten, Daten oder Geld des Unternehmens zu stehlen. Denn es erscheint nicht sonderlich schwierig, aufgrund der Fülle der Daten, die in manch einer Abwesenheitsnotiz stehen, die Identität des Urlaubers vorzutäuschen.
Es gilt folgendes zu beachten:

  • Keine Angaben direkter Durchwahlen des Mitarbeiters, des Vorgesetzen oder der Kollegen
  • Keine persönlichen Handynummern nennen
  • Keine Namen, Titel und E-Mail-Adressen von Kollegen und Vorgesetzten angeben
  • Wenn möglich keine konkreten Termine und Details zur eigenen Abwesenheit nennen

Zum Beispiel anstelle dieser Antwort:
Ich bin bis 7. Januar im Urlaub in den Bergen. Falls es dringend ist, rufen Sie mich bitte unter meiner Handynummer (0123) 4567890123 an oder kontaktieren Sie meine Kollegin Maria Huber unter mhuber@abcxyz.de oder (0123) 4567 890 – 123.
…ließe sich das so formulieren:
Ich bin derzeit nicht im Büro. Wenn Sie eine dringende Angelegenheit haben, können Sie mich über meine Handynummer erreichen oder einen anderen Mitarbeiter meiner Abteilung über unsere allgemeine Firmentelefonnummer kontaktieren. Anderenfalls melde ich mich nach meiner Rückkehr.

Beide Antworten liefern genügend Informationen, damit informierte Absender bei Bedarf entsprechend handeln können. Nicht informierte Absender – einschließlich solcher, die E-Mails mit unerwünschten oder bösartigen Anfragen senden – erhalten bei der zuletzt genannten Meldung jedoch nur minimale Informationen, auf die sie reagieren können. Das Fälschen der Identität bei Beispiel zwei erfordert daher weitaus mehr Arbeit in der Recherche – und die wollen Cyberkriminelle gern vermeiden.

Tipp #2: Entwurf separater Antworten für interne und externe Abwesenheitsnotizen

Einige E-Mail-Tools ermöglichen es, Abwesenheitsantworten auf der Grundlage der Quelle der eingehenden Nachricht anzupassen. Hier lassen sich beispielsweise für Nachrichten aus dem eigenen Unternehmen durchaus Vertretungen und Kontaktdetails nennen, die in der externen Nachricht tunlichst vermieden werden sollten (siehe Tipp #1).
So lässt sich sicherstellen, dass die internen Abläufe weiterhin funktionieren, Absender externer Nachrichten jedoch nicht mehr erfahren als notwendig.

Tipp #3: Wer muss was wirklich wissen?

Eine Abwesenheitsnotiz allein ist – gerade, wenn der Mitarbeiter in genehmigungspflichtige Geschäftsprozesses eingebunden ist – möglicherweise nicht ausreichend, um diesen Prozess während der Abwesenheit aufrecht zu erhalten. Zusätzliche individuelle Informationen an die Kollegen und Geschäftspartner, mit denen man sehr eng zusammenarbeitet, helfen noch vor Abreise in den Urlaub dabei, eine angemessene Orientierung zu geben.
Für diesen Personenkreis sind Informationen wie Aufenthaltsort und Vertretungsregelungen sehr wichtig. Darüber hinaus könnte es sinnvoll sein, diese Personen über Details der Reise und regelmäßiges, gelegentliches oder gar kein Prüfen der E-Mails zu informieren. Dazu gehört auch eine Notfallkontaktnummer, um einen zweiten, von der E-Mail unabhängigen Kommunikationspfad zu haben. Zudem sollten die Kollegen und Geschäftspartner darauf hingewiesen werden, dass gerade bei Anfragen im Zusammenhang mit Finanztransaktionen oder vertraulichen Datenübertragungen größte Vorsicht geboten ist.
Dies gilt übrigens nicht nur für die Urlaubszeit: Anfragen und Aktivitäten im Zusammenhang mit vertraulichen Daten und Überweisungen sollten stets ordnungsgemäß über einen zweiten Kanal überprüft werden und keinesfalls ausschließlich per E-Mail. Damit lässt sich meist sehr einfach prüfen, ob Anfragen wirklich vom Abwesenden stammen oder ob jemand versucht, dessen Identität vorzutäuschen.

Über die Autorin

Adenike (Nikki) Cosgrove ist bei Proofpoint für die Cybersecurity-Strategin bei Proofpoint. Sie verantwortet die internationalen Marketingstrategien für die europäischen und asiatisch-pazifischen Märkte. Sie verfügt über Expertise in wichtigen regionalen Cybersicherheitsstrategien wie personenzentrierte Sicherheit, Risikomanagement, Datenschutz und Compliance.

Weitere Informationen unter:
www.proofpoint.com

CC-BY-ND

Cyberbetrug mit Hilfe von Abwesenheitsnotizen is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Adeniki (Nikki) Cosgrove

„Natürliche Autorität plus Digitalkompetenz“

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Heiko Seif und Harald Ostermann von der Munich Business School zum neuen CDO-Programm. Hier können sich Führungskräfte aus den Unternehmen, die an den entscheidenden Stellen im Kontext der digitalen Transformation, sitzen, weiterbilden und genau die Expertise und Fachpraxis gewinnen, die sie brauchen, um Strategien im digitalen Wandel zu generieren und zu etablieren.

Welche Intention steht hier dem CDO-Programm Ihres Hauses?
Prof. Dr. Heiko Seif: Wir haben uns sehr intensiv mit den Gründen und Ansätzen für ein CDO Programm auseinandergesetzt – gerade, weil es bereits unterschiedlichste Angebote zum weiten Themenfeld der Digitalisierung gibt. Dazu haben wir uns als Munich Business School (MBS) gemeinsam mit Experten der Harvard University und der Innovationswerkstatt aus Amberg tiefergehend mit der Thematik beschäftigt, wie die Unternehmen die aktuell wohl größten Herausforderungen rund um die Digitalisierung meistern. Herr Ostermann, Geschäftsführer der Innovationswerkstatt, meint, dass die meisten Unternehmen die genaue Bedeutung der digitalen Transformation für Ihr eigenes Unternehmen nicht kennen. Seiner Meinung nach sprechen wir oft sehr allgemein über das Thema Digitalisierung, aber sehr selten von konkreten Maßnahmen für ein Unternehmen, das sich die Digitalisierung zu Nutze machen will. Ich, der als Forschungsdekan der MBS in enger Abstimmung mit der Harvard University stehe, denke sogar, dass das Thema viel zu abstrakt diskutiert wird. Meiner Meinung nach sollte man die Begrifflichkeit „Digitalisierung“ zunächst entmystifizieren. In den meisten Fällen zeigt sich, dass die Digitalisierung für Unternehmen gar nicht die dramatischen Konsequenzen hat, die laut Beraterstudien und berühmten digital-disruptiven Einzelfällen wie Uber oder Airbnb drohen. Das Kernprodukt eines Unternehmens bildet aus Sicht der Kunden in den meisten Fällen auch nach der Digitalisierung die Basis seines Geschäfts. Wissenschaftliche Untersuchungen zeigen, dass es bei der Digitalisierung nicht in erster Linie um die Ausschöpfung von Möglichkeiten der Informationstechnologie geht – sondern darum, unter Anwendung digitaler Hilfsmittel auf die Veränderungen von Kundenbedürfnissen zu reagieren und Ihnen einen verbesserten Mehrwert zu bieten. Das bedeutet, dass zu Beginn von Digitalisierungsinitiativen zunächst die Marktentwicklung auf Basis von veränderten Kundenbedürfnissen verstanden werden muss. Mit diesem Aspekt hat man natürlich eine ganz andere Herangehensweise an das Thema Digitalisierung. Die meisten Unternehmen fokussieren sich zu früh darauf, welche Potenziale sich wohl durch die Digitalisierung in den Geschäftsprozessen oder im Geschäftsmodell ergeben könnten. Diese Prämisse ist an sich nicht falsch, führt aber häufig zu Frustration bei Mitarbeitern, da sie durch eine damit verbundene Umstrukturierung einen deutlichen Mehraufwand und neue Tätigkeitsfelder bekommen, ohne den tieferen Sinn dahinter zu verstehen. Damit verbunden ist der Umstand, dass die Mitarbeiter keinen inneren, eigenen Antrieb verspüren, mit Freude diese Herausforderungen anzugehen. Das CDO-Programm wurde so konzipiert, dass sowohl der Einstieg in die Digitalisierung auf Basis von Erkenntnissen über Kunden und Markt gelingt als auch die weiterführende digitale Transformation mit einem motivierenden digitalen Arbeitsumfeld. Wir finden das Prinzip von Antoine de Saint-Exupéry hierbei sehr treffend und erfolgsversprechend: Die Sehnsucht nach dem großen, weiten Meer und den aussichtsreichen Zielen motiviert die Leute einfach deutlich mehr, als eine Handlungsanleitung, wie man die schönsten Schiffe baut.

Welche Themenfelder decken Sie mit dem Studiengang konkret ab?
Harald Ostermann: Mit unseren Erfahrungen der letzten zwei bis drei Jahre aus unseren Projekten zum Forschungstransfer der Digitalisierung in die Industrie in Zusammenarbeit mit der Innovationswerkstatt haben wir erkannt, dass der entscheidende Aspekt die Identifikation von unbefriedigten Bedürfnissen bei den Kunden darstellt. Das Verhalten unserer Kunden, die Werte und die Erfahrungen haben sich in den letzten Jahren nicht zuletzt durch die Nutzung digitaler Medien stark verändert. Dabei stellt sich die Frage, welche Wünsche und Probleme die Kunden bei der Ausübung Ihrer veränderten Tätigkeiten haben. Wie können wir aufgrund der neuen digitalen Möglichkeiten jenen Kunden helfen, diese Herausforderungen besser zu meistern als bisher? Es müssen nicht unbedingt die immer wieder proklamierten gravierenden Veränderungen sein, um auf diese Frage eine gute Antwort zu finden. Erste Erfahrungen im Rahmen von erfolgreichen digitalen Transformationen haben gezeigt, dass sich der Kern des originären Produkts oder der Service kaum verändert, vielmehr wird jedoch häufig der Nutzen oder die Leistungsfähigkeit eines bestehenden Angebotes durch digitale Möglichkeiten deutlich erweitert.
Prof. Dr. Heiko Seif: Natürlich müssen interne Strukturen eines Unternehmens neu ausgerichtet werden, damit die neuen Values den Kunden gewinnbringend angeboten werden können. Des Weiteren geht es darum, die Teams in Unternehmen mit attraktiven Zielen für die digitale Mission zu gewinnen, anstatt sie mit zusätzlichen Projekten zu belasten. Dabei geht es darum, dass sie die Notwendigkeit zu Veränderungen von sich aus erkennen und die Implementierung auch realisieren wollen, anstatt dazu „gezwungen“ zu werden. Einen solchen Strategy-Culture-Fit sehen wir als Leiter des Programms als die größte Herausforderung an. Dafür setzen wir frisch bewährte methodische und didaktische Lösungsansätze ein, um eine Anschlussfähigkeit der Digitalisierung an das jeweilige Unternehmen herzustellen und einen intrinsisch motivierten Zug entstehen zu lassen, damit die Digitalisierung bei den Unternehmen in der Breite gelingt. Ein entscheidender Erfolgsfaktor im CDO-Programm ist zum einen, dass die Ausbildung projektbasiert an einem internen, realen Entscheidungspapier des eigenen Unternehmens geschieht und zum anderen greifbare nachvollziehbare Maßnahmen erarbeitet werden, die eine maßgeschneiderte digitale Transformation ermöglicht. Dabei empfehlen wir, an überschaubaren Keimzellen im Unternehmen zu arbeiten und sukzessiv weiterzuentwickeln und nicht die komplette Organisationsstruktur mit fundamentalen Veränderungen zu überlasten.

Welchen Nutzen ziehen Unternehmen konkret aus dem Programm?
Harald Ostermann: Zunächst wird im Rahmen des CDO-Programms aufgeräumt mit dem Mythos „Digitalisierung“ und konkrete Ansatzpunkte zur wirksamen digitalen Transformation werden aufgezeigt. Das beinhaltet eine schnelle Bestandsaufnahme zum aktuellen Status quo der Digitalisierung im jeweiligen Unternehmen auf Basis eines vertraulichen, persönlichen Austauschs zwischen den Teilnehmern und den Dozenten sowie die Identifizierung der ersten Keimzellen der Digitalisierung. Über ein schlüssiges Methodenset wird der Weg aufgezeigt, wie ausgewählte Keimzellen im Unternehmen zu schnellen, agilen Organisationseinheiten werden, die dann von der Digitalisierung profitieren.
Prof. Dr. Heiko Seif: Im Rahmen der Ausbildung wird an realen Fällen der jeweiligen Unternehmen gearbeitet, insbesondere die Identifizierung von neuartigen Geschäftsmöglichkeiten durch digitale Hilfsmittel steht dabei im Vordergrund. Dazu wird ein konkretes, überschaubares Projekt aufgesetzt, das aufzeigt, wie das Thema Digitalisierung im Unternehmen realisiert werden kann. Das Thema Digitalisierung wird dadurch greifbar und verständlich gemacht. Wichtig ist in diesem Zusammenhang, dass man sich um die entscheidenden Basics kümmern wird, anstatt in einen unkoordinierten Aktionismus mit vielen Strohfeuern zu verfallen.
Harald Ostermann: Das Unternehmen erhält nach dem CDO Programm eine fundiert ausgebildete Führungskraft, die aus dem eigenen Unternehmen kommt, für das Neue brennt und somit als Brückenbauer hin zum digitalen Zeitalter bei der Geschäftsführung Akzeptanz findet. Mit der Kenntnis der grundlegenden Prinzipien der Digitalisierung bringt der CDO den Zeitgeist ins Unternehmen und entwickelt die bestehende Firmenkultur weiter. Anstatt Experten von außen, die sich zunächst in die Organisation einfügen müssen kommen hier Experten zurück ins Unternehmen, die bereits eine natürliche Autorität in den Strukturen besitzen – und somit leichter ihre neu erworbenen Digitalkompetenzen in die Umsetzung bringen können.
Als ein wesentliches Ergebnis entsteht am Ende des Programms ein 100-Tage-Plan zur digitalen Transformation mit konkreten Schritten, um den Fortschritt des Unternehmens in das digitale Zeitalter zu forcieren.

Das Programm ist auf 12 Wochen angesetzt. Muss der Arbeitgeber für drei Monate auf seinen CDO verzichten?
Prof. Dr. Heiko Seif: Natürlich nicht, schließlich ist uns sehr bewusst, dass es den Teilnehmern nicht an internen Aufgabenstellungen mangelt. Wir haben das Programm in zwei Phasen unterteilt: Die Teilnehmer entwickeln im Rahmen des CDO Programms die Fähigkeiten, Projekte mit Neuigkeitsgrad im Unternehmen erfolgreich zu implementieren und am Beispiel der Digitalisierung im eigenen Unternehmen umzusetzen, gerne auch an bereits schon laufenden Digitalisierungsinitiativen. Das umfasst den Aufbau von Methodenkompetenzen und das Befassen mit erfolgreichen Beispielen der Digitalisierung, zum Beispiel in Form von intensiven Diskussionen mit Digital Champions im kleineren Kreis. Zur vertiefenden Anwendung des Erlernten werden Challenges dieser Digital Champions als Aufgabenstellung gegeben, um im Nachgang einen erfolgreichen Transfer von digitalen Mustern ins eigene Unternehmen herbeiführen zu können. Das Programm besteht aus sechs intensiven zweitägigen Stages an sechs internationalen Locations mit engem Bezug zum Thema Digitalisierung. Durch die Zusammenarbeit mit gleichgesinnten Teilnehmern aus anderen Unternehmen entsteht ein stabiles, belastbares Netzwerk in Form eines CDO Circles. Zusätzlich bekommen die Teilnehmer Zugang zu exklusiven Netzwerkveranstaltungen und der Community unseres Kooperationspartners Next Industry, die sich branchenübergreifend mit den Anforderungen an C-Levels und Unternehmensorganisation beschäftigt, die sich aus dem technologischen Wandel ergeben.
Harald Ostermann: Um den Spirit erfahren zu können, der bei einer digitalen Transformation entstehen sollte, Besuchern wir die Digital Champions an der Havard University und im Silicon Valley. Insbesondere die Generationen übergreifende Zusammenarbeit von Youngstern mit erfahrenen Managern digitaler Unicorns macht die Magie aus, die vielen Unternehmen zu einem erfolgreichen Durchbruch geführt hat.
Prof. Dr. Heiko Seif: Am Ende des Programms haben sich die Teilnehmer für den Posten des CDO in ihrem Unternehmen qualifiziert und können diese Rolle mit Hilfe der erworbenen Methoden und Prinzipien der Digitalisierung souverän ausüben. Ein Zertifikat der Munich Business School mit einem Gegenwert von 15 ECTS Punkten bestätigt die Qualifikation für diesen zukunftsfähigen Job.

Weitere Informationen unter:
www.munich-business-school.de

Daten-Wiederherstellung in Rekordzeit wird zum Muss

Autor: Berthold Höflich, Sales Director für Deutschland und Österreich beim Storage Experten INFINIDAT

Im Juli 2019 lief die IT eines Betreibers von insgesamt 13 Krankenhäusern im Südwesten Deutschlands auf einmal richtig heiß: Eine Schadsoftware war nämlich gerade damit beschäftigt, die Datenbanken und Server der betroffenen Krankenhäuser zu verschlüsseln. Und ist die IT eines Krankenhauses befallen, geht es tatsächlich nicht „nur“ um Daten, sondern gleich auch um Menschenleben. Medizinische Einrichtungen müssen sich daher bei der Versorgung von Patienten auf eine wirklich reibungslos funktionierende IT-Infrastruktur verlassen können. Oberste Priorität hat dabei vor allem das Ziel, den laufenden Betrieb so gut wie möglich aufrechtzuerhalten. Laut dem Data Breach Investigation Report 2018 waren im letzten Jahr über 787 Unternehmen aus dem Gesundheitssektor von bösartigen Angriffen betroffen – und auch in diesem Fällen drehte sich alles um eine möglichst schnelle Wiederherstellung der Kontrolle über die medizinischen Vorgänge und – ebenso wichtig – um die Wiedererlangung des Kundenvertrauens.

Aber natürlich sind nicht nur Unternehmen, bei denen es um Leben und Tod geht, von Cyberangriffen betroffen. Im Gegenteil befinden sich sehr viele Unternehmen aus den unterschiedlichsten Branchen in einer Phase, in der sie sich zunehmend auf ihre Dateninfrastruktur verlassen müssen. Daher muss diese natürlich bestmöglich auf Ransomware-Angriffe, Datenverlust und Datenintegritätsprobleme vorbereitet sein. In einer „Always-On-Kultur“, die heute nicht nur für den Kunden, sondern gleichzeitig auch für den Dienstleister gilt, ist dabei zunehmend auch eine Wiederherstellung von Daten in kürzestmöglichter Zeit gefordert. Denn die Kunden erwarten einfach, dass ein Service immer dann zur Verfügung steht, wenn sie ihn gerade brauchen. Aus welchem Grund Systeme ausfallen, ist ihnen gleichgültig.

Markentreue in einer digitalen Welt?

Berthold Höflich ist Sales Director bei Infinidat

Unternehmen haben natürlich im Laufe der Jahre die Wichtigkeit des Kunden und seiner Ansprüche erkannt – gut zusammengefasst im geflügelten Gebot „Der Kunde ist König“. Heute stellt sich aber vielen Unternehmen die entscheidende Frage, ob in einer so schnelllebigen digital geprägten Welt Markentreue überhaupt noch existiert oder nicht. Denn Kunden und Anwender gewöhnen sich an den immer schnelleren und stabileren Zugriff auf Daten – und mit dieser Gewöhnung wachsen auch die Ansprüche der Anwender. So hat Salesforce in seiner jüngsten Studie zum „Stand des vernetzten Kunden“ festgestellt, dass „92 Prozent aller Kunden der Meinung sind, dass die Kundenzufriedenheit mit einem Anbieter genauso wichtig ist wie sein Produkt oder seine Dienstleistung selbst“.

Heute sind sich viele einig, dass eine der wichtigsten Voraussetzungen für eine positive Nutzererfahrung die Online-Verfügbarkeit ist. Die meisten CTOs und CEOs beschäftigt daher sicherlich in allen Ausfallszenarios vor allem wohl die Frage, wie sich die Dienstleistungen ihres Unternehmens schnellstmöglich wiederherstellen lassen. Denn die Gewinnung von Neukunden ist keine günstige Angelegenheit. Aktuelle Hubspot-Studien zeigen, dass die Kosten für Neukundenakquise in den letzten fünf Jahren um über 50 Prozent gestiegen sind. Für Unternehmen ist es also höchst sinnvoll, ihre bestehenden Kunden zu halten. Für Dienstleistungen und Produkte muss daher eine möglichst hohe Verfügbarkeit sichergestellt werden – und diese beginnt und endet vor allem mit der Verfügbarkeit, Verwaltung und Wiederherstellbarkeit von Daten und Informationen.

Fokus verschiebt sich: Recovery-zentrierter Ansatz wird wichtiger

Seit vielen Jahren implementieren Unternehmen daher Backup-zentrierte Lösungen. Jedoch dürfte es allmählich an der Zeit sein, vom Backup-zentrierten zu einem auf die Wiederherstellung konzentriertem Ansatz zu wechseln. Was bedeutet dies für Unternehmen, die ihre Backup- und Recovery-Infrastruktur aktuell halten wollen?

  • Wiederherstellungszeiten – Die meisten Unternehmen haben Schwierigkeiten, ihre Wiederherstellungszeiten zu verkürzen. Da aber das Kundenerlebnis während des Wartens auf die Wiederherstellung der Daten negativ beeinflusst wird, rückt genau dieser Punkt immer mehr in den Fokus.
  • Hochverfügbarkeit – Die Notwendigkeit einer schnellen Wiederherstellung erfordert eine hohe Verfügbarkeit der Wiederherstellungsinfrastruktur. Keine Organisation kann mehrere Stunden auf einen Austausch von Hardware warten, um eine Wiederherstellung einzuleiten. Kunden könnten sonst bereits den Umstieg zum Wettbewerber in Erwägung ziehen.

  • Abwägung von Kosten und Leistung – Die Kosten der Lösung müssen trotzdem niedrig bleiben. Der Ersatz kostengünstiger und leistungsfähiger Medien, etwa mit Flash, ist daher aus Kostensicht keine praktikable Lösung, um Backups zu beschleunigen. Performance-Probleme lassen sich viel eher durch eine bessere Architektur lösen.

  • Flexibilität oder „Elasticity“– Die Fähigkeit, den operativen Betrieb bei Bedarf zeitnah zu skalieren – man spricht hier auch von einem Capacity-on-Demand (COD)-Modell –, ermöglicht eine höhere Business-Agilität und damit auch höhere Einnahmen.

Durch die geschilderte zunehmende Abhängigkeit von Daten müssen Unternehmen ihre IT-Infrastrukturen heute anders planen und aufbauen als früher. Es wird immer wichtiger, Systeme so aufzusetzen, dass sie nach Angriffen schnellstmöglich zur Verfügung stehen. IT-Verantwortliche sollten daher frühere Entscheidungen neu bewerten und ihre Wiederherstellungs-Tools anpassen. So lassen sich auch immer strengere SLAs einhalten. Diese Entwicklung verursacht eine Verschiebung des Fokus von der reinen Backup-Geschwindigkeit hin zur Wiederherstellungsgeschwindigkeit. Genau diese Fokus-Verschiebung führt dann zur nötigen Flexibilität, um die laufende digitale Transformation weiter wie gewünscht durchzuführen. 

Da auch die Arbeitsweise der Anwender heute viel schneller getaktet ist, gehört eine größere Flexibilität oder „Elasticity“ in der Backup-Infrastruktur bei gleichzeitiger Beibehaltung der Schnelligkeit des Backups zu den wichtigsten Komponenten, um die betriebliche Effizienz zu steigern. Denn in Zeiten von Always-On gilt mehr als je zuvor: Nur zufriedene Kunden sind loyale Kunden.

Weitere Informationen unter:
www.infinidat.com

CC-BY-ND

Digitale Transformation und „Always-on-Kultur“ verschieben den Fokus: Daten-Wiederherstellung in Rekordzeit wird zum Muss is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Autor: Berthold Höflich

HR-Trends 2020: Mehr als Home-Office

Mark Strassmann, Senior Vice President und General Manager für LogMeIn’s Geschäfts-Unit Unified Communications und Collaboration, erklärt, wie Menschen künftig zusammenarbeiten und welche Anforderungen das an Unternehmen und ihre IT stellt.

Mark Strassmann: „Remote zu Arbeiten wird die Regel.“

Wo lesen Sie diese Zeilen? Im Büro, unterwegs oder zu Hause? Fast immer online sein zu können, „remote“ auf geschäftliche Daten zuzugreifen oder kurz mit den Kollegen zu chatten, ist für viele dank digitaler Tools längst selbstverständlich. LogMeIn, Experte für Unified Communications und Collaboration sowie Entwickler von Lösungen wie GoToMeeting, GoToConnect und GoToRoom, sagt für 2020 einen Paradigmenwechsel voraus: „Remote“ verlasse demnach die Nische von Home Office und Ausnahmeerlaubnis, damit Teams weltweit erfolgreich ortsungebunden zusammenarbeiten können. „2020 wird es Teil der Kultur werden, remote arbeitende Kollegen als eine Erweiterung des Unternehmens zu verstehen, quasi als virtuelle Satelliten“, sagt Mark Strassman, Senior Vice President und General Manager der LogMeIn-Geschäftsunit Unified Communications und Collaboration. Das zahle sich dann aus, wenn der Kulturwandel gelebt und entsprechend begleitet werde. Im Idealfall werde die Zusammenarbeit effizienter, der einzelne Mitarbeiter zufriedener und das Team erfolgreicher. Sieben Trendprognosen zeigen, wie Unternehmen jetzt die Weichen stellen können.

  1. Remote wird zur Regel
    Im Management ist der Wandel jetzt angekommen: Entscheider, die zuvor noch skeptisch waren, wenn ein Mitarbeiter „außer Haus“ arbeiten wollte, haben erkannt, dass „Remote“ nicht nur die Produktivität steigert, sondern auch die Bindung an das Unternehmen. Die Zahl der Mitarbeiter, die das Angebot annehmen, nicht mehr (nur) am Schreibtisch im Firmenbüro zu arbeiten, steigt. Die Studie „Arbeitsplatz der Zukunft 2018“ von IDG bezeugt, dass die Themen „Mobilität“ (58 Prozent), flexible Arbeitszeiten und Remote-Arbeit (54 Prozent) und neue Formen der Zusammenbarbeit (48 Prozent) für den „Arbeitsplatz der Zukunft“ unter Mitarbeitern in Unternehmen die wichtigsten Kriterien sind. Wer weiterhin dauerhaft im Büro tätig ist, wird die eigene Arbeitsroutine erweitern und Neues ausprobieren, um sich mit Remote-Kollegen an unterschiedlichen Orten auszutauschen – zum Beispiel durch kollaborative Tools, Protokolle, Chats und virtuelle Events zum Teambuilding.
  2. Neue Arbeitskultur verändert Anforderungen an Unternehmens-IT
    Lassen sich Arbeit und Privates immer weniger trennen, wächst auch der Einfluss von Mitarbeitern darauf, mit welchen Tools sie produktiv arbeiten können. Sie wollen keinen Bruch und komplett umdenken müssen, wenn neue Systeme eingeführt werden, sondern Funktionen nutzen, die sie aus ihrem Alltag kennen – zum Beispiel via Video zu kommunizieren oder Anwendungen über Sprache zu steuern. Gefordert sind anwenderfreundliche Produkte für Unternehmen, die den Nutzer ansprechen und gleichzeitig die hohen Anforderungen an Sicherheit, Kosten und Skalierbarkeit erfüllen. „Es ist zu erwarten, dass IT-Entscheidungen einen ganz neuen Ansatz verfolgen und die User Experience der Mitarbeiter in den Fokus rücken“, sagt Strassman.
  3. Geschäftsreisen werden neu bewertet
    Wenn jeder mit Kollegen an anderen Orten zusammenarbeiten und Meetings in aller Welt beiwohnen kann, ohne den Raum zu verlassen, bekommt Reisen eine neue Bedeutung. In den kommenden fünf bis zehn Jahren werden Geschäftsreisen, so LogMeIn, andere Ziele verfolgen, als nur einen Termin wahrzunehmen. Und auch die Zahl der Trips wird sich verändern. Statt ins Flugzeug zu steigen, um einen Kunden zu besuchen, erwartet das Management, dass eine Reise gleich mehrere Zwecke erfüllt. Mitarbeiter verbinden den Kundentermin mit der Chance, sich mit Kollegen vor Ort auszutauschen, eine Konferenz zu besuchen oder auf einem Event zu sprechen, Außerdem werden sie geschäftliche mit privaten Interessen verknüpfen, länger unterwegs sein – und zwischendurch remote arbeiten.
  4. KI und Datenanalyse erfordern neue Fertigkeiten – von allen
    Viele Mitarbeiter befürchten trotz anders lautender Thesen nicht, dass Roboter ihnen den Arbeitsplatz streitig machen könnten, sondern dass sie von besser ausgebildeten Kollegen verdrängt werden, die gut mit innovativer Technologie umgehen können. Dafür, dass sie Schritt halten und ihre Kenntnisse weiterentwickeln, müssen sowohl die Arbeitnehmer selbst als auch ihre Führungskräfte sorgen. Deren Aufgabe ist es, ein erfolgreiches Team aufzustellen, das optimal geschult ist. „Hier wird es neue Diskussionen geben. Denn manche Positionen erfordern nun Trainings, die bisher noch nicht mit diesen Tätigkeiten in Verbindung gebracht wurden“, führt Strassman aus.
  5. Arbeitsplatz ist Thema der Chefetage
    Zu wenig Ruhe im Großraumbüro, zu viele Tools, um noch konzentriert arbeiten zu können – derartige Kritik macht die Rahmenbedingungen moderner Arbeit auch zum Thema der Unternehmensleitung. An welchem Ort Angestellte konkret arbeiten und welche Hilfsmittel sie einsetzen, haben bisher HR-Abteilungen oder die Verwaltung entschieden. Das ändert sich, wenn Führungskräfte darauf achten, ob ihr Team produktiv zusammenarbeiten kann – bis hoch ins C-Level. Denn wenn die Rahmenbedingungen nicht passen, spüren die Unternehmen den Effekt deutlich: „Schon 2020 werden wir erleben, wie die Unternehmenskultur und speziell die Strukturen der Arbeitsplätze herangezogen werden, um gescheiterte Initiativen zu erklären“, prophezeit Strassman.
  6. Ein neues Profil entsteht: Remote Site Leader
    Fast jeder Standort hat einen Leiter, der die Abläufe vor Ort organisiert, Veranstaltungen plant, Tools auswählt oder für die Ausstattung zuständig ist. 2020 werden moderne Unternehmen Remote-Arbeit wie ein weiteres virtuelles Büro betrachten – und dafür eine neue Funktion schaffen. „Wir werden den Aufstieg designierter Remote-Leiter erleben, die eine Kultur für die nicht physisch vor Ort arbeitende Belegschaft schaffen, mit virtuellen Teamevents, Wettbewerben, Buchclubs oder einfach Chats mit lustigen GIFs“, erklärt Strassman.

Mithilfe des umfangreichen GoTo-Portfolios von LogMeIn sind Unternehmen bestens auf die Herausforderungen der Zukunft vorbereitet. Das neue GoToMeeting verbindet einfache und intuitive Anwendung mit verbesserter Kontrolle bei Bereitstellung, Verwaltung und Sicherheit für die IT-Abteilung. Zu den Vorteilen gehören leistungsstarke und verlässliche Video-Funktionen, branchenführende Audioqualität, ein neuer Meeting Hub, umfassende Meeting-Diagnostik sowie zusätzliche KI-basierte Übertragungsfunktionen. Diese Updates helfen, die Zusammenarbeit im Unternehmen mit einem schnelleren, moderneren Look-and-Feel zu optimieren. Das gilt sowohl über Webbrowser als auch Desktop- und mobile Anwendungen.

Die Auswirkungen der DSGVO auf die M&A-Due-Diligence

Die EU-Datenschutzgrundverordnung (DSGVO) ist anderthalb Jahre in Kraft. Umso wichtiger ist es für M&A-Akteure, das Thema ernst zu nehmen. Unternehmen müssen ihren Datenschutz und ihre Richtlinien sowohl in Bezug auf die Zielunternehmen als auch auf die Käufer verstärken, damit die Transaktionen erfolgreich durchgeführt werden können. Der weltweit führende SaaS-Anbieter von technischen Lösungen für den M&A-Prozess, Merrill Corporation, hat mit einer Studie die Auswirkungen der Verordnung auf die Due Diligence untersucht.

Autor Markus Schiller ist Head of DACH und CEE für die Merrill Germany GmbH. Zuvor war er als Sales Manager für Trading Technologies und als Kundenbetreuer für Thomson Reuters tätig. Er hat an der Purdue Universität in Indiana Betriebswirtschaft studiert und mit MBA abgeschlossen.

Auswirkungen in Deutschland

Für die Studie „M&A Due Diligence: The Impact of GDPR“ wurden über 500 M&A-Experten in ganz EMEA befragt, um herauszufinden, wie sich die DSGVO auf ihre Arbeit auswirkt. Die Ergebnisse sind verblüffend: Mehr als die Hälfte (55 Prozent) gaben an, dass sie an M&A-Transaktionen gearbeitet haben, die aufgrund von Bedenken bezüglich des Datenschutzes eines Zielunternehmens und seiner Einhaltung der DSGVO nicht vorangekommen sind. Und 73 Prozent der deutschen Befragten gaben an, sich vor diesem Hintergrund von Transaktionen zurückgezogen zu haben – der höchste Prozentsatz aller Länder in EMEA. Darüber hinaus gaben 57 Prozent der deutschen M&A-Experten (zweiter Platz nach Großbritannien mit 58 Prozent) an, dass die Datensicherheit zu ihren drei Top-Prioritäten bei der Due-Diligence-Prüfung zählt.

Neues Bußgeld-Modell

Die deutsche Datenschutzkonferenz (DSK) hat als gemeinsames Gremium der deutschen Datenschutzaufsichtsbehörden im Oktober 2019 ein neues Modell zur Berechnung von DSGVO-Bußgeldern veröffentlicht. Dieses neue Modell kann zu deutlich höheren Bußgeldern führen, als sie bisher von den deutschen Behörden verhängt wurden. Vor diesem Hintergrund sind die Verkäufer eines Unternehmens oder einer Beteiligung grundsätzlich, aber gerade im Hinblick auf eine reibungslose Due Diligence, noch stärker gehalten, die DSGVO einzuhalten. Die Größenklassen richten sich nach dem gesamten weltweit erzielten Vorjahresumsatz der Unternehmen. Auf Basis pauschalisierter Bemessungen des Umsatzes wird jetzt ein Tagessatz ermittelt, der mit einem Faktor multipliziert wird. Dieser Faktor ist an die Schwere der Tat gekoppelt und der Wert wird dann an die Umstände des Verstoßes angepasst.

Technologiebedarf

Abbildung 1: M&A-Deals in der DSGVO; Quelle: Merrill Corporation

Was kann getan werden, um die Einhaltung der Vorschriften sicherzustellen? Obwohl die DSGVO eine Due-Diligence-Prüfung komplexer und zeitaufwendiger macht, sollten sich die Beteiligten auf die Daten konzentrieren und die Einhaltung der DSGVO sollte als laufende Investition betrachtet werden. Daher sind neue Technologien nicht nur in Schlüsselbereichen des Due-Diligence-Prozesses hilfreich: Technologien wie integrierte Q&A, automatisiertes Schwärzen und Analysen sind jetzt in DatasiteOne, Merrills Due Diligence-Lösung, verfügbar und helfen zusätzlich bei der Einhaltung der DSGVO. Sie sind in den virtuellen Datenraum integriert, so dass man nicht mehr zwischen Softwareanwendungen hin- und herwechseln muss. Dies minimiert das Risiko von Sicherheits- und Datenschutzverletzungen.

Automatisches Schwärzen

Q&A während des Due-Diligence-Prozesses können zu Sicherheitsverstößen und Fehlern führen, wenn sie beispielsweise per E-Mail und Tabellenkalkulation durchgeführt werden. Automatisiertes Schwärzen beispielsweise ermöglicht Vorschläge für zu schwärzende Wörter, Sätze und Bilder zu suchen und sie über alle Dokumente und Dateitypen hinweg zu bearbeiten. Außerdem können innerhalb von Sekunden die Schwärzungen in einem gesamten Projekt aufgehoben werden, sobald die Genehmigung durch die Rechtsabteilung vorliegt. Das spart nicht nur Zeit sondern trägt auch dazu bei, Fehler zu minimieren und die Compliance zu verbessern.

Darüber hinaus verlangt die DSGVO nach aktuellem Stand ein schriftliches Protokoll über die Verarbeitung, die Datenschutzfolgenabschätzungen, das Führen von Aufzeichnungen über Verstöße und unter bestimmten Bedingungen die Ernennung eines Datenschutzbeauftragten (DSB). In diesem Umfeld können KI-gestützte Tools und Analysen äußerst hilfreich sein, um die Einhaltung der Vorschriften in dieser Phase des Due-Diligence-Prozesses sicherzustellen.

Fazit: DSGVO-Compliance ist eine Reise, kein Ziel und ist daher nichts was man nebenher macht. Unternehmen implementieren kontinuierlich neue Technologien und sehen sich bei der Einführung jedes Mal mit den ausdrücklichen Verpflichtungen konfrontiert, die DSGVO einzuhalten und zu gewährleisten. Merrill Corporation arbeitet daran, dem Nutzer die besten technologischen Tools an die Hand zu geben, um deren M&A-Prozess zu vereinfachen und sie dem aktuellen Rechtsstandard anzupassen.

Abbildung 2: Stellenwert von Datensicherheit in der Due Diligence. Quelle: Merrill Corporation

Weitere Informationen unter:
https://www.merrillcorp.com/de

Die Roboter sind schon da – und viele Fragen offen

Das Fazit vorweg: Es bleiben mehr Fragen als Antworten. Das zeigt erst recht: Die Veranstaltung „Die Roboter kommen! Ein Filmabend mit Diskussion zur Welt der Künstlichen Intelligenz“ zu initiieren, war wichtig. Vertretungsprofessor Dr. Stefan Kurtenbach vom Fachbereich Sozialwesen und Mitglied im Institut für Gesellschaft und Digitales (GUD) der FH Münster hatte diesen Abend organisiert. Er startete mit dem Dokumentarfilm „Wir sind die Roboter“. Darin zeigen die Filmemacher Tommy Pallotta und Femke Wolting, wie KI schon heute eingesetzt werden kann. Die Dokumentation endete mit der doch nüchternen Erkenntnis, dass es derzeit noch Grenzen in der KI gibt.

Noch – und das war der Ausgangspunkt für die anschließende Diskussion. Roboter fungieren heute zwar schon als Lebensretter wie etwa bei Operationen, aber können sie auch menschlich sein? Welche Folgen hätte es, wenn sie abwägend, zugewandt, empathisch reagieren? Oder aber auch vernichtend? Den Fragen stellten sich Experten aus den Bereichen Soziale Arbeit, Informatik und Medien.

„Roboter sollten keine Abbilder von uns Menschen sein“, sagte Soziologin und Kulturwissenschaftlerin Caroline Y. Robertson-von Trotha. „Wir haben schon acht Milliarden Menschen auf der Erde, und nicht alle sind gut. Aber wenn Roboter uns suggerieren, dass sie uns verstehen, dann kann das sehr nützlich sein.“ Etwa wenn sie einsamen älteren Menschen, so zeigte es ein Experiment im Film, die Traurigkeit nehmen und ihre Lebenssituation verbessern.

Auch Dr. Gesa Linnemann, Nachwuchsprofessorin vom Fachbereich Sozialwesen mit dem Lehr- und Forschungsgebiet Digitalisierung und Alter, sieht große Chancen in der Robotik. Sie wünscht sich aber, dass Entwickler mehr sensorische Fähigkeiten programmieren – um letztendlich den Älteren ein selbstbestimmtes Leben zu Hause zu ermöglichen. „Was die Autonomie unterstützt, darf gern schneller gehen.“ Welche Rolle KI in der Sozialen Arbeit einnehmen kann, damit wird sich FH-Studentin Svenja Brown in ihrer Bachelorarbeit beschäftigen. Nicht ob wir uns mit KI auseinandersetzen müssen, sondern wie, sei auch für dieses Berufsfeld die richtige Fragestellung. KI könne hier eine große Hilfe sein.

Auch Prof. Dr. Jürgen te Vrugt vom Labor für Künstliche Intelligenz am Fachbereich Elektrotechnik und Informatik der FH Münster sieht die positiven Effekte wie beispielsweise in der Prothetik. „Aber wir dürfen nicht die Augen davor verschließen, dass es Anwendungen geben kann, die gruselig sein können. Altruismus ist wieder überschreibbar! Wir bringen unseren Studierenden bei, ganz genau zu schauen, welche Konsequenzen unser Handeln haben kann. Wir müssen Verantwortung übernehmen, dürfen nicht kritiklos sein, dann haben wir eine Chance.“

Künstliche Intelligenz birgt Chancen und Risiken, war sich die Runde auf dem Podium einig (v.l.): Caroline Y. Robertson-von Trotha, Sabine Bubeck-Paaz, Prof. Dr. Jürgen te Vrugt, Dr. Gesa Linnemann und Svenja Brown sowie der Moderator der Veranstaltung, Prof. Dr. Gernot Bauer, FH-Vizepräsident für Forschung und Hochschulplanung. (Foto: FH Münster/Anne Holtkötter)

So sieht es auch ZDF-Redakteurin Sabine Bubeck-Paaz. „Wir sollten uns bei der Internetnutzung bewusstmachen, dass dahinter eine Strategie steckt. Aktuell in der Diskussion: die Folgen von Algorithmen, die zu mehr Rassismus in den USA beitragen.“ Dass KI Wahlen beeinflussen und die Demokratie gefährden kann, ist sich Robertson-von Trotha sicher, „aber ich habe keine Idee, wie man dies reglementieren könnte“.

Auch wenn die Expertenrunde nicht auf alles eine Antwort wusste – „wir müssen uns jetzt den Fragen stellen und darüber nachdenken“, sagte te Vrugt. „Wenn wir dies nicht tun, dann nehmen andere es in die Hand.“ Und damit, sagte FH-Präsidentin Prof. Dr. Ute von Lojewski bereits in ihrer Begrüßung, „kommen auf die Hochschulen große technische und gesellschaftliche Herausforderungen zu“. Denn, so der Grundtenor im Podium: Künstliche Intelligenz ist ambivalent, aber vor allem liegt in ihr eine große Chance.

Die Veranstaltung am Institut für Gesellschaft und Digitales (GUD) fand im Rahmen des Wissenschaftsjahres 2019 statt, das das Bundesministerium für Forschung und Bildung in diesem Jahr der Künstlichen Intelligenz widmet. Im GUD arbeiten Designer, Informatiker und Sozialwissenschaftler kompetenzübergreifend zusammen. Der Anspruch des interdisziplinären Forscherteams ist es, Informationstechnik und mediale Gestaltung in den Dienst der Reflexion und Lösung aktueller gesellschaftlicher Fragestellungen und Probleme zu stellen.

Lizenz:
Dies ist eine Pressemitteilung der FH Münster