5 Trends in der Versicherungsbranche – So sieht die Versicherung der Zukunft aus

Die Versicherung von morgen wird mit jener von heute nur noch wenig gemein haben. Fünf Thesen, wie neue Technologien die Versicherungswelt von Grund auf verändern.

7 Gedanken – so gelingt die Transformation in eine Digitalbank

von Dirk Emminger – Director of Business Development, Temenos

Transformation zur Digitalbank klingt in der Theorie immer einfach, ist aber in der Praxis hoch komplex. Vor allem in traditionellen Häusern sind viele Hürden zu nehmen. Egal, ob es darum geht, eine Digitalbank von Grund auf neu zu gründen oder digitale Services in das bestehende Angebot hinzuzufügen. Vor allem alte Denk- und Arbeitsweisen machen traditionellen Finanzinstituten bei der Digitalen Transformation schwer zu schaffen. Etablierte Muster aus dem Legacy-Zeitalter bestimmen noch viel zu oft, wie Entscheidungen getroffen werden. Doch wenn Finanzinstitute an solchen Methoden festhalten, werden sie mittelfristig nicht erfolgreich sein und schlimmstenfalls scheitern.

Dabei lassen sich recht schnell die häufigsten Fehler identifizieren, die Finanzinstitute bei der Transformation machen – hier ein paar Gedanken wie man diese Fehler vermeiden kann:

  1. Neu aufbauen, nicht neu anmalen
    Beim Aufbau einer digitalen Bank scheint es am Schnellsten, mit einem traditionellen Bankmodell zu beginnen und einfach eine digitale Version daraus zu erstellen. Doch einer der größten Fehler, der bei dieser Art der digitalen Transformation gemacht wird, ist die Automatisierung alter Prozesse. Stattdessen sollten Institute digitale Dienstleistungen rund um den Kunden aufbauen, ohne dabei weiter an Backoffice-Silos und Produktabläufen der Vergangenheit festzuhalten. Ein Blick ins E-Commerce oder auch nur in die Onboarding Prozesse von z.B. E-Scooter Anbietern zeigt, dass Einfachheit gewinnt.
    Ein Beispiel verdeutlicht die Problematik: Oft ist es so, dass selbst bestehende Bankkunden sich für neue Services erneut legitimieren müssen. Diese Abfrage grundlegender Identitätsinformationen ist größtenteils überflüssig, kostet Zeit und Geld und verursacht Unbehagen bei den Kunden. Vor allem, wenn es sich um papierbehaftete Prozesse handelt. Um Kunden (und auch der Bank) dieses Prozedere zu ersparen, verwenden neue Bankinstitute eine API-basierte Serviceschicht, um die schon einmal erfragten Daten in die benötigten Formulare anzupassen.
  2. Wie Kunden denken
    Die Transformation in eine digitale Bank sollte mit dem Kundenerlebnis beginnen. Erfolgreiche Institute untersuchen, was neue Kunden anzieht und wie sie ihre Dienstleistungen ausbauen müssen, um diese Kunden auch zu halten. Bei allen Prozessen geht es darum, wie ein Kunde zu denken und Abläufe nicht von der Bankseite, sondern von der Kundenseite aus zu realisieren:
    ● Welche spezifischen Situationen gibt es, in denen das Institut ein überzeugenderes Erlebnis bieten kann, als es Kunden anderswo findet?
    ● Sind alle Anwendungen auch unterwegs abrufbar und die User Experience benutzerfreundlich auf mobile Geräte angepasst?
    ● Wo werden Transaktionen abgebrochen? Wo entstehen Fehler bei der Eingabe? Wann steigt der Kunde aus? Das Maß einer erfolgreichen digitalen Bank ist, wie wenig Zeit der Kunde bei der Nutzung aufwendet.
    ● Wie kann die Bank anhand von Transaktionen, Kontoverhalten und Social Media- und Standortdaten ein noch personalisiertes Angebote für den Kunden entwerfen?
  3. Entwerfen, Testen, Ausprobieren
    Die Zeiten jährlicher Updates sind passé. Im mobilen Zeitalter werden Verbesserungen just in time umgesetzt, teilweise passiert dies täglich und manchmal sogar mehrmals am Tag. Alles im Hintergrund und ohne das Bankkunden dafür etwas tun müssen oder dies bemerken. Voraussetzung dafür ist kontinuierliches Testen, Messen und Iterieren der Customer Journey mit einem „Live-Publikum“.
    Der Schlüssel zum Erfolg ist also die kontinuierliche Integration und Bereitstellung von neuen Services und Updates. Als Teil des so genannten DevOps basiert diese in der gesamten Softwareindustrie angewandte Methodik auf der kontinuierlichen Einführung, dem Testen und der Bereitstellung kleinerer Änderungen. Voraussetzung dafür ist eine Software-Infrastruktur mit Funktionen, die DevOps unterstützen und speziell für Cloud-Umgebungen optimiert sind.
  4. Back- und Frontoffice getrennt voneinander betrachten
    Eine Bank funktioniert wie eine Fabrik: für die jeweiligen Systeme – Backoffice (Fertigung) und Front-Office (Vertrieb) – gelten unterschiedliche Prioritäten und Aktualisierungszyklen. So benötigt beispielsweise die Fertigung die Planbarkeit und einen langzeitlichen Zyklus, während der Vertrieb die Agilität und Freiheit braucht, auf sich ändernde Kundenbedürfnisse und -präferenzen zu reagieren. Kundenorientierte Prozesse und Systeme, bei denen mehrere Varianten für verschiedene Produkte und Kanäle parallel laufen und getestet werden, müssen existieren können.
    Im Gegensatz zu monolithischen Bank-IT-Strukturen der Vergangenheit kann eine digitale Bank mit einem einzigen integrierten System, das einen Produktionswechsel erfordert, um neue Vertriebsmerkmale hinzuzufügen, nicht optimal funktionieren. Dies stellt eine Herausforderung dar, da der Datenfluss zwischen Produktion und Vertrieb für den End-to-End-Prozess entscheidend ist. Moderne Digitalbanken arbeiten mit getrennten Systemen, die über dokumentierte APIs und lose gekoppelte Mikroservices miteinander verzahnt sind. In der Praxis bedeutet das, dass Änderungen in einem System das andere nicht beeinflussen.
  5. Weit mehr als nur FrontEnd – Unterschiedliche Skills bei Mitarbeitern
    Um Probleme zu vermeiden, muss mehr Aufmerksamkeit auf die Plattform gelegt werden, die der Kunde nicht sieht. Auf dieser zugrunde liegenden Infrastruktur werden schnell wechselnde Produktkataloge, flexible Entscheidungsmaschinen, die Integration in neue Fintech-Dienste verwaltet. Diese weniger sichtbaren Elemente bilden die schwierigen Bauteile einer neuen digitalen Bank. Im Gegensatz zum FrontEnd wird dieser Teil der Plattform langfristiger ausgelegt und muss entsprechend robust sein. Für diesen Teil der neuen Digitalbank werden technisch komplett andere Skills benötigt als im FrontEnd. Erfolgreich ist das Unternehmen, dass für diesen Teil Branchenexperten rekrutieren kann. Der beste FrontEnd Entwickler mit jahrelanger Erfahrung in User Experience Projekten wird diesen Aufgaben in der Regel nicht gewachsen sein. Hier wird auf der Mitarbeiter Seite Know How von Bankprozessen und auch Regulatorik benötigt.
  6. Spezialisierte Dienstleister hinzuziehen
    Für eine komplexe und skalierbare Digitalbank, die sich ständig anpasst, werde nahezu unendlich viele spezielle Funktionen benötigt. Services wie Identitätsprüfung, Betrugserkennung, Risikobewertung und Zahlungsdienste müssen in die digitale Bankenlösung integriert und orchestriert werden.
    So etwas lässt sich schwer alleine stemmen. Aus diesem Grund ist es sinnvoll, externe Spezialisten zur Hilfe hinzuzuziehen, die diese Herausforderungen bereits gelöst haben und eine entsprechende Software entwickelt haben, die sich mittels APIs an die Systeme andocken lässt. So lassen sich elegant bestehende Erweiterungen schnell und kostengünstig integrieren, was besser und günstiger als die Programmierung neuer Stand-Alone-Lösungen ist.
    Beispielsweise brauchte eine Bank, die eine Eskalation betrügerischer Transaktionen im Zusammenhang mit neuen Produktangeboten erlebte, einen neuen Ansatz zur Betrugsbekämpfung und zwar schnell. Anstatt monatelang auf die Integration der Design-, Entwicklungs-, Test- und Release-Zyklen mit der gewählten Fintech-Lösung zu warten, konnte das Institut auf eine bestehende erprobte Lösung zurückgreifen und per API anbinden. Der neue Cloud-basierte Service wurde so innerhalb von Tagen und nicht wie üblich in Monaten implementiert.
  7. Basisinfrastruktur und Kernfunktionalität kaufen und nicht selber bauen
    Der größte Fehler besteht oft darin, in die falschen bzw. bereits bestehende Dinge zu investieren. Eine Forrester-Studie aus dem Jahr 2018 ergab, dass die erfolgreichsten Digital-Banking-Projekte diejenigen waren, die eine „Build, Buy, Extend and Assembly“-Methode anwandten.
    Banken sollten für die Basisinfrastruktur und die Kernfunktionalität auf bewährte kommerzielle Plattformen zurückgreifen – bei denen der Softwareanbieter die Kosten für Wartung und Erweiterung auf Hunderte von Kunden verteilt. Dies gibt der Bank die Möglichkeit, sich auf ihr spezialisiertes, kundenorientiertes Fachwissen zu konzentrieren und so die Differenzierungspotenziale auf der kommerziellen Plattform aufzubauen. Erfolgreiche digitale Banken nutzen ihre eigenen Ressourcen, um den sichtbaren Teil zu optimieren und zu differenzieren, um ein wirklich einzigartiges Produkt und Erlebnis zu schaffen.

Über den Autor

Dirk Emminger bewegt sich seit 1996 in der Bankenindustrie er ist von Hause aus Banker – jedoch seit mehr als einer Dekade in unterschiedlichen Rollen bei spezialisierten Dienstleistern die moderne Bankenplattformen vertrieben – heute verantwortet er als Director Business Development den Vertrieb bei Temenos für Deutschland und Österreich.

Weitere Informationen unter:
https://www.temenos.com/

Digitalisier mal!

Der CDO – Interner Berater auf Zeit

Warum sich erfolgreiche Digitalisierungstreiber in fünf Jahren selbst abschaffen und dies sogar wünschenswert ist

Ein Gastbeitrag von Roland Riedel, Senior Vice President für Zentraleuropa bei PTC

Was machen Unternehmen, Verbände, Non-Profit-Organisationen und sogar die Regierung, wenn sie vor einer größeren Herausforderung stehen, die sie mit den eigenen vorhandenen Kompetenzen und Ressourcen nicht stemmen können? Sie holen sich ein Beratungsunternehmen ins Haus, das mit Blick auf die Organisation selbst sowie auf die marktwirtschaftlichen und gesellschaftspolitischen Umstände passende Strategien und Konzepte entwirft und diese gegebenenfalls auch mit umsetzt.

Die digitale Transformation von Wirtschaft und Gesellschaft, in der wir uns alle befinden, ist nun nicht nur eine weitere dieser Herausforderungen, sondern der große Umbruch unserer Zeit. Jedermann weiß mittlerweile, dass sie auch für ihn früher oder später signifikante Veränderungen mit sich bringt, sowohl beruflich als auch privat.

Roland Riedel ist Senior Vice President für Zentraleuropa bei PTC (Bildquelle: PTC)

Immer mehr Unternehmen haben die Zeichen der Zeit nicht nur erkannt, sondern schon angefangen zu handeln. „Wir müssen digitalisieren!“ Klar – aber wie? Es lag bei vielen auf der Hand, dass entsprechende Ressourcen und Kompetenzen intern nicht vorhanden waren und von außen kommen mussten. Oft wurde das zunächst mit besagten externen Beratern gelöst. Flankierend entstand ein neues Berufsbild – der Chief Digital Officer (CDO) war geboren. Warum war das nötig? Die klassische IT, der CIO – zu sehr mit dem laufenden Betrieb der Systemlandschaft verhaftet. Der CTO? Zu stark in die klassische Produktentwicklung involviert. Der CEO? In den digitalen Themen kaum zu Hause. Auf den Anforderungslisten stand jedoch vielerorts die komplette zukünftige Ausrichtung des Unternehmens in einer digitalen Welt – nicht mehr und nicht weniger.

Der CDO – nicht nur Berater, sondern Messias

So kam es, dass in den letzten Jahren mehr und mehr CDOs Einzug in die Unternehmen hielten. Laut einigen aktuellen Studien wie der „2019 Chief Digital Officer“-Studie von Strategy&, der Strategieberatung von PwC, liegt die CDO-Quote im DACH-Raum bei 44 Prozent und ist global betrachtet überdurchschnittlich hoch. In Deutschland beträgt die CDO-Dichte sogar 48 Prozent. Das zeigt, wie wichtig dieser Posten aktuell ist. Überraschend mutet es da an, dass Deutschland in punkto Digitalisierung bislang bestenfalls im Mittelfeld spielt (vgl. Cisco Digital Readiness Index 2019). Oder ist das vielleicht gerade der Grund für den Ruf nach dem Messias? Der CDO als wahrer Tausendsassa, der alle Unternehmensbereiche verstehen, marktwirtschaftlich und technologisch bewandert sowie trendfokussiert sein muss, kulturschaffend mit den Abteilungen kommuniziert und die Fackel der Digitalisierung so von Tür zu Tür trägt.

Und dennoch stagniert diese Entwicklung aktuell. Das hat diverse Gründe. Dazu zählt sicherlich die fehlende Durchschlagskraft bei der Umsetzung, vor allem dann, wenn um Budgets gerungen wird oder der CDO nicht auf oberster Führungsebene (wie es sein sollte), sondern irgendwo darunter angesiedelt ist. Gerne mischt sich früher oder später dann doch eine/r der oben genannten Damen oder Herren ein, wenn es um Machtverteilung und Entscheidungsgewalt geht.

Unternehmenslenker führen das oft auf Missverständnisse bei der genauen Rollendefinition des CDOs, eine undurchsichtige Aufgabenverteilung zwischen CEO, CIO, CTO und CDO oder mangelndes Verständnis für die Strategien und Maßnahmenpakete zurück (siehe zum Beispiel die „Chief Digital Officer Studie 2018“ der Quadriga Berlin in Zusammenarbeit mit TMG).

Hier kommt des Dilemmas erster Teil: CDO-Rollen werden geschaffen, da es vermeintlich an Know-how und Ideen mangelt, die digitale Transformation anzupacken. Auf dieser Basis lässt sich allerdings auch kein detailliertes Stellenprofil schaffen, das all diese später aufgeführten „Mängel“ von vornherein klärt. Somit lebt und agiert der CDO in einer sehr freien Rolle, was die Schranken für die Gestaltung des Wandels reduziert und somit positiv ist, ihn und sein Handeln aber auch angreifbar macht. In den Augen der Geschäftsführung bleibt er eine Art Wundertüte. Vor allem bei denen, die sich selbst weniger in den Digitalisierungsprozess einbringen und später enttäuscht sind, weil ihre „Erwartungen“ nicht erfüllt werden. Fast schon paradox. Was uns zu der eigentlichen Frage führt:

Wo bleiben die CEOs?

Ein CDO kann basierend auf seiner allumfassenden Rolle wertvolle Impulse liefern und mit einer Digitalisierungsstrategie den Grundstein für den zukünftigen Erfolg eines Unternehmens legen. Die oftmals notwendige Öffnung der Unternehmenskultur schaffen, kann er alleine aber nur selten. Der wichtigste Treiber der digitalen Transformation sollte daher der CEO sein. Er muss sich schneller als alle anderen im Unternehmen dem Wandel stellen, schließlich formuliert er die Vision und die Ziele der Organisation. Hier sehe ich in der Praxis bereits gute Beispiele, wie es laufen sollte, aber noch viel mehr Nachholbedarf.

Macht ein CDO seine Aufgabe wirklich gut – und dies ist des Dilemmas zweiter Streich – wird seine Rolle in wenigen Jahren überflüssig. Das erfolgreich transformierte Unternehmen denkt und handelt eigenständig „digital“, angefangen bei der Geschäftsführung bis hin zu jeder einzelnen Abteilung. Und wenn das digitale Feuer einmal überall lodert, braucht es keinen Brandstifter mehr.

KI und Automation für effektive Endpoint-Protection

Matthias Canisius, Regional Director von SentinelOne erläutert im Interview wie KI-basierte Technologien und Automation vereint den Endpunkt effektiver schützen.

Je mehr wir voll automatisiert und digital basiert arbeiten, desto angreifbarer werden Endpoints und Devices gegen ungewünschten Fremdzugriff, Manipulation und Missbrauch.
Herr Canisius, was ändert sich in diesem Kontext für die IT-Security, die Sicherheitskultur und das Risikomanagement in den Unternehmen?

Absolut korrekt. Mit zunehmender Vernetzung und Digitalisierung von Systemen, vergrößert sich die Angriffsoberfläche. Und das gilt sowohl für den privaten wie auch für den professionellen Bereich. Privat und Beruf, drinnen und draußen, sind heute im digitalen Sinne kaum noch zu trennen. Was zur Folge hat, dass die Bedeutung des klassischen Perimeterschutzes zunehmend schwindet und eine enorme Konzentration auf die Sicherheit des Endpunktes zu beobachten ist. Diese Entwicklung wird weiter zunehmen.

Ferner wird der Begriff des Endpunktes zukünftig noch weiter gefasst werden und – wie wir ja auch bereits erleben – ausgeweitet werden auf Produktionssysteme und den gesamten IoT/OT-Bereich sowie Container-basierte (z.B. Docker)-Umgebungen, um hier nur einige zu nennen.

Matthias Canisius, Regional Director, SentinelOne

Wie gestaltet sich die heutige Bedrohungslandschaft?

Das größte Bedrohungspotenzial geht heute von hochentwickelter Schadsoftware aus, die aufgrund der Kombination komplexer Verschleierungstechniken immer schwerer aufzuspüren ist. Zudem sehen wir einen massiven Trend hinsichtlich Angriffen, die nicht mittels einer Datei ausgeführt werden, sondern die „fileless“ bspw. mittels Powershell, Macros, Scripten oder dergleichen Zugriff auf unsere Systeme erlangen. Für klassische Sicherheitslösungen sind diese kaum aufzuspüren und wirksam zu verhindern. Antivirus, Firewalls oder auch Intrusion-Prevention-Systems (IPS) erfassen nur einen sehr engen Sicherheitswinkel und können gegen moderne Bedrohungen, die eben auch Techniken benutzen, die zuvor nur staatlichen Geheimdiensten vorbehalten waren, nicht mehr ankommen. Das zeigt auch der aktuelle Lagebericht des BSI. 

Wie unterstützen Sie hier Unternehmen in ihrem Kampf gegen Cyberkriminalität?

Mit unserer Endpoint Security-Plattform bieten wir Unternehmen eine vollständige und benutzerfreundliche Sicherheitslösung, die sie zuverlässig vor allen Arten von Malware schützt. Hierbei setzen wir auf einen intelligenten Agenten, der direkt auf dem Endpunkt ausgeführt wird und potenzielle Bedrohungen dort mit Hilfe von KI in Echtzeit analysiert und eben auch in Echtzeit reagieren kann. Der Vorteil von diesem Ansatz ist, dass verdächtige Dateien nicht erst in eine Sandbox oder andere externe Systeme geschickt werden müssen, sondern direkt auf dem Endpunkt selbst, d.h. in natürlicher Umgebung, für die Malware ja schließlich auch geschrieben wird, analysiert werden. Dies erhöht die Erkennungsquote erheblich. Ein weiterer Vorteil ist, dass der SentinelOne-Agent auch offline arbeitet und bei einem Sicherheitsvorfall automatisiert die richtigen Maßnahmen zur Eindämmung der Bedrohung und Wiederherstellung betroffener Systeme und Dateien anstößt.

Autonomer Endpunktschutz zur Prävention, Identifikation, Abwehr und Reaktion – wie wichtig ist hier Automatisierung?

Sicherheitsbeauftragte stehen heute vor der großen Herausforderung, jeden Winkel ihres Netzwerks überwachen und schützen zu müssen – vom Endpunkt bis zur Cloud. Wer dabei auf passive Bedrohungserkennung setzt, kommt schnell an seine Grenzen, denn er muss eine schier unendliche Zahl von Daten manuell in Zusammenhang bringen, analysieren und bewerten. In Zeiten von Fachkräftemangel, überarbeiteten IT-Teams und einer komplexen Bedrohungslandschaft ist dies kaum noch zu schaffen. Integration und Automatisierung sind Themen, die in jedem CISO-Office ganz oben auf der Prioritätenliste stehen. Was nutzt mir zudem die intelligenteste Lösung, wenn ich ein Heer von Menschen für den Betrieb brauche und nicht in der Lage bin, diese sauber zu integrieren.

Unsere Endpoint Detection und Response Lösung ActiveEDR ermöglicht es, potenzielle Bedrohungen automatisiert – inklusive Kontext – zu verstehen und mögliche Angriffe ohne manuelles Eingreifen zu blockieren. Durch den hohen Grad an Automatisierung reduziert ActiveEDR die Kosten und den Zeitaufwand, der erforderlich ist, um die enormen Datenmengen auszuwerten, die bei detaillierten Analysen anfallen. Dabei arbeitet der Agent wie ein SOC-Analyst auf jedem einzelnen Endpunkt; er wandelt die einfließenden Daten in Echtzeit in komplette „Attack-Stories“ um und reagiert im Fall, dass die „Story“ „böse enden“ würde, sofort automatisch. Dafür brauchen wir lediglich 1-2% CPU auf dem System.

Welche Rolle wird Künstliche Intelligenz (KI) in Zukunft im Rahmen von IT-Security einnehmen?

Wie schon eingangs erwähnt werden KI und Machine Learning die Zukunft der Cybersicherheit wie kaum eine andere Technologie prägen. Künstliche Intelligenz kann uns dabei helfen, selbst hochentwickelte und verschleierte Arten von Cyber-Bedrohung in Echtzeit zu identifizieren und abzuwehren – vor allen Dingen unbekannte Bedrohungen, die heute etwa 90% aller Angriffe ausmachen.

Und natürlich haben auch Cyberkriminelle die Vorzüge von Artificial Intelligence längst für sich entdeckt, um potentielle Opfer damit gezielter und noch raffinierter angreifen zu können – man denke etwa an DeepFakes, d.h. erstaunlich real wirkende Audio- und Video-Nachrichten oder KI-basierte Captcha Bypass-Dienste wie Death by Captcha. Um mit diesen Entwicklungen Schritt halten zu können, sind Unternehmen letztlich dazu gezwungen, ihre Sicherheitsstrategie zu hinterfragen und neue auf KI-basierte Technologien zu erproben.

Wie sollten vor diesem Hintergrund IT-Sicherheitsstrategien aufgebaut sein?

Die Basis einer effektiven Cyber-Sicherheitsstrategie ist und bleibt eine umfassende IT-Infrastrukturanalyse. Nur wenn sie den Stand ihrer IT-Systeme kennen und mögliche Schwachstellen identifiziert haben, sind Unternehmen in der Lage, entsprechend sinnvolle Schutzmaßnahmen zu implementieren. Die Durchführung einer solchen Infrastrukturanalyse ist anspruchsvoll, da sie umfangreiche Kenntnisse über Netzwerkstrukturen sowie die aktuelle Bedrohungslandschaft verlangt, letztlich aber unumgänglich. Eine wichtige Rolle spielen dabei auch individuelle Compliance-Anforderungen sowie gesetzlich verpflichtende Regelungen wie die DSGVO, die von Anfang an mitgedacht werden müssen.

Wir als Hersteller können an dieser Stelle nur ein Teil der Lösung sein und empfehlen daher die Zusammenarbeit mit kompetenten IT-Sicherheitspartnern und Beratungsunternehmen.  Am Ende geht es immer um die gleichen Dinge: Wir möchten ein möglichst hohes Sicherheitsniveau umgesetzt wissen. Die Performance der Systeme darf darunter nicht leiden und ich möchte einen einfachen Betrieb sichergestellt wissen. Dazu wünschen wir uns Integrations- und Automatisierungsmöglichkeiten. Zu guter Letzt wünschen wir uns umfangreiche Sichtbarkeit, die letztliche Grundlage für unsere Sicherheitsmaßnahmen bildet.

Cybercrime-Trends 2020: Worauf können wir uns gefasst machen?

Das ist im Detail sicher schwer zu sagen. Doch was man mit Sicherheit sagen kann: Die technologischen Möglichkeiten werden auf beiden Seiten – bei Angreifern wie bei denjenigen, die Sicherheitstechnologien entwickeln – maximal ausgelotet werden. Wir haben bereits sich selbst verändernde Malware, Malware, die ohne Datei daherkommt und vieles mehr. Haben wir ein Loch gestopft, wird versucht, an anderer Stelle bzw. mit anderen Mitteln zu bohren.

Es ist und bleibt ein Wettlauf. Und hier schließt sich der Kreis wieder zu Ihrer ersten Frage: Entscheidend wird sein, in wie weit wir neue Entwicklungen zum Schutz unseres Unternehmens zulassen und wie schnell wir diese adaptieren.  Was hilft es, wenn wir uns nach wie vor mit kunstvoll geschmiedetem Schild und Schwert gegen Angreifer mit modernen Schusswaffen wehren wollen – und das nur, weil wir es immer so gemacht haben.

https://www.sentinelone.com/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

KI mit Byte und Siegel?

Prof. Dr. Volker Gruhn, Vorstandsvorsitzender der adesso AG.

Prof. Dr. Volker Gruhn kommentiert die aktuelle Berichterstattung zum „KI-Observatorium“. Dabei könnte dies tatsächlich eine Chance darstellen – auch wenn es zunächst nach Lähmung und Prüfsiegel klingt, wie er ausführt:

Jetzt macht Deutschland in Künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. 

Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht zur KI-Strategie der Bundesregierung vom 15. November 2019 beschreibt nüchtern: „Kernaufgaben […] sind die Beobachtung von Technologieentwicklung, -verbreitung und Technologiefolgenabschätzung für KI in Arbeit und Gesellschaft.“ Das klingt nicht so, als ob im nächsten Jahr der einzelne Smart Speaker oder eine KI-Anwendung in einem Unternehmen einen Prüfstempel bekommt. Die Verantwortlichen aus der Politik stellten klar, dass es dem KI-Observatorium zunächst darum geht, den Einsatz von KI-Systemen in Deutschland zu erfassen und zu verstehen. Daraus leiten die Fachleute einen Ordnungsrahmen ab, der die Grundlage für das Prüfen und Bewerten bildet.

Spöttische Stimmen würden sagen, dass im KI-Observatorium zwei Welten aufeinanderprallen werden: der deutsche Hang zur Gründlichkeit und das atemberaubende Tempo technologischer Entwicklung. Aber die Idee hinter der Institution ist interessant – und das gleich auf zwei Ebenen: Das einzelne Unternehmen und einzelne KI-Projekte profitieren von eindeutigen Rahmenbedingungen. Algorithmen unterstützen Banken bei der Kreditvergabe, autonome Fahrzeuge beim Lenken oder Musikliebhaber bei der Auswahl des nächsten Songs. Dahinter stecken völlig unterschiedliche Anwendungen mit mehr oder weniger weitreichenden Konsequenzen für den Einzelnen. Wer weiß, welche Anforderungen ein KI-System erfüllen muss, um für einen bestimmten Einsatz zugelassen zu werden, tut sich leichter mit dem Entwickeln vernünftiger Software.

Aber auch deutschen und europäischen KI-Aktivitäten insgesamt hilft ein funktionierendes KI-Observatorium. Es sorgt mit dafür, neben dem US-amerikanischen und chinesischen KI-Verständnis einen dritten Weg zu etablieren. Einen, dem eine Auffassung von Wirtschaften, Datenschutz und Persönlichkeitsrechten zugrunde liegt, mit dem sich die meisten Bürgerinnen und Bürger der EU identifizieren. 

Noch ist offen, wie mögliche Prüfungen und Bewertungen aussehen. Stellen Entwicklerinnen und Entwickler alle zwei Jahre ihre Algorithmen vor? Testen die Sachverständigen dann, ob die genutzten Machine-Learning-Verfahren in der Zwischenzeit Vorurteile entwickelten? Messen Prüfer den Grad der Nachvollziehbarkeit einer Entscheidung, die eine KI-Anwendung fällt, wie heute das Reifenprofil eines Autos? Es fällt schwer, sich die operative Umsetzung auszumalen. 

Schwer bedeutet nicht, dass es unmöglich ist. Es braucht IT-Kompetenz ebenso wie Verständnis für Jura, Philosophie, Wirtschaft, Politik oder Arbeitsschutz. Gefragt sind Fachleute unterschiedlicher Disziplinen, die unter dem Dach des KI-Observatoriums zusammenarbeiten. Gemeinsam stellen sie Regeln auf. Regeln, die sich zum Qualitätsmaßstab für gute KI entwickeln können. 

Schwer bedeutet, dass wir eine Menge menschlicher Intelligenz investieren müssen, bis die künstliche so funktioniert, wie wir das wollen. Diesem Willen zum Wollen kann das KI-Observatorium Gestalt geben. Nicht als Verhinderer, nicht als institutionalisierter Bedenkenträger. Sondern als Institution, die Regeln aufstellt und durchsetzt, die auf Qualität achtet. Die selbstbewusst ein europäisches KI-Verständnis vertritt. Wenn das so kommt, freue ich mich geradezu auf die nächste TÜV-Prüfung.

Weitere Informationen unter:
www.adesso.de

Unternehmen fordern leistungsfähiges, zukunftsstarkes Klimapaket

Gemeinsam mit bereits über 1100 Unternehmen, Verbänden und der Wirtschaftsinitiative Entrepreneurs For Future positioniert sich die GLS Bank für eine ausnahmslose CO2-Abgabe. Bis zum nächsten globalen Klimastreik von Fridays for Future am 29.11.19 sollen sich auf www.unternehmenfuersklima.de noch weitere Unternehmen der Kampagne anschließen.

„Das Klimapaket der Bundesregierung erreicht weder die Ziele des Pariser Klimaabkommens, noch gehen davon die notwendigen Impulse für eine nachhaltige Wirtschaft aus“, so Thomas Jorberg, Vorstandssprecher der GLS Bank. Die Unternehmen fordern darum die Politik auf, das Paket dringend nachzubessern. „Es ist die Verantwortung unserer Generation, dass sich Klimaschutz an den faktischen Notwendigkeiten orientiert. Nur durch adäquate Korrektive schaffen wir ein Innovationsumfeld für ein Umsteuern unserer Wirtschaft in eine lebenswerte Zukunft“, so Dr. Rüdiger Fox, Geschäftsführer der Symaptex Technologies GmbH.

In dem Aufruf heißt es weiter: Unternehmen können 79 Prozent der eigenen energiebedingten Treibhausgasemissionen direkt beeinflussen und somit massiv zum Klimaschutz beitragen. Emissionsarme Technologien und Neuschöpfungen liegen bei vielen Unternehmen in der Schublade. Sie warten nur darauf, dass die Politik endlich starke und klare Anreize setzt. Damit könne eine Markteinführung gelingen und Lösungen auch auf den Weltmärkten skaliert werden. Die effektivsten und schnellsten Klimapotenziale werden nur mit klaren, verlässlichen und zukunftsgerichteten Rahmenbedingungen für Unternehmen erreicht.

Markt- und innovationsstarke CO2-Preissignale einführen

Die Unternehmen der Initiative fordern:

  • einen ambitionierten und Veränderungsauslösenden CO2-Mindestpreis für alle Sektoren, insbesondere Verkehr, Energie, Gebäude und energieintensive Industrie auf alle nicht-erneuerbaren Energieträger wie Erdgas, Kohle und Mineralöl als Inputbesteuerung bzw. Besteuerung bei Grenzüberschreitung.
  • mit einem Startniveau von mindestens 50 Euro pro Tonne CO2
  • mit einer für Innovationen und Investitionen planungssicheren Steigerung von mindestens 5 Euro pro Jahr als Zielpfad
  • nicht zur Generierung zusätzlicher Steuereinnahmen, sondern für eine optimale Lenkungswirkung mit einem fairen, sozialen Ausgleich.

Laut dem Aufruf ist dies im Rahmen der bestehenden Systeme schnell und einfach umsetzbar. Die Unternehmen treten dafür ein, dass mit diesen Maßnahmen ein Schub an Neuerungen und Marktkräften ausgelöst wird, mit denen Unternehmen den Wirtschaftsstandort langfristig zukunftssicher gestalten können.

Weitere Informationen unter:
www.unternehmenfuersklima.de

Lizenz: Pressemitteilung der GLS Bank

Lizenz Aufmacher: Image by Annette from Pixabay

SPS – Smart Product Solutions

Zum dreißigsten Mal findet die führende Fachmesse für smarte und digitale Automatisierung statt.

Start-up bis Weltmarktführer werden ab Dienstag nächste Woche, vom 26. – 28.11.2019, in Nürnberg die Plattform als Aussteller nutzen, um ihre Produkte und Lösungen den hochqualifizierten Fachbesuchern zu präsentierten.

Teilnehmer der diesjährigen Veranstaltung werden zusätzlich eingeladen, sich auf eine Zeitreise der Messe und der Automatisierungsgeschichte zu begeben.

Messegeschehen auf der SPS IPC Drives 2018

Vom beschaulichen Branchentreffpunkt zur internationalen Leitmesse

Gestartet ist die SPS 1990 in Sindelfingen, als Messe mit begleitendem Kongress mit 63 Ausstellern und 3.420 Besuchern. Bei der ersten Ausgabe der Messe waren bereits fünf Aussteller dabei, die in diesem Jahr ebenfalls ihre 30. Messeteilnahme feiern: Beijer Electronics, Hüthig, M&M Software, Pilz und Yaskawa (ehemals VIPA).

Der Umzug 1997 nach Nürnberg gab der SPS Raum zu wachsen: Aus einer Messehalle in Sindelfingen wurden auf Anhieb drei Hallen in Nürnberg. Der Ortswechsel kam auch einigen Ausstellern, die in und um Nürnberg beheimatet sind, entgegen.

Für einige Aussteller ist die SPS fast Tradition geworden: „Die SPS war und ist Fachmesse im besten Wortsinn und seit 25 Jahren ist die letzte Woche vor dem Advent auch für mich persönlich ein Pflichttermin. Als Wahl-Nürnberger hat es mich natürlich gefreut, dass die SPS von Sindelfingen hierher umzog, und ich begann die Beckhoff-Standbesatzung am Montagabend vor der Messe bei uns zu Hause zu bewirten. Leider machte unser Wohnzimmer das Wachstum der Messe (und das von Beckhoff) nicht mit, und so musste diese Mini-Tradition recht bald wieder eingestellt werden …“, so Martin Rostan, Leiter Technologiemarketing, Beckhoff-Niederlassung Nürnberg.

Aber nicht nur der Umzug nach Nürnberg hat für einen Wachstumsschub gesorgt, die Messe hat sich seither kontinuierlich vergrößert und weiterentwickelt. Während sich die Ausstellungsfläche seit 1990 von 3.500 m² auf 136.000 m² erhöht hat, haben auch viele Aussteller eine große Entwicklung hinter sich: „SEW-Eurodrive ist seit 1996 treuer Austeller auf der SPS. Gestartet mit einem kleinen, ca. 50 m² umfassenden Komponentenstand hat sich SEW-Eurodrive mit der Messe zusammen fortentwickelt. Heute zeigen wir auf 1.620 m² von der smarten Komponente über intelligente Maschinenautomatisierung bis hin zur digitalen Cloud-Anwendung praxisorientierte Lösungen. Somit ist und bleibt die SPS – Smart Product Solutions für uns auch weiterhin die wichtigste Fachmesse für industrielle Automatisierung,“ fasst Heiko Füller, Leiter Marktmanagement SEW-EURODRIVE zusammen.

„Mit ihrem einzigartigen Konzept bildet sie das komplette Spektrum der smarten und digitalen Automation ab – vom einfachen Sensor bis hin zu intelligenten Lösungen, vom heute Machbaren bis hin zur Vision einer umfassend digitalisierten Industriewelt.
Zahlreiche Aussteller der SPS haben ihren Innovationszyklus an der Messe ausgerichtet und präsentieren vor Ort ihre neuesten Produkte und Automatisierungslösungen.“

Sylke Schulz-Metzner, Vice President SPS,

Das Erfolgsrezept

Die heutige SPS ist die Plattform für die smarte und digitale Automatisierung. Hier treffen sich hochqualifizierte Besucher und Aussteller auf Augenhöhe; im Fokus stehen praxisnahe und intelligente Lösungen für die Herausforderungen von heute und morgen. In Nürnberg zeigen die Aussteller neben ihrem gesamten Produktspektrum auch ihre Produktneuheiten. Dies ermöglicht dem Besucher einen umfassenden Marktüberblick.

Machen Sie eine Reise durch die Vergangenheit

Weitere Informationen und interessante Meilensteine der SPS, der Automatisierung und der Industrie sind auf der Webseite sps-exhibition.com zu finden.

Key Facts zur Veranstaltung

Begleitender Kongress: Automation 4.0 Summit

Für all jene, die sich noch tiefgehender zu aktuellen Themen der Automation informieren wollen, bietet sich der von den WEKA Fachmedien organisierte begleitende Kongress zur SPS an. In 4-stündigen Sessions werden dieses Jahr die Themen

5G, TSN und OPC UA in der Industrie
Securely connected – vom Sensor bis zur Cloud
IOT-Plattformen – Best Practises
Flexible Automatisierung für wenig Geld – was leistet die Robotik?

unter praxisbezogenen Aspekten fokussiert beleuchtet.

Termine und Tickets

Was: SPSSmart Production Solutions

Wann: 26. – 28.11.2019

Wo: NürnbergMesse

Planung & Vorbereitung

Weitere Informationen zur Veranstaltung, Tickets, Reisespecials sowie Tipps zur Vorbereitung
finden Sie unter sps-exhibition.com

Start der Hypermotion 2019

„Next Generation Mobility and Logistics“

Nächsten Dienstag ist es soweit. Die Hypermotion öffnet zum dritten Mal ihre Tore. Vom 26. – 28. November treffen sich in Frankfurt am Main wieder Anbieter und Anwender, die neue Standards setzen für die Mobilität und Logistik von morgen. Networking über Verkehrsträger und Systemgrenzen hinweg ist das oberste Ziel. Es erwartet Sie eine Vielzahl innovativer und zukunftsorientierter Aussteller. Zuhören, mitreden, ausprobieren – freuen Sie sich auf die neuen Micro Mobility-Parcours sowie spannende Pitches, Talks und Podiumsdiskussionen über die Mobilität, Logistik und Infrastruktur von morgen.

Werden Sie Teil der „Next Generation Mobility and Logistics“!

„Auf der Hypermotion bringen wir als erste Plattform für die digitale Transformation alle Verkehrsträger zusammen. Unser Ziel dabei ist es, die Vernetzung innerhalb der Branche voranzutreiben, damit neue integrierte Lösungen für die Mobilität von morgen entstehen können“

Danilo Kirschner, Director Hypermotion.

Über 150 Top-Speaker bieten zahlreiche Impulse

Auf der Hypermotion erwartet Sie ein vielseitiges Programm. Der Deutsche Mobilitätskongress macht sich die Städtische Mobilität der Zukunft zum Leitthema. Die EXCHAiNGE widmet sich neuen interessanten Wertschöpfungsmustern für ein nachhaltiges Supply Chain Management. Im Zukunftsforum smc:smart mobility conference geht es um die urbane Mobilität und digitale Vernetzung der Regionen und die Logistics Digital Conference zeigt neue Wege für eine schnellere und nachhaltigere digitale Logistik. Die Mobilitätsexperten des Urban Mobility Labs erörtern, wie sich neue Mobilitätskonzepte auf die Qualität von Stadt und öffentlichem Raum auswirken, während im VISION mobility THINK TANK Alternativen zum automobilen Stadtverkehr gesucht werden.

Konferenzen

Themen & Events

Key Facts

Was:

Hypermotion

Wann:

26.-28.November 2019

Wo:

Messe Frankfurt, Frankfurt am Main
Tickets

Mehr Informationen unter
www.hypermotion-frankfurt.com

Zukunft des Computer Aided Engineering

eCl@ss 11.0: Neue Version formt die Zukunft des Computer Aided Engineering

Offene Produktdatenstandards sind Voraussetzung, damit Industrie 4.0 in die Realität umgesetzt werden kann. Insbesondere der eCl@ss-Standard hat sich in den letzten Jahren etabliert. Mit der nun veröffentlichten Version 11.0 hat er seine bislang größte Weiterentwicklung erfahren. Doch welche Neuerungen gibt es und welche Vorteile bieten sie konkret für das Computer Aided Engineering (CAE)?

Die Weiterentwicklung von eCl@ss ist ein kontinuierlicher Prozess. Jährlich wird eine neue Version des Standards veröffentlicht. Die neue Version 11.0 stellt insofern eine Besonderheit dar, als dass sie die umfangreichsten Neuerungen seit dem Launch der ersten Version beinhaltet.

Vor allem an zwei Beispielen wird deutlich, warum eCl@ss 11.0 weitreichende Vorteile für das CAE bietet: Die Möglichkeit zur funktionalen Beschreibung von Produkten sowie die hinzugekommenen Engineering-Daten für Schutzparameter. Beide Neuerungen entlasten Konstrukteure bei der Planung von Schaltanlagen. Wie sie sich im Einzelnen darstellen und wie Anwender hiervon profitieren können, ist im Folgenden beschrieben.


Unser Autor

Stefan Mülhens ist Mitgründer und Geschäftsführer des Softwareherstellers AmpereSoft aus Bonn. Das Unternehmen wurde 2007 gegründet und ist auf die Entwicklung von Engineering-Tools und die Pflege von Stammdaten spezialisiert. Zuvor war Mülhens als Software-Architekt und IT-Projektleiter tätig. Neben seiner Tätigkeit bei AmpereSoft unterstützt er aktiv Weiterentwicklung und Verbreitung von Standards für Produktdaten (eCl@ss Advanced) und Engineering-Daten (AutomationML).


Reduzierter Aufwand: Schutzparameter mit eCl@ss beschreiben

Die Beschreibung der Schutzparameter gehört zu den unverzichtbaren Informationen, wenn die Netzberechnung einer Schaltanlage durchzuführen ist, und um den Netzschutz durch Selektivität zu gewährleisten.

Zur softwaregestützten Netzberechnung etwa sind zahlreiche feingranulare technische Informationen in digitaler Form nötig. Diese zu recherchieren und für die entsprechenden Tools aufzubereiten, bedeutet einen enormen manuellen Aufwand – erst recht, wenn die Daten ursprünglich aus Katalogen oder anderen Unterlagen stammen und zunächst digitalisiert werden müssen. Eine Automatisierung der Prozesse ist auf diese Weise nicht möglich.

Engineering-Daten sind äußerst vielfältig und komplex. Sie standardisiert zu beschreiben, ist eine große Herausforderung. Denn: Die Daten variieren aufgrund von technischen Abhängigkeiten oder ergeben sich aus normativen Anforderungen von Typenprüfberichten. Ihre Darstellung erfolgt in der Regel als Graphen, weshalb sie nicht in einer flachen Merkmalsstruktur beschrieben werden können und von den Produktherstellern bislang individuell bereitgestellt werden.

Systematische Abbildung von Schutzparametern in eCl@ss

Abbildung von mehrdimensionalen Datenstrukturen

Mithilfe von eCl@ss können Schutzparameter nun spezifisch und detailliert beschrieben werden – und zwar sprachneutral, maschinenlesbar, branchenunabhängig und eindeutig. Die dynamische Abbildbarkeit von mehrdimensionalen Datenstrukturen ist ein Alleinstellungsmerkmal des Produktdatenstandards. Dazu werden Strukturelemente wie Block, Aspekt, Kardinalität und Polymorphismus zur Unterteilung von Informationen verwendet.

Im Block werden zusammengehörige Merkmale unter einem bestimmten Namen gesammelt. Die Merkmale in Blöcke einzuteilen, dient der besseren Übersichtlichkeit. Würden sie auf einer einzigen Ebene aufgelistet, würde dies eine lange, aus Merkmalen bestehende, Kette ergeben, die gar noch wächst, sobald neue Merkmale hinzugefügt würden. Außerdem können Blöcke an verschiedenen Stellen wiederverwendet werden. Um einen Block zu erstellen, müssen Anwender ein sogenanntes Referenzmerkmal bilden.

Funktionsbeschreibung eines Pilzdrucktasters in eCl@ss.

Aspekt, Kardinalität und Polymorphismus

Unter einem Aspekt versteht man die Sammlung von thematisch zusammengehörigen Merkmalen und Blöcken. Ein Beispiel hierfür ist der Aspekt „CAx Anschlüsse und Funktionen“, in dem detaillierte Informationen wie Art, Position und verwendbare Leiterquerschnitte beschrieben sind, sowie die Funktionen eines Produkts, um eine möglichst schnelle Verwendung im Engineering und eine automatisierte Fertigung zu ermöglichen.

Die einzelnen Blöcke können je nach Bedarf vervielfacht werden. Diese weitere Möglichkeit, die Merkmale einer Klasse zu ordnen, nennt man Kardinalität. Angenommen, eine Produktionsstraße ist mit sechs identischen Greifarmen bestückt, deren Merkmale in einem Block zusammengefasst sind. In diesem Fall reicht es aus, das Referenzmerkmal „Anzahl der Greifarme“ auf „6“ zu stellen: Der entsprechende Block würde in diesem Fall sechsmal aufgerufen.

Polymorphismus – die „Mehrgestaltigkeit“ – bietet in eCl@ss die Möglichkeit, zur Beschreibung unterschiedliche Blöcke anzuwenden und das in Abhängigkeit von einem speziellen Merkmalswert. So werden zum Beispiel für Anschlüsse in elektrischer, pneumatischer oder optischer Ausführung jeweils spezifisch zusammengestellte Merkmale (Blöcke) verwendet.

Funktionen können beschrieben werden

Die Möglichkeit zur funktionalen Beschreibung von Produkten ist die zweite wichtige Neuerung, die eCl@ss 11.0 für das CAE mit sich bringt. Denn bei der Schaltplanerstellung spielen nicht nur die physischen Größen der Komponenten eine Rolle. Unter Zuhilfenahme einer entsprechenden Software lassen sich aus den neu in eCl@ss enthaltenen Funktionsbeschreibungen wichtige Vorteile erzielen, insbesondere in Bezug auf die Zeitersparnis bei der Schaltplanerstellung. So ermöglicht etwa das AmpereSoft ToolSystem in Verbindung mit eCl@ss 11.0 die automatisierte Generierung von Schaltsymbolen, die anschließend unkompliziert in den Schaltplan eingefügt werden können. Dies gilt sowohl für genormte als auch für nicht genormte Funktionen. Bislang mussten die Konstrukteure diese Symbole teilweise aufwendig selbst erstellen, denn von Herstellerseite besteht allein aus Gründen der Wirtschaftlichkeit häufig keine Möglichkeit, alle benötigten Symbole für alle CAE-Systeme im Markt mit auszuliefern.

Meilenstein auf dem Weg zu Industrie 4.0

Schon die vorangegangenen Versionen von eCl@ss waren wichtige Schritte auf dem Weg zur Industrie 4.0. Das jetzt veröffentlichte Release geht darüber hinaus und stellt einen echten Meilenstein dar. Die noch detailliertere Beschreibung der Produktdaten ermöglicht einen entsprechend detaillierten Engineering-Prozess.

Weitere Infos: www.amperesoft.net

Bildquelle Beitrag
AmpereSoft GmbH/eCl@ss e. V.

Aufmacherbild / Quelle / Lizenz
Bild von Aneta Esz auf Pixabay

„Disruptieren Sie sich“

Wie kann der Standort Deutschland wieder smart werden? Wir sprachen mit Oliver Bendig, CEO von Matrix42, über die Chancen der Digitalisierung. Nicht rasten, sondern sich kontinuierlich neu erfinden, rät er im Laufe des Gesprächs. Dafür ist insbesondere der Mittelstand in einer hervorragenden Situation sind. Weil Geschwindigkeit in der digitalen Welt ein extrem hohes Gut ist.

Oliver Bendig ist CEO der Matrix 42 AG.
Oliver Bendig ist CEO der Matrix42 AG.

Welche Potenziale für den Standort Deutschland stecken in den neuen Technologien im Kontext von Automatisierung, KI und deren Anwendungen sowie Vernetzung?
Insbesondere künstliche Intelligenz und Machine Learning sind nicht nur Buzzwörter, daraus können ganze Geschäftsmodelle entwickelt werden. Deshalb investieren Unternehmen und auch wir kräftig in diesen Bereich. Eine besondere Rolle spielt dabei der digitale Arbeitsplatz, der idealerweise alle möglichen Informationen wann und wo und wie ich sie benötige zur Verfügung stellt und über mich lernt, sich also meinem Nutzerverhalten anpasst. Ein weiterer Schwerpunkt liegt auf der Kombination von KI und Automation am Arbeitsplatz, der Robotic Process Automation. Wie schaffe ich es, Arbeitsabläufe in Unternehmen soweit zu automatisieren, dass die Maschine in der Lage ist sich selbst immer weiter zu optimieren? Hierzu benötigen wir verschiedene Daten – Nutzungsverhalten, Rollen, Personen, Lokationen, etc. – die wir in einen Kontext bringen, um einen besseren Service bereitzustellen.
Welche Möglichkeiten KI und Machine Learning in diesem Zusammenhang in unserer Welt ermöglichen, verdeutlicht beispielhaft unser Virtual Support Agent. Die Vision dahinter ist, einen virtuellen Buddy im Unternehmen zu haben, der den Mitarbeitern alle möglichen Fragen beantwortet und sie zusätzlich proaktiv bei der Arbeit unterstützt. Er stellt beispielsweise Dokumente zur richtigen Zeit auf dem richtigen Arbeitsgerät bereit, oder findet durch Kalenderabfragen und dem Kontext von E-Mail-Kommunikationen den richtigen Zeitblock für Terminabsprachen.
Problematisch ist allerdings, dass die digitale Transformation in den Unternehmen oft schneller voranschreitet als das dazugehörige notwendige Security-Know-how. Ich kann daher nur mahnen, sich bei der ganzen fortschrittlichen Entwicklung viel mehr Gedanken um Security-Elemente zu machen.


Welche Rolle wird speziell das Quntencomputing in puncto Security spielen?
Durch Quantencomputing werden die Verschlüsselungstechniken, die wir über Jahrzehnte entwickelt haben – von denen wir glaubten, dass sie sicher sein, weil sie so unheimlich komplex sind – der Vergangenheit angehören. Wir selbst sind schon dabei Verschlüsselungstechnologien zu entwickeln, die auch über Quantencomputing abgesichert sind und die sie nicht einfach berechnen lassen und brechen können.
Was wichtig ist, ist Awareness zu schaffen im Unternehmen, das Handlungsbedarf besteht, das man in Security nicht nur technisch investieren muss, sondern auch ins Knowhow der Menschen und Personen – und hier beraten wir sehr stark hin – auch mit unseren Lösungen. Es ist ein Riesenthema. Wenn Computing immer schneller, exponentiell voranschreitet, muss auch Security nachziehen oder besser – voranschreiten.

Droht die zunehmende Automatisierung den Menschen zu ersetzen?
Entscheidend ist, dass es bei unseren Automationslösungen nie darum geht Mitarbeiter abzubauen. Wenn Sie Ihr Geschäft ausbauen, wollen Sie keine Mitarbeiter einsparen, sondern Kosten – ein wichtiger Unterschied. Die Mitarbeiter können im Idealfall woanders eingesetzt werden, wo sie an Innovationen, am Unternehmen der Zukunft arbeiten. Automatisierung soll also nicht bloß dazu dienen, die Lichter am Laufen zu halten, sondern das Geschäft voranbringen. Sie soll Freiräume schaffen, um neue Produkte zu entwickeln oder Kunden neue Leistungen anzubieten.

Wo lagen die Herausforderungen bei der Entwicklung Ihres Virtual Support Agent Marvin?
Zunächst einmal mussten ganz einfach Menschen gefunden werden, die in der Lage waren den Code zu bauen, die also programmieren können und sich mit künstlicher Intelligenz und Machine Learning auskennen.
Damit Marvin als Virtual Support Agent wie gewünscht agieren kann, Sie ihn also als Ihren virtuellen Buddy anchatten können und er bei IT-Problemen hilft, mussten zudem einige technische Herausforderungen gemeistert werden:
Hierzu gehört die Interpretation von Sprache, von der Semantikanalyse bis hin zur Emotionserkennung. Schließlich soll Marvin anders reagieren wenn Sie sauer sind, als wenn Sie freundlich fragen. Als Virtual Support Agent spielt auch der Content, aus dem er lernen und den er zur Verfügung stellen kann, eine ganz zentrale Rolle. Ein konkretes Beispiel: PowerPoint funktioniert nicht mehr. Jetzt kann ich zwar einen einfachen Entscheidungsbaum aufbauen, wie das System auf diese Situation reagieren kann. Wichtiger ist jedoch, dass ich ein System habe, das kontinuierlich dazulernt und so auch bei neuen Probleme helfen kann. Hier haben wir eine Technologie entwickelt, die es ermöglicht aus den Informationen, die wir von den Anwendern bekommen, und aus früheren Anfragen zu lernen. Dabei spielt auch wieder die Interpretation von Sprache eine wichtige Rolle. Schließlich muss das System erkennen, bei welchen unterschiedlichen Anfragen eigentlich das gleiche gemeint ist. Darüber hinaus haben wir eine Fehlererkennung für Marvin entwickelt. Wenn also eine Fehlermeldung aufpoppt, erkennt Marvin schon das Problem, ehe Sie danach fragen. Auch damit muss Marvin natürlich gefüttert werden. Die größte Herausforderung war also definitiv, der KI den grundlegenden Content zur Verfügung zu stellen. Dabei machen wir uns einen Netzwerk-Effekt zu Nutze: Wir haben über 5.000 Kunden und je mehr Kunden, das System nutzen, desto cleverer wird das System. Die einfachste Form der Quelle sind dabei noch Knowledge-Artikel in der Knowledge-Base der Kunden, die Lösungen behandeln. Zusätzlich zapfen wir aber auch Dritt-Systeme an, um das System weiter mit Content zu befüllen.

Was raten Sie speziell kleineren Unternehmen mit bis zu 250 Mitarbeitern im Kontext neuer Technologien, um nicht abgehängt zu werden?
Auch als KMU muss ich im Zuge der Digitalisierung unheimlich schnell reagieren, sonst werde ich disruptiert, überholt, überfahren. Als KMU haben Sie dabei einen riesigen Wettbewerbsvorteil – Sie sind nicht so schwerfällig. Nicht umsonst versuchen Konzerne sich vielfach in kleine Zellen aufzuteilen und Spin-offs zu machen, die sei später wieder integrieren. Sie brauchen die Geschwindigkeit. KMU müssen diesen Vorteil ausspielen. Das heißt auch nicht erst alles bis zum Ende durch zu definieren, sondern, salopp gesprochen, einfach mal los zu legen. Der Build-measure-learn-Denkansatz ist schon lange keine Neuheit mehr, aber einfach mal loszulegen, heißt, auf das Minimum Viable Product, den MVP-Ansatz zu setzen. Ich probiere und ich experimentiere.
Inkrementelle Innovation – kleine Optimierungen in kleinen iterativen Schritten – ist natürlich wichtig. Aber ganz offen: wenn wir heute an den Maschinenbauer, das Industrieunternehmen denken, dann hilft da keine inkrementelle Innovation mehr.
Da geht es um disruptive Innovationen. Deswegen rate ich jedem Unternehmen, lieber sich selbst zu disruptieren, bevor es jemand anderes tut. Hinterfragen Sie, was Digitalisierung für Ihr Geschäftsmodell bedeutet. Uber beispielsweise arbeitet selbst am autonomen Fahren und disruptiert damit sein eigenes Geschäftsmodell, entwickelt aber gleichzeitig neue Dienstleistungen, die auch dann noch Bestand haben. Mit Uber-Eats z.B. kann man jetzt Essen bestellen.
Es gilt nicht zu rasten, sondern sich kontinuierlich neu zu erfinden. Mittelständische Unternehmen sind hier in einer hervorragenden Situation, eben weil Geschwindigkeit in der digitalen Welt ein so extrem hohes Gut ist.

Wie können Sie da den Umsatz stabil halten und sich gleichzeitig neu erfinden?
Hier gibt es von McKinsey das Treiber-Horizont-Modell: Sie bauen Ihre Organisation so auf, dass sie einen Horizont 1 haben, der Ihren Cashflow und Umsatzstrom jetzt und für die nächsten 12 – 18 Monate sicherstellt. Dann bauen sie in der Organisation einen Bereich Horizont 2 – dort beginnen schon Menschen an der Zukunft zu arbeiten, die den Umsatzstrom ab dem 18. bis zum 36. Monat generieren soll.
Dann gibt es den Horizont 3 – das ist eine ganz kleine Truppe. Das ist mein Startup – ich sage es salopp, das sind meine Spinner. Das sind die Leute, die hinter den Horizont schauen und fragen, was kommen könnte. Das sind die Leute, die Ihnen die Zukunft bauen, die sich vielleicht in den nächsten 72 Monaten materialisieren lässt.
Dabei weiß ich, dass ein Produkt aus Horizont 1, welches ich heute erfinde, in fünf, zehn oder 15 Jahren weniger Umsatz abwerfen wird. Durch Horizont 2 und 3 gleichen Sie diesen Verlust aber immer wieder aus.

Weitere Informationen unter:
www.matrix42.com
KI im Service-Desk

Prozessdaten nutzbar machen, Wertschöpfung steigern

von Marc Steinhaus

Datenanalyse in der Industrie: Prozessdaten nutzbar machen, Wertschöpfung steigern

Die Analyse industrieller Prozessdaten macht Optimierungspotenziale sichtbar und kann einen Beitrag zur Steigerung des Unternehmenserfolges leisten. Durch die zunehmende Digitalisierung in der Produktion stehen mehr Daten denn je zur Verfügung. Hier schlummert ein wertvoller Informationsschatz, der von vielen Anlagenbetreibern noch zu selten gehoben wird. Wie sind die Daten zu lesen, wie können sie ausgewertet werden, um die Wertschöpfungskette zu verbessern? Die Herausforderung besteht im Nutzbarmachen.

Temperaturen, Drücke oder Geschwindigkeiten: Maschinen und Rechnersysteme in modernen Produktionsanlagen tauschen solche Informationen permanent untereinander aus. Diese Prozessdaten dienen nicht nur dazu, dass vernetzte Maschinen den jeweiligen Ist-Zustand der mit ihnen in Verbindung stehenden Geräte kennen, um entsprechend darauf zu reagieren.

„Um die Prozessdaten effizient nutzen zu können,
ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig.
Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert.“

Marc Steinhaus

Auch die Betreiber der Anlagen können wertvolle Erkenntnisse gewinnen – die richtige Interpretation der Daten vorausgesetzt. Erst Recht wenn zusätzliche Daten, wie etwa Qualitätsdaten, Wartungsberichte oder Auftragsdaten mit in die Analyse einfließen. Die Erkenntnisse können beispielsweise für Predictive Maintenance oder zur Verbesserung der Effizienz von Anlagen genutzt werden.


Autor Marc Steinhaus

Marc Steinhaus ist Prokurist bei der Steinhaus Informationssysteme GmbH und Aufsichtsratsvorsitzender und Mitgründer der Audials AG. Der 46-jährige Diplom-Informatiker wechselte vor 17 Jahren als Entwickler in das auf Prozessdatenmanagement-Systeme spezialisierte Unternehmen ein. Heute ist Marc Steinhaus bei der Steinhaus Informationssysteme GmbH, einem familiengeführten IT-Unternehmen, für das Business Development verantwortlich.


Ziele der Analyse von Prozessdaten 

Neben den schon genannten Anwendungsmöglichkeiten sollen bei der industriellen Datenauswertung beispielsweise folgende Ziele erreicht werden.

  • die Reduzierung von Ausfällen und somit die gesteigerte Verfügbarkeit
  • eine höhere Produktqualität
  • die Steigerung der Produktionsleistung
  • das leichtere Engineering von effektiven Neuanlagen
  • die Entlastung der Mitarbeiter

Doch bevor eine zielgerichtete Analyse von Prozessdaten möglich wird, müssen diese zunächst nutzbar gemacht werden. Eine echte Herausforderung. Denn: Die verfügbaren Prozessdaten stammen in der Regel von vielen unterschiedlichen Quellen und sind daher von einer großen Heterogenität gekennzeichnet. Meist herrscht Unordnung.

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst.

Während der Wert und die Zeit noch eindeutig sind, beginnt die Variabilität bereits bei den Einheiten. Ein Beispiel: Die Temperatur wird in Celsius angegeben, doch wird die Einheit mal mit C, mal mit C°, Grad C, usw. abgekürzt. Noch komplizierter stellt sich die Einordung weiterer Metadaten dar, die die Eigenschaften der jeweiligen Messstelle beschreiben. Diese werden und wurden nach unterschiedlichsten Konventionen (beispielsweise KKS, technische Plätze, AKS …) vergeben, die zudem oft nicht strikt eingehalten und mit der Zeit weiterentwickelt werden.

Aber nicht nur Einheiten und Konventionen unterscheiden sich – auch die unterschiedlichen Systeme, in denen Daten erhoben werden, müssen bedacht werden. So werden Informationen aus Feldsystemen in einem kontinuierlichen Datenstrom gesendet, während Daten aus übergeordneten Systemen wie ERP oder MES als einzelne Datenpakete bereitgestellt werden.  Des Weiteren liegen benötigte Daten möglicherweise in den Händen von Partnern. Es ist offensichtlich, dass sich daraus verschiedene Anforderungen für die Datenaggregation ergeben. Aus all den potenziell zur Verfügung stehenden Daten entsteht eine Flut an heterogenen Informationen, die in unstrukturierter Form kaum von Nutzen sind.

Strategischer Ansatz und zuverlässige Partner: Schritt für Schritt zur effektiven Datennutzung

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst. Ein Beispiel: Für eine industrielle Anlage soll ein Energiebericht erstellt werden. Das Vorgehen ist zwar fehleranfällig und aufwendig, kann aber grundsätzlich zum gewünschten Ergebnis führen. Handelt es sich aber um eine Anlage mit 50.000 Messstellen, von denen mehrere Tausend Messungen von Energie- und Medienströmen sind, wird die Aufgabe ungleich schwieriger. Denn nicht jede der Messstellen liefert Informationen, die für einen Energiebericht Relevanz besitzen und zudem ist die schiere Masse der Daten zu groß, um sie manuell ordnen zu können.

Es wird klar, dass hier ein strategisches Vorgehen gefragt ist: In einem ersten Schritt müssen die Messstellen strukturiert werden. Dazu ist es von entscheidender Bedeutung, die Metadaten in eine einheitliche Form zu bringen und die verschiedenen Konventionen auf eine allgemein gültige Abzubilden. Ein weiterer elementarer Bestandteil ist es, die topologischen Informationen der Messstellen in eine standardisierte Form zu bringen.

Erst wenn diese Daten einheitlich und weitestgehend normiert und somit vergleichbar sind, kann auf ihrer Basis ein automatisiertes Berichtswesen erstellt werden. Beispielsweise indem die Zusammenstellung der Energieberichte nach verschiedenen Aspekten algorithmisch und nicht mehr durch den Anwender händisch erfolgt. Langjährige Erfahrung und Know-how sind hierfür ebenso Voraussetzung wie die Nutzung einer entsprechenden technologischen Lösung.    

Um die Prozessdaten effizient nutzen zu können, ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig. Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert. Anbieter, die einen nachhaltigen Erfolg ihrer Kunden anstreben, geben schon bei der Entwicklung einer passenden Strategie praktische Hilfestellung.

Die zweite Komponente ist die schon angesprochene Software. Benötigt wird ein leistungsfähiges Tool, das die vorliegenden Daten aufräumt, strukturiert und mittels algorithmischer Verfahren in Standardinformationen umwandelt. Bei der Auswahl eines Anbieters sollten Anlagenbetreiber sich also nicht mit einer modern anmutenden Nutzeroberfläche zufrieden geben, die lediglich die manuellen Tätigkeiten erleichtert. Wichtiger ist eine genaue Prüfung des angebotenen Leistungsspektrums, denn im besten Falle automatisiert die Software diese Tätigkeiten.

„Die wichtigsten Fragen sind: ...“

Die wichtigsten Fragen sind: Welche Funktionen bildet das System ab? Reichen diese aus, um die Wertschöpfung effektiv zu steigern? Wie skalieren Arbeitsaufwände, Fehleranfälligkeit, Performance und Nachvollziehbarkeit mit einer rasant wachsenden Anzahl von Messpunkten? Und steht ein erfahrener Partner zur Verfügung, der vor, während und nach dem Kauf unterstützend tätig wird, wenn es nötig ist?

Nur wenn diese Fragen bejaht werden können, wird die Analyse der Prozessdaten gewinnbringende Erkenntnisse liefern. 

http://www.steinhaus-informationssysteme.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Wie Künstliche Intelligenz die Medien verändert

von Norbert Lossau 

› 

Künstliche Intelligenz (KI) wird die Medien in vielfältiger Weise transformieren. Insbesondere wird sie den Schwerpunkt vom geschriebenen hin zum gesprochenen Wort verschieben. Digitale Assistenten könnten journalistische Inhalte vermitteln.

› 

KI ermöglicht neue Geschäftsmodelle: insbesondere 
Kooperationen zwischen Medienhäusern und Technolo- 
giefirmen. Auch Archivdaten lassen sich monetarisieren.

› 

KI wird Sprachbarrieren abbauen und damit die Globalisierung des Journalismus befördern.

› 

KI automatisiert nicht nur Arbeitsabläufe, sondern auch Entscheidungsprozesse. Damit sinkt der Bedarf an Mitarbeitern.

› 

Mit KI lassen sich Medienangebote hochspezifisch individualisieren. Dazu wird eine „kritische Masse“ an Daten benötigt. Extreme Personalisierung medialer Produkte kann Filterblasen-Effekte verstärken.

› 

Künftige Geschäftsmodelle der Medien hängen sensibel von datenschutzrechtlichen Rahmenbedingungen ab.

 

 

Inhaltsverzeichnis 
I. Was ist Künstliche Intelligenz?
II. Rechtschreibung und Hasskommentare
III. KI überwindet Sprachbarrieren
IV. KISysteme schreiben eigenständig Beiträge
V. Maschinen treffen Entscheidungen
VI. Hören statt Lesen
VII. KI-Journalismus benötigt kritische Masse
VIII. Journalismus und Blockchain
IX. Zusammenfassung und Diskussion
Literaturverzeichnis


I. Was ist Künstliche Intelligenz? 

Vor rund 50 Jahren haben Wissenschaftler den Begriff der Künstlichen Intelligenz (KI)  etabliert. Entwickelt werden sollten Computer, die Aufgaben bewältigen, für die bis dato „menschliche Intelligenz“ erforderlich war. Bereits seit den 1980er Jahren setzen Industrie und Militär solche Technologien ein (1). Sie basieren auf künstlichen neuronalen Netzen, die Mechanismen des menschlichen Gehirns nachahmen und dadurch Muster in Daten, Texten und Bildern erkennen können (2)

Was die breite Öffentlichkeit unter KI versteht, ist vorwiegend von Science Fiction-Romanen und -Filmen geprägt, in denen humanoide Roboter mit übermenschlichen, geistigen Fähigkeiten eine Rolle spielen. Beispiele sind das körperlose KI-System Winston im Roman Origin von Dan Brown (3) oder das körperbetonte KI-Wesen Ava im Film Ex Machina (4).  In der realen Welt waren es Schach und Go spielende Computer, die die Leistungsfähigkeit von KI-Systemen demonstrierten. Auch der KI-Computer Watson, der in der US-Quiz-Show Jeopardy! gegen menschliche Mitspieler siegte, war ein Meilenstein in der öffentlichen Wahrnehmung von KI. 

Inzwischen ist das Thema KI in der gesellschaftlichen und politischen Diskussion angekommen. Von der KI werden umwälzende Veränderungen in allen Bereichen der Wirtschaft und des Lebens erwartet, zum Beispiel bei der autonomen Mobilität und der Industrie 4.0. Auch die Medien werden durch den Einsatz von KI weitere Transformationen durchlaufen. 

Es gibt bislang keine wissenschaftlich anerkannte Definition für Künstliche Intelligenz. Aus pragmatischer Sicht ist es auch nicht wichtig, ob eine bestimmte Technologie das Prädikat „intelligent“ verdient. Entscheidend ist, was sie leisten kann. Wenn in diesem Beitrag von KI die Rede ist, könnte es ebenso gut „fortgeschrittene Computertechnik“ heißen. Dem allgemeinen Sprachgebrauch folgend werden jedoch die neuen technischen Möglichkeiten der KI zugeschrieben. 

II. Rechtschreibung und Hasskommentare 

Beschleunigte Arbeitsabläufe und bessere Qualität 
Jeder Leser von journalistischen Print- oder Online-Produkten hat sich schon über Rechtschreib- oder Grammatikfehler geärgert. Auch bei großer Sorgfalt und mit abschließender Kontrolle durch Korrektoren lassen sie sich nicht immer verhindern. Was wäre, wenn eine Maschine vollkommene Fehlerfreiheit garantieren könnte? Arbeitsabläufe würden sich beschleunigen, und die Produktqualität würde verbessert. Gerade im Online-Journalismus kann eine halbe Stunde im Konkurrenzkampf mit anderen Medien entscheidend sein. Oft stellt sich die Frage: Sofort veröffentlichen, ohne Korrekturlesen? Oder dreißig Minuten später online gehen, dann aber fehlerfrei? Diese Entscheidung wäre obsolet, würde KI Texte in Sekundenschnelle korrigieren. 

Hasskommentare: automatische Korrektursysteme 
Manche Medien ermöglichen ihren Nutzern, Online-Beiträge zu kommentieren. Und nicht selten kommt es zu Hasskommentaren oder gar volksverhetzenden Anmerkungen. Sie so schnell wie möglich zu löschen oder von vornherein zu verhindern, muss das Ziel jedes Mediums sein, zumal es hier gesetzliche Vorgaben (5) gibt. KI-Systeme könnten schon bald in der Lage sein, Hasskommentare eigenständig zu erkennen und zu löschen – viel schneller als ein Mensch, und rund um die Uhr. Es gibt bereits heute Software zum Aufspüren von Schlagworten, die auf problematische Inhalte hinweisen. Doch die Leistungsfähigkeit dieser regelbasierten Systeme ist begrenzt, weil sie die Bedeutung von Texten nicht verstehen. Das werden KI-Systeme mit semantischer Kompetenz voraussichtlich bald können. Auch automatische Korrektursysteme werden davon profitieren. 

III. KI überwindet Sprachbarrieren 

Internationalisierung des Journalismus 
Semantische KI, die Texte inhaltlich erfasst, ist auch eine Voraussetzung für gelungene automatische Übersetzungen. Übersetzungsprogramme gibt es schon lange, doch die 
Ergebnisse sind oft unzureichend. Manche Bedienungsanleitung gibt davon Zeugnis. Die Sprachqualität reicht für journalistische Produkte nicht aus. KI wird die Qualität automatischer Übersetzungen dramatisch verbessern. Im Idealfall merkt man einem übersetzten Text nicht mehr an, dass er ursprünglich in einer anderen Sprache geschrieben wurde. Das eröffnet den Medien neue Optionen. Zum Beispiel wären Kooperationen wie die Leading European Newspaper Alliance über Sprach- und Ländergrenzen hinweg sehr viel einfacher möglich als heute. 

Wenn ein in Deutsch verfasster Beitrag ohne nennenswerten Zeitverzug auch in Französisch, Schwedisch oder Englisch vorläge, könnte er parallel bei Partnermedien in den entsprechenden Ländern erscheinen. Das würde Kosten senken und in kleineren Märkten Produkte ermöglichen, die vorher nicht finanzierbar gewesen wären. Das publizistische Spektrum würde breiter. 

Wachsender Wettbewerbsdruck 
Seit August 2017 bietet die Kölner Firma DeepL (6) für sieben Sprachen Online-Übersetzungen in Echtzeit an. Geplant sind 230 Sprachkombinationen. Der Bedarf an Journalisten und Übersetzern dürfte durch den Einsatz solcher Systeme tendenziell kleiner werden. Autoren müssten mit wachsender Konkurrenz aus anderen Sprachräumen rechnen. KI ermöglicht die Globalisierung des Journalismus. Allerdings wird es immer auch Themen geben, die sich nur vor Ort von Journalisten im jeweiligen Land recherchieren lassen. Sprachen, die nur von relativ wenigen Menschen gesprochen werden, könnten durch diese Entwicklung allerdings weiter marginalisiert werden. 

IV. KI-Systeme schreiben eigenständig Beiträge 

Autonomes Schreiben 
Am technologischen Horizont zeichnen sich KI-Systeme ab, die eigenständig journalistische Texte verfassen. Jedoch hängt es stark vom Genre ab, wie schnell „Kollege Computer“ Journalisten aus Fleisch und Blut verdrängen wird. Medienhäuser experimentieren bereits mit Schreibrobotern. Führender Anbieter von Systemen zum Generieren von Texten aus Rohdaten ist das 2010 in Chicago gegründete Unternehmen Narrative Science (7). Die Grundlage dieser Technologie wurde mit dem Algorithmus StatsMonkey an der Northwestern University gelegt. Es gibt weitere Anbieter. Die Agentur AP verwendet die Software Wordsmith von Automated Insights zum Erstellen von Quartalsberichten. Bei der Washington Post textet die KI Heliograf kurze Sportberichte, und die Stuttgarter Zeitung nutzt AX Semantics von Aexea (8) für die Nachrichtenproduktion. Eine Software des spanischen Unternehmens Narrativa (9) verfasst für mehrere Medien Finanznachrichten. 

Bislang werden computergenerierte Texte vorwiegend in den Bereichen Sport, Finanzen und Wetter erstellt. Füttert man das System etwa mit Ergebnissen der 3. Fußballliga oder den MDAX-Kursen, so kann es aus diesen Daten mithilfe von Textbausteinen einen Artikel erstellen. Ein solcher Text liest sich nicht immer monoton, denn das System kann – nach vorgegebenen Regeln – aus vielen Bausteinen wählen und damit variieren. 

Semantische Fähigkeiten 
Forscher arbeiten an der Entwicklung von KI mit semantischen Fähigkeiten. Sie soll über ein gewisses inhaltliches Verständnis verfügen und in der Lage sein, aus Texten einer Nachrichtenagentur fertige Beiträge zu produzieren. Dazu würde sie das Rohmaterial auf vorgegebene Längen kürzen und an einen gewünschten Sprachstil anpassen. Auch die Auswahl von Bildern, das Erstellen von Überschriften, Unterzeilen und Bildunterschriften könnten fortgeschrittene Systeme übernehmen. Der (nahezu) vollautomatische Newsroom ist keine Utopie. 

V. Maschinen treffen Entscheidungen 

Auf Leserinteressen abgestimmt    
Heute wählen noch Redakteure die Themen aus. Dass sich auch dies automatisieren lässt, zeigen Newsaggregatoren wie Upday (10). Mittelfristig dürften journalistische Entscheidungen immer häufiger an lernfähige Maschinen delegiert werden. Gibt man zu optimierende Zielgrößen vor, kann eine lernfähige Maschine besser als jeder Mensch entscheiden. Ein wichtiger Aspekt ist natürlich die Frage, wofür sich die Leser interessieren. KI-Systeme können aus dem bisherigem Nutzerverhalten mit einiger Treffsicherheit ableiten, ob ein neues Thema auf großes Interesse stoßen wird. Diese Form der Automatisierung verstärkt allerdings den Echokammer-Effekt (11). Sogar Maschinen selbst können Opfer dieses Effekts werden, wie das Beispiel des Bots Tay von Microsoft zeigt: Innerhalb kürzester Zeit wurde dieses lernfähige System zu einem Rassisten und Leugner des Holocaust (12).  

Wenn es um automatisiertes Entscheiden geht, kommt die Technologie der Künstlichen Neuronalen Netze ins Spiel. Sie imitieren Mechanismen von Gehirnen und können so Aufgaben bewältigen, für die wir gemeinhin Intelligenz unterstellen. Künstliche Neuronale Netze lernen, sie sind zu Assoziationen fähig und können Muster erkennen – etwa Gesichter, Tiere oder schlicht Korrelationen in digitalen Daten aller Art. Ohne in die technischen Details zu gehen, darf man sich ihre Arbeitsweise so vorstellen: Sie werden mit möglichst vielen Daten trainiert, damit sie darin enthaltene, subtile Zusammenhänge lernen. In der Anwendungsphase kann das Netzwerk dann auch neue Daten interpretieren und Schlüsse ziehen – gleichsam auf der Basis des erlernten Wissens. 

Füttert man ein Künstliches Neuronales Netzwerk mit tausenden Tierfotos und sagt ihm, um welche Tierart es sich dabei jeweils handelt, kann es später auf neuen Fotos Tierarten eigenständig erkennen. In der Kriminalistik lässt sich die gleiche Technik zum Identifizieren von Personen nutzen. Trainiert man ein Künstliches Neuronales Netz mit menschlichen Gesichtern, erkennt es ein gelerntes Gesicht auf dem Bild einer Überwachungskamera. 

Optimierte Strategien 
Für lernfähige KI-Systeme gibt es in den Medien zahlreiche Anwendungen. Auch hier werden zunächst ausreichend viele Daten benötigt, um das System für die jeweilige Aufgabe zu trainieren. Einige Medien stellen einen Teil ihres Angebots gratis online, während ein anderer Teil nur zahlenden Kunden zugänglich ist. Doch wie entscheidet man im Einzelfall, für welchen Kanal sich ein Artikel besser eignet? Das ist eine komplexe Optimierungsaufgabe. „Frei zugänglich“ steht für möglichst große Reichweite, zum Bezahlen müssen Nutzer hingegen bereit sein. Natürlich verfügen die Entscheider über Erfahrungswissen, was sich gut verkaufen lässt und was eher für Reichweite und damit Werbung taugt. Diese Expertise kann auch ein KI-System erlangen. Es weiß von jedem veröffentlichten Beitrag, wie gut seine Performance war. Auch Parameter wie Wochentag, Uhrzeit oder eine zeitliche Konkurrenz zu bestimmten anderen Themen kann ein solches KI-System für zehntausende Veröffentlichungen berücksichtigen. Voraussetzung ist auch hier ein gewisses semantisches Verständnis. Schließlich muss die Thematik der Beiträge erkannt werden. Bis KI-Systeme dazu in der Lage sein werden, kategorisieren Menschen die Beiträge mit Schlagworten. 

Bereits heute optimiert Statistical Reasoning die Verbreitung journalistischer Produkte. So spielt etwa die Washington Post Online-Beiträge zunächst mit verschiedenen Überschriften aus – die indes noch Menschen formulieren. Schon nach kurzer Zeit lässt sich erkennen, welche Überschrift den stärksten Anreiz zum Klicken auslöst. Mit diesem Wissen setzt man dann voll auf den statistischen Sieger. Analog lassen sich auch Aufmacherbilder oder Dachzeilen variieren und testen. Mit mehr Parametern wird das Spiel zunehmend komplexer. Doch für KI-Systeme sind derartige Optimierungen ein Leichtes. 

Wissen über Kunden und Abonnenten 
Je mehr ein Medienhaus über seine Kunden und Abonnenten weiß, umso individueller kann es journalistische Angebote vermarkten. Das Motto „Daten sind das neue Öl“ gilt eben nicht nur für Google, Facebook & Co. Durch stetiges Auswerten des Nutzungsverhaltens kann KI zunehmend bessere Profile der Konsumenten erstellen. Diese lassen sich zum Optimieren der Angebote nutzen. Wenn ein Medienanbieter weiß, dass Leser X Fan des Fußballvereins Y ist, dann ist es ratsam, den Bericht zum Spiel von Y ganz oben auf die personalisierte Seite von X zu stellen. Wenn man individualisierte Produkte in großer Breite und Tiefe produzieren will, erfordert das einen massiven Einsatz von Technik. 

VI. Hören statt Lesen 

Der Fortschritt beim automatischen Erkennen gesprochener Worte hat bereits gesellschaftliche Auswirkungen. Es gibt in der Bevölkerung eine erstaunlich hohe Akzeptanz von sprachgesteuerten Assistenz-Systemen wie Alexa von Amazon, Siri von Apple oder Duplex von Google (13). Mit diesen Systemen kann man per Sprache kommunizieren und so Haushaltsgeräte steuern oder das Internet nutzen. Weil das so bequem und so intuitiv ist, werden Bedenken, die man mit einem „Internet-Mikrofon“ in der Privatsphäre haben könnte, offenbar hinten angestellt. 

Das Abfragen von im Web verfügbaren Informationen über einen digitalen Assistenten liegt im Trend. Doch dabei wird es wohl nicht bleiben. Schon bald werden die Nutzer solcher Systeme mit gleicher Bequemlichkeit auch neueste Nachrichten, andere journalistische Produkte oder das in Medienarchiven gespeicherte Wissen abrufen wollen. Hier dürften neue Geschäftsmodelle entstehen. 

Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn.

Dr. Norbert Lossau

Computergenerierte Stimmen kennt jeder vom Navigationssystem im Auto. Blinde oder Lesemuffel lassen sich Online-Texte vorlesen, und auf Bahnsteigen hören wir aus Lautsprechern Textbausteine zu verspäteten Zügen. Bislang sind Computerstimmen meist noch als solche zu erkennen. Durch KI wird sich jedoch deren Qualität so verbessern, dass sie völlig natürlich klingen. Das entsprechende Forschungsgebiet nennt sich NLG (Natural Language Generation), und erste Produkte sind bereits erhältlich – etwa die NLG-Software Quill von Narrative Science (7). Es wird auch möglich sein, dem Computer die Stimme einer realen Person zu verleihen. 

Mehr Komfort 
Für Medien ist relevant, dass Mensch und Maschine sprachlich kommunizieren können – auch mobil. Im Online-Journalismus gibt es einen starken Trend weg von der stationären hin zur mobilen Nutzung, bei einigen Medien beträgt ihr Anteil schon mehr als drei Viertel. Diese Entwicklung fördert die Audio-Nutzung. Das dürfte auch zu einem Comeback jener Formate führen, die sich nur schwer über das kleine Display eines Smartphones vermitteln lassen. Das Lesen langer, tiefgründiger Texte ist mobil eher anstrengend. Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn. Derzeit ist eine Renaissance von Podcasts zu beobachten, die um die Jahrtausendwende ihre erste Boom-Phase hatten. Besonders aktiv sind hier der Deutschlandfunk, der Bayerische Rundfunk, Spiegel-Online, WELT und Zeit-Online. 

VII. KI-Journalismus benötigt kritische Masse 

Journalismus war immer von Technologien abhängig, seien es nun Druckmaschinen, TV-Studios oder Sendeanlagen. Im Online-Zeitalter ist die Bedeutung von Technik jedoch noch einmal stark gewachsen. KI wird diesen Trend beschleunigen. Voraussetzung dafür sind jedoch ausreichend große Datenmengen, wobei sich die Frage stellt, wie Medien diese gewinnen können. Eine Möglichkeit liegt in der Zusammenarbeit mit Telekom- oder Tech-Unternehmen. 

Beispiel einer erfolgreichen Kooperation ist der Nachrichten-Aggregator Upday – ein Projekt von Axel Springer und Samsung (10). Auf den Smartphones von Samsung ist eine Upday-App vorinstalliert. Journalisten sammeln mit massiver Technikunterstützung aus vielen Quellen unterschiedlicher Sprachen jene Informationen, die dann individualisiert an die Nutzer der App ausgespielt werden. Das ist ein kleiner Vorgeschmack auf die Zukunft von KI und Medien. 

Neue Geschäftsmodelle 
Das Zeitalter der KI eröffnet den Medien diverse neue Geschäftsmodelle. Kooperationen bieten sich an, zwischen jenen, die über Inhalte (aktuell und im Archiv) verfügen, und jenen mit einem technischen Zugang zu vielen Menschen. Hier könnten auch digitale Assistenten zum Einsatz kommen. Man ruft ihnen – auf dem Sofa sitzend oder auch während einer Autofahrt – einfach zu: Lies mir den Leitartikel aus der Zeitung X vor. Oder: Was hat eigentlich Konrad Adenauer zu diesem oder jenem Thema gesagt? Oder: Wie wird morgen das Wetter? 

VIII. Journalismus und Blockchain 

Echtheit von Informationen 
Einige Experten nehmen an, dass auch die Blockchain-Technologie im Journalismus der Zukunft eine Rolle spielen wird. Die Krypto-Währung Bitcoin basiert auf diesem Konzept, das auch viele andere Anwendungen ermöglicht – etwa die Verwaltung von Grundbucheinträgen. Blockchain kombiniert Technologien der digitalen Vernetzung mit Kryptografie. Noch sind die Vorstellungen über ihren Einsatz im Journalismus vage. Manche erhoffen sich von Blockchain neue Formen der Zusammenarbeit von Journalisten sowie einen besseren Schutz von Informanten. Sie könnte auch die Echtheit von Informationen sicherstellen, weil einmal in einen Block eingetragene Daten nicht mehr verändert werden können. Blockchain könnte auch neue Finanzierungsmodelle von Journalismus ermöglichen. 

In den USA startete im Frühjahr 2018 mit Civil (14) das erste auf Blockchain basierende Medienprodukt. Der Venture Capital-Geber ConsenSys (15) schob das Projekt mit fünf Millionen US-Dollar an. Mit dem Nachrichten- und Kulturmagazin Popula ist ein weiteres Blockchain-Projekt geplant. In Deutschland gibt es das von Googles Digital News Initiative (16) geförderte Content Blockchain Project. Hier sollen neue Wege der Finanzierung und Vermarktung von Medienprodukten getestet werden. Beteiligt sind die Nachrichtenagentur dpa, Golem und DIE ZEIT. 

Noch lässt sich nicht sagen, ob Blockchain tatsächlich eine maßgebliche Rolle in der Welt des Journalismus spielen wird. Doch wenn, ist eine Kombination mit KI wahrscheinlich. 

IX. Zusammenfassung und Diskussion 

KI-Technologen führen zu einem vielschichtigen Wandel der Medienindustrie. Sie ermöglichen eine immer stärkere Personalisierung. Semantische KI-Systeme werden auch inhaltliche Arbeiten übernehmen. Mit wachsender Leistungsfähigkeit werden Maschinen Beiträge teilweise oder komplett produzieren können. Entscheidungen, die heute noch erfahrene Mitarbeiter treffen, lassen sich an lernfähige Maschinen delegieren. Es werden weniger Angestellte benötigt – von der Textkorrektur über die Redaktion bis hin zu Führungsaufgaben. Die Hierarchien dürften flacher werden. 

Medieninhalte werden künftig immer häufiger gesprochen als geschrieben. Das gilt auch für den Rückkanal zum Kunden. Audio-Technologien ermöglichen neue Formen der Mediennutzung. Zu erwarten sind Kooperationen von Medien und Telekom- oder Tech-Unternehmen. Der Zugang zu einer großen Zahl potenzieller Nutzer ermöglicht neue journalistische Formate und Service-Angebote. Die in den Archiven der Medienhäuser schlummernden Daten werden sich dank KI kapitalisieren lassen. Die Qualität journalistischer Produkte lässt sich durch Rückkopplung zum Leser verbessern. Rechtschreib- oder Stilfehler werden durch den Einsatz von KI verschwinden. 

Die neuen Technologien eröffnen den Medien viele Chancen. Es gibt aber auch Risiken, die man rechtzeitig bedenken sollte. Die KI-gesteuerten Mechanismen der Individualisierung fördern das Phänomen der Filterblase. Wenn jeder nur noch nach eigenen Interessen personalisierte Medienprodukte erhält und es in der Gesellschaft kein gemeinsames Basiswissen mehr gibt, könnte dies für den politischen Diskurs und die Zukunft der Demokratie weitreichende Folgen haben. An dieser Stelle ist ein Dialog von Gesellschaft, Medien und Politik wünschenswert, um möglichen Fehlentwicklungen proaktiv entgegen zu steuern. Eine von einigen Medien bereits verfolgte Strategie ist das Club-Konzept. Nutzer des betreffenden Mediums sollen sich in der realen Welt begegnen, um miteinander, den Journalisten und auch mit Politikern, Wissenschaftlern oder Wirtschaftsführern von Angesicht zu Angesicht zu kommunizieren. Das Analoge könnte das Digitale erden. 

Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen,
dass ihre Daten nicht missbraucht werden.

Dr. Norbert Lossau

Um im Wettbewerb erfolgreich zu sein, werden Medien künftig viel stärker persönliche Daten ihrer Kunden nutzen. Je mehr man über seinen Leser, Zuhörer oder Zuschauer weiß, umso besser kann man journalistische Produkte und die sie finanzierende Werbung maßschneidern. Damit stellt sich auch die Frage nach dem Datenschutz. Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen, dass ihre Daten nicht missbraucht werden. Der Datenskandal von Facebook und der inzwischen insolventen britischen Firma Cambridge Analytica hat gezeigt, wie schnell sich der Wind in puncto Vertrauen drehen kann. Medienunternehmen könnten in Zukunft ähnlich schnell am Datenschutz-Pranger stehen wie Betreiber sozialer Netzwerke. 

Das seit Mai 2018 gültige, neue europäische Datenschutzrecht schafft Randbedingungen, die allen Unternehmen das Sammeln personenbezogener Daten erschweren. Insbesondere der Austausch solcher Informationen zwischen verschiedenen Unternehmen wird stärker reglementiert. Wer selbst über viele Daten verfügt und weniger auf Daten Dritter angewiesen ist, kann von der neuen Rechtslage in gewisser Weise profitieren. Im KI-getriebenen Journalismus wird die kritische Masse wichtiger. Gibt es nicht genügend Daten, erzielen die KI-Algorithmen nur schlechte Ergebnisse. Insgesamt fördert die technologische Entwicklung das Entstehen großer Einheiten. Daraus werden sich medienpolitische Fragen ergeben. Der KI-bedingte Wegfall von Sprachgrenzen ist ein Effekt, der zu supranationalen und damit deutlich größeren Nutzergruppen führen könnte. Offen ist die Frage, wie sich dies auf den Wettbewerb der verschiedenen Medien auswirkt. 

Zum Schluss ein Gedanke, der heute noch Science-Fiction ist, aber Wirklichkeit werden könnte. KI-Systeme, die qualitativ hochwertigen Journalismus präsentieren sollen, werden selbst journalistische Lektüre benötigen, um sich auf dem Laufenden zu halten und stets dazu zu lernen. Es klingt zwar merkwürdig, doch in absehbarer Zeit gibt es wahrscheinlich Medienprodukte von Maschinen für Maschinen. Doch vielleicht wollen die Maschinen ab und zu auch mal einen richtig guten Artikel lesen – den ein Mensch geschrieben hat. 


Über den Autor

Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Er ist ein Experte für sowohl die technischen Aspekte der KI als auch deren Auswirkung auf die Medienlandschaft.

www.kas.de

Konrad-Adenauer-Stiftung e. V.
Analysen und Argumente Nr. 318 September 2018

Literaturverzeichnis 

1. Eberhard Schöneburg (Hrsg.): „Industrielle Anwendung Neuronaler Netze“. Addison-Wesley. 
2. Norbert Lossau: „Wenn Computer denken lernen“. Ullstein. 
3. Dan Brown: „Origin“. Lübbe. 
4. Ex Machina, britischer Spielfilm von Alex Garland (2015) 
5. https://www.welt.de/kultur/article172179137/NetzDG-Wie-ein-gut-gemeinetes-Gesetz-den-Hass-im-Netz-verstärkt.html (Letzter Abruf: 16.7.2018). 
6. https://www.deepl.com/translator (Letzter Abruf: 16.7.2018). 
7. htpps://narrativescience.com (Letzter Abruf: 16.7.2018). 
8. https://www.ax-semantics.com/de (Letzter Abruf: 16.7.2018). 
9. http://www.narrativa.com/aijournalism (Letzter Abruf: 16.7.2018). 
10. http://www.upday.com/de/ (Letzter Abruf: 16.7.2018). 
11. Norbert Lossau: „Gefährden Fake News die Demokratie?“. Beitrag in „Digitale Gesellschaft“, Konrad-Adenauer-Stiftung. 
12. https://www.welt.de/wirtschaft/webwelt/article153664299/Microsofts-KI-findet-Hitler-besser-als-Obama.html 
13. https://www.zeit.de/2018/14/amazon-alexa-sprachassistentin-persoenliche-daten-test (Letzter Abruf: 16.7.2018). 
14. https://joincivil.com (Letzter Abruf: 16.7.2018). 
15. https://new.consensys.net (Letzter Abruf: 16.7.2018). 
16. https://newsinitiative.withgoogle.com/dnifund/ (Letzter Abruf: 16.7.2018). 

Impressum

Der Autor Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Konrad-Adenauer-Stiftung e. V.
Dr. Norbert Arnold Leiter des Teams Bildungs- und Wissenschaftspolitik
Hauptabteilung Politik und Beratung
Telefon: +49(0)30 / 26 996-3504
E-Mail: norbert.arnold@kas.de
Postanschrift: Konrad-Adenauer-Stiftung, 10907 Berlin
Herausgeberin: Konrad-Adenauer-Stiftung e.V. 2018, Sankt Augustin/Berlin
Gestaltung: yellow too Pasiek Horntrich GbRSatz: Janine Höhle, Konrad-Adenauer-Stiftung e.V.
Lektorat: Jenny Kahlert, Konrad-Adenauer-Stiftung e.v.
Druck: copy print Kopie & Druck GmbH, Berlin
Printed in Germany.
Gedruckt mit finanzieller Unterstützung der Bundesrepublik Deutschland.
ISBN 978-3-95721-466-9

Der Text dieses Werkes ist lizenziert unter den Bedingungen von „Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 4.0 international”, CC BY-SA 4.0 (abrufbar unter: https://creativecommons.org/licenses/by-sa/4.0/legalcode.de)
Bildvermerk – Titelseite© liuzishan, fotolia

 

Deutschland auf Rang 2 der meisten Datenpannen in Europa

Fast die Hälfte (47%) der Firmen geben an, dass Nachforschungen am meisten von fehlenden Ressourcen beeinflusst werden

Der führende Anbieter für Ethik- und Compliance-Software und -Dienstleistungen, NAVEX Global®, hat einen neuen Bericht über Datensicherheit und Compliance in Unternehmen veröffentlicht. Dabei ergab sich, dass zwischen Mai 2018 und Januar 2019 in Deutschland 12.600 Datenschutzverletzungen gemeldet wurden. Damit ist Deutschland nach den Niederlanden das Land mit den zweitmeisten Verstößen in Europa.

Der Bericht deckte auch auf, dass fast 7 von 10 Compliance-Beauftragten (69%) sich über Datenschutz Sorgen machen und 68% Netzsicherheit zum einem der wichtigsten Ethik- und Compliance-Themen erklärten, obwohl die regelmäßige Kontrolle Dritter (52%) und ein durchgehend risikobasierter Ansatz (44%) die effektivsten Faktoren für Verbesserung im Vergleich zu Risikomanagement sind.

Trotzdem gibt es immer noch mehr als ein Viertel (27%) an Firmen mit einem veralteten Compliance-Programm, für die Datenschutz kein besonderer Grund zur Sorge ist. Auf die Frage, was den größten Einfluss darauf hat, wie lange es dauert Nachforschungen anzustellen und abzuschließen, nannten fast die Hälfte (47%) fehlende Ressourcen als Hauptgrund.

Aus dem Bericht kann man schließen, dass zu wenige Schulungen zu dem Thema teilweise dafür verantwortlich sind. In Unternehmen mit einem rückwirkenden Compliance-Programm wurden nur 53% im Senior Management und ohne Führungsverantwortung zu Datenschutz und sogar nur 41% zu Netzsicherheit geschult. In Firmen mit fortschrittlicheren Compliance-Programmen erhalten 22% derer ohne Führungsverantwortung gar keine Schulungen zu Datenschutz und Netzsicherheit. Das bedeutet, dass fast ein Viertel der Arbeitnehmer gar keine Handlungsempfehlungen oder Orientierungshilfen hat.

Trotz alledem sind die Kosten für Datenpannen in kleinen Unternehmen im Jahr 2019 um 50% zurückgegangen. Allerdings haben größere Unternehmen weniger gute Ergebnisse zu verzeichnen: bei mittelgroßen Firmen sind die Kosten um 327% und bei großen Unternehmen um 341% gestiegen.

Unternehmen mit Risikomanagement-Programmen machen dagegen einen Schritt in die richtige Richtung und 37% geben an, dass es dabei geholfen hat eine Vertrauenskultur aufzubauen. Für fast zwei Drittel (64%) der Firmen war ein Verhaltenskodex der Baustein, der den positivsten Einfluss auf Verletzungen ethischer Grundsätze hatte. Außerdem war für 60% ein internes Meldesystem, wie zum Beispiel eine Risikomanagement-Hotline nützlich, um Verstöße am Arbeitsplatz und Verletzungen der Firmenrichtlinien zu identifizieren.

„Datenschutz ist ein Vollzeitjob und ein großer Risikobereich. Die bloße Anzahl an Themen ist neu und es werden ständig mehr. Wenn Leute sich nicht an Datenforderungen halten, dann muss HR miteinbezogen werden, um sicherzustellen, dass es entsprechende Zuständigkeiten gibt.“

Carrie Penman, Chief Compliance Officer und Senior Vizepresident, Beratungsdienst, NAVEX Global

Jessica Wilburn, Datenschutzbeauftragte und führender Rechtsbeistand bei NAVEX Global, fügt hinzu: „Interne Kommunikation und Weiterbildungen sind essenziell, um Data Governance und Compliance zu unterstützen. Ja, es ist wichtig aufzuschlüsseln, was Datenschutz für verschiedene Abteilungen, Teams und Positionen bedeutet, aber es ist noch wirkungsvoller, wenn wir damit anfangen, worum es wirklich geht: Menschen zu schützen.“

Ansprechpartner 
Jonathan Lohbeck 
jonathan.lohbeck@searchlaboratory.com 
+44 (0113) 2121211 

Dies ist eine Pressemitteilung von NAVEX Global

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Arbeitswelt im Jahr 2030

Die Arbeitswelt von morgen: Dell Technologies blickt ins Jahr 2030: Die Studie „Realizing 2030: Die Zukunft der Arbeit“ von Dell Technologies und dem Institute for the Future (IFTF) benennt die großen Herausforderungen, denen Arbeitnehmer und Unternehmen im nächsten Jahrzehnt gegenüberstehen werden. 

Frankfurt am Main, 11. November 2019 – Dell Technologies hat zusammen mit dem Institute for the Future (IFTF) untersucht, welche Auswirkungen neue Technologien bis 2030 auf den Arbeitsmarkt haben werden, einschließlich der Chancen und Herausforderungen, denen sich Unternehmen und Arbeitnehmer in den kommenden Jahren gegenübersehen. Das zentrale Ergebnis: Die Ära der Partnerschaft zwischen Mensch und Maschine kommt, davon sind die befragten Führungskräfte überzeugt.

Die Studie Realizing 2030: Die Zukunft der Arbeit, die Dell Technologies gemeinsam mit dem Institute for the Future veröffentlicht hat, identifiziert vier Technologien, die die Arbeitswelt von morgen neu strukturieren werden: kollaborative KI, multimodale Schnittstellen wie haptisches 3D-Feedback oder Gestenerkennung, sichere verteilte Ledger wie Blockchains sowie Extended Reality (XR). Diese Technologien werden entscheidend dafür sein, dass Menschen und Maschinen einerseits im Einklang miteinander arbeiten können, und sich die Menschen andererseits auf sinnvolle, kreative und nachhaltige Aufgaben konzentrieren können. Beim Einsatz dieser Technologien müssen jedoch verschiedene Herausforderungen gemeistert werden, einschließlich algorithmischer Vorurteile, digitaler Qualifikationslücken sowie Arbeitnehmerrechte und -schutz. 

  • Algorithmische Vorurteile: 67% der Führungskräfte (Deutschland: 51%) gehen davon aus, dass sie neue Technologien einsetzen werden, um durch die Beseitigung menschlicher Vorurteile bei der Entscheidungsfindung für mehr Chancengleichheit zu sorgen. Die Bewerber müssen allerdings verstehen, wie ihre Profile von Machine-Learning-Tools, die von den Unternehmen genutzt werden, ausgewertet werden. Eine vollständige Transparenz der Kriterien, die in algorithmischen Einstellungsverfahren verwendet werden, wird unerlässlich sein, um Vertrauen zwischen Unternehmen und Arbeitnehmern aufzubauen. 
  • Lücken in der digitalen Kompetenz: 60% der befragten Führungskräfte (Deutschland: 39%) glauben, dass ihre Mitarbeiter bis 2030 bei der Nutzung neuer Technologien fit sein müssen. Den Unternehmen kommt dabei eine besondere Rolle zu: Die Fähigkeit, erfahrene Arbeitskräfte umzuschulen und eine neue Generation von Arbeitskräften zu fördern, wird von entscheidender Bedeutung sein. Aus Sicht der Experten müssen Mitarbeiter zudem über die notwendigen Skills verfügen, um Technologien wie Künstliche Intelligenz anwenden zu können. Gleichzeitig fördern 46% der Führungskräfte (Deutschland: 37%) die Entwicklung der unternehmenseigenen digitalen Fähigkeiten und Talente, indem sie ihren Mitarbeitern beispielsweise Programmierkenntnisse vermitteln.
  • Arbeitnehmerrechte und -schutz: Angesichts der sich ändernden Arbeitsbedingungen werden neue Richtlinien erforderlich sein, um die Arbeitnehmerrechte umfassend zu schützen. Die Führungsebene muss zudem Veränderungen in der Arbeitsorganisation vorantreiben, die mit dynamischen Arbeitsabläufen Schritt halten können. 44% der Befragten (Deutschland: 41%) fordern bereits eine KI-Regulierung und Klarheit über deren Verwendung. 

Trotz der Herausforderungen, die von den Führungskräften erkannt wurden, sind 83% der Befragten (Deutschland: 61%) der Meinung, dass sich die Art und Weise des Arbeitens dank der neuen Technologien zum Besseren verändern wird. Viele sind zudem optimistisch, was die Chancen angeht, die sich aus der Partnerschaft zwischen Mensch und Maschine ergeben. 70% der Führungskräfte (Deutschland: 57%) würden es begrüßen, wenn Mitarbeiter mit Maschinen oder Robotern zusammenarbeiten, um dadurch menschliche Grenzen zu überwinden. 86% (Deutschland: 79%) planen den Einsatz neuer Technologien zur Steigerung der Mitarbeiterproduktivität.

Aus Sicht des IFTF werden drei wesentliche Faktoren das Arbeitsumfeld im nächsten Jahrzehnt prägen: Chancengleichheit im Beruf, befähigte Mitarbeiter und KI-Kompetenz.

  • Chancengleichheit im Beruf: Partnerschaften zwischen Mensch und Maschine werden gerechtere Arbeitsplätze schaffen, da die Kandidaten nach ihren Fähigkeiten und nicht nach Geschlecht, Alter oder sonstigen Kriterien bewertet werden. So werden sich Unternehmen beispielsweise auf KI verlassen, um menschliche Vorurteile im Einstellungsprozess zu reduzieren, die Bildung optimaler Teams am Arbeitsplatz zu steuern und Anreize zur Steigerung von Produktivität, Arbeitsmoral und Mitarbeiterbindung zu schaffen. 
  • Befähigte Mitarbeiter: Mitarbeiter werden auf ganz andere, immersive Weise zusammenarbeiten, da Technologien wie Extended Reality (XR) sie mehr als je zuvor unterstützen werden. Verfahren zur Zusammenarbeit in Echtzeit, die bereits in Gaming-, Coding- und verteilten Communitys bekannt sind, werden auch zur Etablierung stärker vernetzter Arbeitsweisen eingesetzt. Ganze Teams können Arbeit gemeinsam angehen, ausführen und miteinander interagieren. 
  • KI-Kompetenz: KI wird die menschlichen Fähigkeiten ergänzen und erweitern, anstatt sie zu ersetzen. Mit KI vertraute Mitarbeiter werden ihre Fähigkeiten einsetzen, um Workflows zu managen, Aufgaben zu erledigen und die erfassten Daten leichter zu verstehen. Ein tiefgehendes Verständnis der KI sowie der Mensch-Maschine-Systeme kann menschliches Potenzial freisetzen und die Mitarbeiter von der Masse abheben. 

Über die Studie

Dell Technologies hat zusammen mit der unabhängigen Forschungsgruppe Institute for the Future (IFTF) im Rahmen der Studie „Future of Work: Forecasting Emerging Technologies‘ Impact on Work in the Next Era of Human-Machine Partnerships“ untersucht, wie neue Technologien das Arbeitsumfeld in den nächsten zehn Jahren verändern. Die Untersuchung baut auf der Zusammenarbeit beider Organisationen aus dem Jahr 2017 auf, als das IFTF Meinungen von 20 Experten aus der ganzen Welt auswertete, um die „nächste Ära der Mensch-Maschine-Partnerschaft“ vorherzusagen. Zwei Jahre später prognostiziert das IFTF, wie eine neue Dynamik zwischen Mensch und Maschine die Zukunft der Arbeit beeinflussen kann. Bei der Durchführung dieser Untersuchung stützte sich das IFTF auf seine Langzeitstudien über die Zukunft von Arbeit und Technologie sowie auf einen Expertenworkshop, der im November 2018 in Palo Alto, Kalifornien, mit Teilnehmern aus aller Welt stattfand. Die neuen Ergebnisse ergänzen den Dell Technologies Transformation Index (DTI), für den 2018 insgesamt 4.600 Führungskräfte aus 42 Ländern befragt wurden.

Über das Institute for the Future
Das Institute for the Future (IFTF) ist ein weltweit führender Think-Tank, der sich mit Fragen der zukünftigen Entwicklung auseinandersetzt. Seit über 50 Jahren verlassen sich Unternehmen, Regierungen und Social-Impact-Organisationen auf die globalen Prognosen, die individuellen Forschungen und das Foresight-Training des IFTF, um sich auf komplexe Veränderungen vorzubereiten und Strategien dafür zu entwickeln. IFTF-Methoden und -Toolsets liefern kohärente Ansichten über transformative Möglichkeiten in allen Bereichen, um eine nachhaltigere Zukunft zu unterstützen. Das Institute for the Future ist eine eingetragene 501(c)(3) gemeinnützige Organisation mit Sitz in Palo Alto, Kalifornien. 

Über Dell Technologies
Dell Technologies (www.delltechnologies.com) ist eine einzigartige Unternehmensfamilie, die Organisationen und Privatpersonen dabei unterstützt, ihre Zukunft digital zu gestalten und Arbeitsplätze sowie private Lebensbereiche zu transformieren. Das Unternehmen bietet Kunden das branchenweit umfangreichste und innovativste Technologie- und Services-Portfolio, von der Edge über das Rechenzentrum bis in die Cloud.

Pressekontakt

Michael Rufer
Dell Technologies
+49 69 9792 3271
Michael.Rufer@dell.com

Nadine Harbeck
PR-COM
+49 89 59997 805
Nadine.Harbeck@pr-com.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Textlizenz
Dies ist eine Pressemitteilung von Dell

Exzellentes Customer Onboarding

Case Study

„Know-Your-Customer (KYC)“-Anforderungen erfolgreich begegnen: Customer-Onboarding-Prozesse mit Echtzeitvalidierung und -verifizierung für free-floating Carsharing.

Jederzeit und zu günstigen (Minuten-)Preisen ein Auto mieten, das ist car2go. Dank des stationsunabhängigen, free-floating Carsharing-Systems stehen den Kunden die Fahrzeuge im jeweiligen Geschäftsgebiet überall und spontan zur Verfügung. Per Smartphone-App lassen sich die Fahrzeuge einfach finden, reservieren, anmieten und zurückgeben. Damit sich Neukunden komplett online registrieren können, hat das Unternehmen im Mai 2017 Lösungen von Melissa Data GmbH eingeführt. Seitdem konnte die Kundenzufriedenheit deutlich gesteigert werden.

Carsharing wird in Deutschland immer beliebter. Ende 2017 waren nach Angaben des Bundesverbandes Carsharing mehr als 1,7 Millionen Menschen bei den Anbietern registriert. Das entspricht einem Plus von 36 Prozent gegenüber dem Vorjahr. Mit weltweit mehr als drei Millionen Kunden, davon knapp 890.000 in Deutschland, zählt der Carsharing-Anbieter in diesem Segment zu den führenden Anbietern. Registrierte Kunden können an 26 Standorten in acht Ländern einfach über ihr Smartphone ein Auto mieten.

Offline-Registrierung als alleinige Möglichkeit passt nicht in die heutige digitale Welt

„Unser Ziel ist es, dass Kunden den kompletten Vorgang, von der Registrierung bis zum Mietvorgang, digital und über ihr Smartphone abbilden können“, erläutert Elisabeth Ihmels, Digital Optimization Manager bei car2go. „Bis 2017 fehlte uns hierzu noch die Möglichkeit, dass auch eine Neuregistrierung online erfolgen konnte. Die Länge des Registrierungsprozesses und die Customer Experience entsprachen nicht unseren Ansprüchen. Außerdem passten sie nicht zu unserer Philosophie, dass unsere Kunden unsere Fahrzeuge bequem über die car2go App kurzfristig und flexibel anmieten können.“

Um ein Konto zu eröffnen, mussten die Kunden zuvor einen stationären car2go Shop während der Öffnungszeiten aufsuchen. Damit ihnen dieser Weg erspart bleibt, suchte der Carsharing-Anbieter eine innovative Lösung, mit der die Daten online verifiziert werden. Dies hat den Vorteil, dass auch neue Kunden sich direkt am Auto online registrieren können, um dann innerhalb weniger Minuten einsteigen und losfahren zu können.

Nach dem Know-Your-Customer-Prinzip hatte der Carsharing-Anbieter an die Lösung folgende Anforderungen:

Die Adressverifizierung soll via Web Service und in Echtzeit ablaufen
Die Verifizierung der Adressen – unabhängig, aus welchem Land – hat innerhalb von wenigen Sekunden zu erfolgen
24/7 Support
sichere und verschlüsselte Verarbeitung (via https)
gutes Preis-Leistungsverhältnis
hohe Ergebnisqualität
Einhaltung internationaler Datenschutzrichtlinien

 

„Nach der Evaluierung und erfolgreich abgeschlossenen Tests haben wir uns gemeinsam mit dem zuständigen Fachbereich für die Lösung von Melissa entschieden“, sagt Elisabeth Ihmels

Validierung und Verifizierung internationaler Adressen in Sekunden

Melissa hat eigens für das Unternehmen einen dedizierten Server als „Private Cloud“ aufgesetzt. Über diesen Web Service ist die Prüfung mehrstufig aufgebaut und beinhaltet im ersten Schritt die Datenvalidierungstools und im zweiten Schritt den Check mit Global Personator, der Lösung von Melissa für die internationale Identitätsprüfung. Mithilfe der Datenvalidierung wird innerhalb weniger Sekunden zunächst geprüft, ob die vom Kunden eingegebenen Informationen plausibel und korrekt sind. Stimmen die Daten aus dieser Validierung, erfolgt anschließend die Identitätsprüfung. Dabei werden die personenbezogenen Daten von Kunden – Name, Adresse und Geburtsdatum – betrachtet und mit Referenzdaten abgeglichen sowie verifiziert.

„Die Einbindung der Lösung von Melissa in unsere Infrastruktur war der einfachste Teil an dem Projekt“, erinnert sich Elisabeth Ihmels. „Eine größere Herausforderung war es, alle möglichen Anwendungsfälle zu berücksichtigen, wie auch die unterschiedlichen Besonderheiten und Anforderungen in anderen Ländern.“

Zeitersparnis auf beiden Seiten

Heute können Neukunden entscheiden, ob sie sich in einem Shop oder online via Smartphone registrieren, wobei Letzteres für potenzielle Kunden und das Unternehmen selbst wesentlich einfacher und schneller funktioniert.

„Die Zusammenarbeit mit Melissa ist transparent und sehr angenehm“, sagt Elisabeth Ihmels. „Wir haben direkte, persönliche Ansprechpartner, die sehr kompetent und schnell mit Lösungsvorschlägen antworten. Die vereinbarten Service Level Agreements werden in hoher Qualität erfüllt. Darüber hinaus bietet Melissa einen sehr guten Support, der rund um die Uhr erreichbar ist. Dies ist für uns als internationales Unternehmen unabdingbar.“

https://www.melissa.com/de/

Aufmacherbild / Quelle / Lizenz
Bild von M W auf Pixabay

Unternehmen unterschätzen den digitalen Wandel

Die Ergebnisse einer Umfrage unter 11.000 Firmenkunden der Star Finanz zur Digitalisierung im deutschen Mittelstand ergeben ein interessantes Bild.
Die meisten Unternehmen in Deutschland begreifen die Digitalisierung als Chance. Gleichzeitig unterschätzen sie aber die volle Tragweite des digitalen Wandels, insbesondere die tiefgreifende Disruption ihres Geschäftsmodells, die damit einhergeht.


Hamburg, 7. November 2019.
Unternehmen in Deutschland scheinen bereit für die Digitalisierung. Die meisten Betriebe (83 Prozent) begreifen die Transformation als Chance: Sie beschäftigen sich mit den Herausforderungen der Digitalisierung und der Automatisierung ihrer Geschäftsprozesse. Gleichzeitig unterschätzen die Unternehmen die volle Tragweite des digitalen Wandels und die tiefgreifende Disruption ihres Geschäftsmodells, die damit einhergeht. Das geht aus Deutschlands derzeit größter Umfrage zur „Digitalisierung im deutschen Mittelstand“ hervor. An dieser Befragung nahmen im Zeitraum von Juni bis Juli 2019 mehr als 11.000 Einzelunternehmer, mittelständische Firmen und Konzerne teil.

Im ersten Teil der Umfrage analysiert die Star Finanz, wie Unternehmen in Deutschland mit dem Thema Digitalisierung umgehen. Insgesamt zeigen sich die Betriebe optimistisch: Ganze 83 Prozent sagen, dass der digitale Wandel Chancen für ihr Unternehmen bietet. In kleinen, langjährig etablierten Unternehmen sind die Vorbehalte größer. Auch mit Blick auf die Branchen lassen sich Trends erkennen. So sieht etwa der Handel, der vergleichsweise schon heute durch die Macht von Amazon und anderen Großanbietern am stärksten von den Auswirkungen der Digitalisierung betroffen ist, darin öfter eine Bedrohung (21 Prozent). In Industrie und verarbeitendem Gewerbe sind es nur 15,3 Prozent.

Viele Unternehmen in Deutschland sind zudem verunsichert, welche Auswirkungen die Digitalisierung auf das eigene Geschäftsmodell hat. Rund jeder vierte Betrieb (27,2 Prozent) kann die Veränderungen nicht abschätzen. Und während fast die Hälfte der Unternehmen (44,9 Prozent) in den kommenden fünf Jahren durch den digitalen Wandel eine Transformation ihres Geschäftsmodells erwartet, wollen nur 11,3 Prozent der Betriebe diese Veränderung aktiv in die Hände nehmen und ihr Geschäftsmodell anpassen.


„Der Veränderungsdruck ist in vielen Unternehmen offenbar noch nicht so hoch, als dass sie Anpassungen ihres Geschäftsmodells als Priorität wahrnehmen.“

Dr. Christian Kastner

Größere Unternehmen stehen der Digitalisierung positiver gegenüber. Sie sind oft auf einem höheren Digitalisierungslevel als kleinere Betriebe. Dr. Christian Kastner, Geschäftsführer der Star Finanz: „Die Ergebnisse zeigen, dass Unternehmen den digitalen Wandel als Chance begreifen. Gleichzeitig wird jedoch klar, dass ein Großteil der Betriebe die volle Tragweite der Disruption unterschätzt. Sie wollen zwar ihre bestehenden Prozesse optimieren und digitalisieren, mit den wirklich disruptiven Veränderungstreibern wie neuen Geschäftsmodellen, digitalen Produkten, Big Data oder künstlicher Intelligenz setzen sie sich jedoch selten auseinander. Der Veränderungsdruck ist in vielen Unternehmen offenbar noch nicht so hoch, als dass sie Anpassungen ihres Geschäftsmodells als Priorität wahrnehmen.“

Dr. Christian Kastner

Finanzinstitute als kaufmännische Begleiter bei der digitalen Transformation

Im zweiten Teil der Umfrage untersucht die Star Finanz, wie Banken und Sparkassen ihre Unternehmenskunden bei der digitalen Transformation unterstützen können. Noch wird der überwiegende Teil der Prozesse in den Unternehmen manuell abgewickelt, das betrifft insbesondere Prozesse in den Bereichen Weiterbildung und Mitarbeiterorganisation. Klassisch kaufmännische Vorgänge weisen den höchsten Automatisierungsgrad auf. So sagen 86,2 Prozent der Unternehmen, dass sie Gehaltsabrechnungen automatisch oder überwiegend automatisch erstellen. Es folgen Ausgangsrechnungen mit einem vollständigen oder überwiegenden Automatisierungsgrad von 64 Prozent, die Erstellung regelmäßiger Reports (57,7 Prozent), das Mahnwesen (57,2 Prozent) und die Angebots- und Auftragserstellung (53,8 Prozent).

Bei der Erstellung von Ausgangsrechnungen setzen 49,2 Prozent der Unternehmen auf eine lokale Buchhaltungssoftware am PC. Eine cloudbasierte Buchhaltungssoftware nehmen hingegen nur 8,3 Prozent der Betriebe in Anspruch. Erstaunlich ist, dass gut ein Viertel der Unternehmen (23,7 Prozent) für die Erstellung der Ausgangsrechnungen noch auf Word, Excel oder Textprogramme setzt. Dabei gilt: Je kleiner ein Unternehmen, desto eher erstellt es seine Ausgangsrechnungen per Word, Excel oder Textprogramm.


„Die etablierten Finanzinstitute können sich noch weit stärker als Experten für den digitalen Wandel positionieren und disziplinenübergreifende Mehrwertlösungen für ihre Firmenkunden anbieten.“

Dr. Christian Kastner

Doch selbst bei Großunternehmen wird noch verhältnismäßig viel Zeit in die Abwicklung kaufmännischer Prozesse auf Basis von Textprogrammen investiert. Ein erheblicher Teil der Unternehmen erwartet von ihren Banken oder Sparkassen zudem zusätzliche digitale Services, die über das aktuelle Angebot hinausgehen. An der Spitze liegen Kredit-Services (39,4 Prozent). Es folgen Cash Management (28 Prozent), Vertragsverwaltung (21,5 Prozent) und Rechnungsservice (20,3 Prozent).

Dr. Kastner: „Die etablierten Finanzinstitute können sich noch weit stärker als Experten für den digitalen Wandel positionieren und disziplinenübergreifende Mehrwertlösungen für ihre Firmenkunden anbieten. Die Umfrageergebnisse zeigen, welchen Bedarf es hier insbesondere bei kleineren Firmen gibt. Für sie gibt es heute oft noch nicht die passenden Angebote, um kaufmännische Prozesse durchgehend automatisiert abzubilden. Auch wenn die Digitalisierung noch lange nicht abgeschlossen ist: Die deutsche Wirtschaft hat sich auf den Weg gemacht.
Wichtig ist, dass Banken und Sparkassen sie auf diesem Weg noch stärker begleiten“, sagt Dr. Kastner abschließend.

Weitere Informationen finden Sie im Whitepaper unter:
https://www.starfinanz.de/digitalisierung-im-deutschen-mittelstand/

Zur Umfrage:
Die Star Finanz führte im Juni und Juli 2019 eine Online-Umfrage unter Einzelunternehmern, mittelständischen Firmen und Konzernen in ganz Deutschland durch. Ziel der Umfrage war es, Erkenntnisse zum Digitalisierungsgrad sowie den Digitalisierungswünschen deutscher Unternehmen zu gewinnen. Insgesamt nahmen mehr als 11.000 Firmen an der Befragung teil. Ein Großteil der Antwortgeber besetzt in den Unternehmen leitende Positionen. Über die Hälfte sind Inhaber oder Geschäftsführer, knapp ein Viertel leitende Angestellte.

https://www.starfinanz.de

Für weitere Informationen oder Fragen:
Birte Bachmann
Pressesprecherin
Star Finanz-Software Entwicklung und Vertriebs GmbH
Telefon +49 40 23728-336
presse@starfinanz.de
Pressekontakt:
Marco Luterbach
redRobin. Strategic Public Relations
Telefon +49 40 692 123-29
luterbach@red-robin.de

Aufmacherbild / Quelle / Lizenz
Bild von mohamed Hassan auf Pixabay

Textlizenz:
Dies ist eine Pressemitteilung der Star Finanz

Riesige Vermögenslücke auch bei Bitcoin Cash

Riesige Vermögenslücke auch bei Bitcoin Cash: 0,01 Prozent verfügen über mehr als die Hälfte aller BCH Tokens

Kryptoszene.de verdeutlicht gewaltige BCH-Vermögens-Unterschiede in sieben Grafiken und Charts

Bereits vergangene Woche berichtete Kryptoszene.de über ein enormes Vermögens-Ungleichgewicht beim Bitcoin (BTC). Nun zeigen Daten von Bitinfocharts, dass Bitcoin Cash (BCH) Tokens noch deutlich ungleichmäßiger verteilt sind.

Die sechs größten BCH Adressen vereinnahmen 1.355.460 Coins. Dies entspricht beim derzeitigen Bitcoin Cash Kurs einem Gegenwert von knapp vierhundert Millionen US-Dollar. 54,59 Prozent des Gesamtbestandes befindet sich auf nur 0,01 Prozent der Adressen.

Ungleichgewicht noch drastischer als bei Bitcoin

„Wir sind schon überrascht, dass sich der Eindruck der vergangenen Woche nun noch weiter bestätigt,“ so Kryptoszene.de Chefredakteur Raphael Adrian, „es hat fast den Anschein, dass Kryptowährungen im Allgemeinen zum Spielzeug der Eliten werden.“

Insgesamt gibt es über 4,6 Millionen BCH Adressen. Auf 36,08 Prozent derer befinden sich jedoch nur zwischen 0,001 und 0,01 Bitcoin Cash. Auf einer einzigen Bitcoin Cash Adresse befinden sich satte 505.295 BCH. Das entspricht ganzen 2,8 Prozent des Token-Bestandes.

Über die geografische Verteilung der Adressen gibt es keinerlei Informationen. Zudem geben die Daten keine Auskunft darüber, auf welcher Bitcoin Cash Wallet die Kryptowährungen gelagert sind. Außerdem gibt es keine Möglichkeit, zu unterscheiden, ob sich auf einer Bitcoin Cash Adresse die Token einer Privatperson, eines Unternehmens oder gar eines Vermögensverwalters befinden.

Kryptoszene hat die Ergebnisse in Charts und Grafiken unter folgendem Link aufgearbeitet:

https://kryptoszene.de/riesige-vermoegensluecke-auch-bei-bitcoin-cash-001-prozent-verfuegen-ueber-mehr-als-die-haelfte-aller-bch-tokens/

Pressekontakt

Raphael Adrian

www.kryptoszene.de

Lizenz:
Dies ist eine Pressemitteilung von Kryptoszene

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Die Digitalisierung als Chance für flexibles Arbeiten

Die Arbeitswelt ist volatiler denn je. Vor allem junge Menschen wünschen sich, dass Jobs auf sie zugeschnitten sind – und nicht umgekehrt. Die Digitalisierung sehen die meisten von ihnen dabei als große Chance an. So ist es beispielsweise mithilfe elektronischer Collaboration Tools möglich, flexibel und ortsunabhängig zu arbeiten. Wenn Unternehmen die Employee Journey ihrer Angestellten durch entsprechende Angebote verbessern, zahlen diese den Gefallen vielfach zurück.

Die Veränderungen der Arbeitswelt gehen immer schneller und dynamischer vonstatten. Das ist eine notwendige Entwicklung. Denn laut dem Gallup Engagement Index 2018 haben über fünf Millionen Arbeitnehmer (14 Prozent) in Deutschland bereits innerlich gekündigt und besitzen keine Bindung zum Unternehmen. Drei von vier Beschäftigten machen lediglich Dienst nach Vorschrift (71 Prozent)[1].

Dieser Herausforderung müssen Unternehmen begegnen, nachdem gerade die der Generation Y und Z zugehörigen Talente häufig Wünsche haben, die sich nur schwer mit dem Rhythmus klassischer Organisationsformen decken: Sinnvolle Tätigkeiten sind für viele von ihnen wichtiger als schnelle Karriereschritte. Selbst Angebote wie ein Dienstwagen sind auf der Prioritätenliste nach unten abgerutscht. Stattdessen steht Flexibilität für junge Menschen hoch im Kurs. Auch der Wunsch ortsunabhängigen Arbeitens ist erheblich gewachsen. Gleichzeitig leben „Digital Natives“ eine „Always-on-Mentalität“.


 

 

Über den Autor


René Proske ist Geschäftsführer der Proske GmbH, einer Veranstaltungsagentur mit rund 80 Mitarbeitern und vier Standorten in Deutschland und den USA. Proske implementiert Strategische Meeting Management Programme (SMMP) und bietet kreative und logistische Dienstleistungen.

 


Mitarbeiter als digitale Nomaden – ein Erfolgsmodell

Laut Gallup sind bei agilen Unternehmen 43 Prozent der Befragten emotional stark gebunden, während es bei nicht agilen Unternehmen nur sechs Prozent sind. Wer als Arbeitgeber attraktiv bleiben möchte, kommt kaum umhin, sich darauf einzustellen – auch im Hinblick auf den Arbeitsort. Die Digitalisierung und die Nutzung digitaler Angebote durch die junge Generation erleichtern das immens, das erleben wir bei Proske tagtäglich. Unsere Agentur realisiert Firmenveranstaltungen wie Tagungen und Kongresse rund um den Globus. Obwohl das ein klassisches „People Business“ mit einer hohen Bedeutung persönlicher Kontakte ist, sind auch hier Flexibilität und moderne Arbeitsformen vielfältig möglich.

So ist etwa „Remote Work“ bei uns bereits seit einigen Jahren gängig – und zwar von überall auf der Welt aus. Begonnen hat das mit einer Projektleiterin, die auf dem Wifi Tribe unterwegs ist, einer Community aus Bloggern, Freelancern und anderen digitalen Nomaden. Um ihre Aufenthaltsorte in der Karibik oder in Südamerika würde sie vermutlich jeder beneiden, der im Novemberregen im Rush-Hour-Stau steht. Das einzige fixe Kriterium für die Wahl ihres Aufenthaltsortes ist eine stabile WLAN-Verbindung.

Inzwischen arbeiten 15 Mitarbeiter bei Proske dauerhaft von außerhalb des Büros. Viele weitere unserer rund 80 Angestellten profitieren von weitgehenden Home-Office-Regelungen. Eine Teamleiterin hat ihren Wohnsitz auf Malta, ein Nachwuchstalent ist als Globetrotterin in Australien und den USA. Vor kurzem haben wir zwei neue Kolleginnen eingestellt, von denen eine aus Singapur und eine von den Philippinen aus für uns tätig sein werden. Auch ich als Geschäftsführer lebe bereits seit 10 Jahren in Spanien und Portugal. Unter dem Strich funktioniert das auch über Zeitzonen hinweg reibungslos.

Das Angebot, remote zu arbeiten, ist dabei nicht nur mit praktischen Aspekten, sondern auch mit einer neuen Unternehmenskultur verbunden. New Work geht für uns einher mit einem Maximum an Verantwortung für Mitarbeiter – und das bedeutet: Wir ermöglichen Freiheit statt Kontrolle. Diese Mentalität führt zu Engagement, Professionalität und Freude im operativen Alltag. Das erleben wir bei Proske ständig aufs Neue.


https://www.proske.com/de/

[1] https://www.gallup.de/183104/engagement-index-deutschland.aspx

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Misstrauen als Prinzip für Endpoint-Security

Zero Trust als Security-Strategie ist keine Option, sondern ein Muss in Zeiten grenzenloser Vernetzung, denn Vorsicht ist besser als Nachsicht!
Peter Machat, Vice President Central EMEA bei MobileIron erläuterte im Interview, wie Endpoint-Sicherheit und Nutzerakzeptanz zeitgleich mit Techniken, die durch „Misstrauen als Prinzip“ gekennzeichnet sind, gesteigert werden.

Herr Machat, welche Auswirkungen haben Cloud, mobiles Arbeiten, BYOD, remote, aber andererseits auch die zunehmende Vernetzung (IoT, IIoT) im Hinblick auf den Endpoint und dessen Sicherheit?

Die herkömmlichen Netzwerkgrenzen gibt es in dieser modernen Arbeitswelt nicht mehr. Die Plattform von MobileIron ergänzt deshalb die bewährten Unified Endpoint Management (UEM) Funktionen durch Techniken, die durch „Misstrauen als Prinzip“ gekennzeichnet sind (Zero-Trust-Prinzip). Oder positiv ausgedrückt: Jede Nutzerin und jeder Nutzer müssen sich Vertrauen erst einmal erarbeiten. Zusammen ermöglichen diese Methoden und Technologien eine nahtlose, sichere Benutzererfahrung, indem sie sicherstellen, dass nur autorisierte Nutzer, Geräte, Anwendungen und Dienste auf Geschäftsressourcen zugreifen können.

Wo lauern aktuell die größten Gefahren?

Lange Zeit war der Bereich der Smartphones und Tablets sicherheitstechnisch eher unauffällig. Das hat sich mittlerweile grundlegend geändert. Neben unsicheren WiFI-Zugängen, über die viele oft gedankenlos mit ihrem Mobilgerät auf sensible Geschäftsdaten zugreifen, haben sich Spionage-Apps mittlerweile zu einem der gefährlichsten Angriffsvektoren im Mobil-IT-Bereich entwickelt. Ohne entsprechende Nachrüstung in Form einer Früherkennung und schnellen Beseitigung von Cyberangriffen (Mobile Threat Detection and Remediation, MTD) bieten hier Unified-Endpoint-Management-(UEM-)Systeme, die die Mobilgeräte-Flotte eines Unternehmens verwalten, zunächst einmal wenig bis gar keinen Schutz.

Aber nicht überall, wo MTD draufsteht, ist MTD, wie ich es mir vorstelle, auch drin. MobileIron ist auch hier meiner Meinung nach die große Ausnahme. Unser Frühwarnsystem ist nämlich direkt in den UEM-Client integriert. Das heißt, der Nutzer muss es nicht eigens aktivieren und was noch wichtiger ist: der Nutzer kann es auch nicht deaktivieren, weil ihm oder ihr Warnmeldungen überflüssig erscheinen oder weil er oder sie vermeintlich Zeit sparen wollen. Darüber hinaus ist dieses MTD nicht nur ein Früherkennungssystem, sondern auch in der Lage, das System derart gegen den Angriff zu schützen, dass die Abläufe dadurch nicht unterbrochen werden. Wir führen also gleichzeitig mit der Früherkennung Maßnahmen zur Beseitigung der Störung durch.


„Alle Akteure – ob in einem Unternehmen oder außerhalb eines Unternehmens – sind potenzielle Gefährder.“

Peter Machat

Unser Interviewpartner:
Peter Machat ist seit 2016 Vice President Central EMEA bei
MobileIron. Der studierte Wirtschaftsinformatiker besitzt mehr als 20 Jahre Erfahrung in der Mobile IT-Branche. Durch die jahrelange Zusammenarbeit mit den Vertriebsteams der Carrier, lokalen und globalen Systemhäusern sowie den gemeinsamen Aufbau der mobilen Infrastrukturen bei Kunden ist Peter Machat ein geschätzter Partner und Experte auf vertrieblicher und technischer Ebene. Vor MobileIron war Peter Machat bei Research In Motion (heute: BlackBerry) für ein europaweit agierendes Pre-Sales Team verantwortlich, das Kunden und Partner bei der Implementierung und beim Aufbau von BlackBerry-Infrastrukturen beriet.


Wie ist der Status Quo deutscher Unternehmen und wo sehen Sie aktuell den größten Handlungsbedarf?

Viele Unternehmen haben den eben erwähnten Paradigmenwechsel in die perimeter-lose Ära in ihren Sicherheitsmaßnahmen noch nicht oder nur unzureichend umgesetzt. Sie geben immer noch zu viel Geld für traditionelle Maßnahmen aus, die in der modernen Arbeitswelt mit Cloud und mobilen Endgeräten nichts bringen oder sogar kontraproduktiv sind, weil sie die Unternehmen in einer falschen Sicherheit wiegen. Es soll ja immer noch massenweise Unternehmen geben, die ihre Smartphone- und Tablet-Flotte nicht in ein Unified Endpoint Management System eingebunden oder nur in Teilen, oder die ein wenig leistungsfähiges System benutzen, dessen Security-Features unzureichend sind.

Wie sollten Sicherheits- und IT-Teams vorgehen, um Endpoints zu sichern und damit letztendlich potenziellen Abfluss hochsensibler Unternehmensdaten zu verhindern?

Wie gesagt: das traditionelle „Innen“ und „Außen“, also zwischen innerem Unternehmensnetz und der externen IT-Welt gibt es heute nicht mehr. Alle Akteure – ob in einem Unternehmen oder außerhalb eines Unternehmens – sind potenzielle Gefährder. Grundsätzlich ist deshalb erst einmal Misstrauen angesagt. Jede Nutzerin und jeder Nutzer, die auf sensible Unternehmensdaten zugreifen wollen, und das sind natürlich auch E-Mails, müssen sich zuvor umfassend ausweisen. Benutzername und Passwort genügen da bei Weitem nicht. Gefragt ist ein kontextueller Sicherheitsmechanismus, der erst dann Zugriff auf Daten, Netzwerke etc. gewährt, wenn Gerät und Benutzer in ihrem jeweiligen Kontext validiert, die App-Autorisierung überprüft, das Netzwerk verifiziert und Bedrohungen erkannt und behoben sind.

Welche besonderen Vorteile gewinnen Kunden durch den Einsatz Ihrer Zero-Trust-Sicherheitsplattform?

Eine reine Passwort-Zugangskontrolle reicht nicht mehr aus, um die heute vorherrschende mobile Cloud-Infrastruktur zu sichern. Gestohlene Nutzerdaten sind die Hauptursache für Sicherheitslecks und Datenschutzverletzungen. Aus diesem Grund geht MobileIron einen neuen Weg für die Unternehmenssicherheit, indem es Passwörter eliminiert und das mobile Gerät als solches zur ID und zum sicheren Zugriffsmedium auf Unternehmensdaten macht. Anfang des Jahres wurde die Zero-Sign-On-Technologie eingeführt, die eine große Anzahl von Parametern wie Geräte-, Anwendungs-, Netzwerk-, Standort- und Benutzerkontext prüft, bevor sie Zugriff auf Unternehmensressourcen gewährt – ohne ein Passwort zu benötigen.


Ohne Machine Learning lässt sich keine Echtzeit-Abwehr (Zero-Day-Defense) aufbauen.
Eine solche Echtzeit-Abwehr ist in der mobilen Cloud-Welt von heute ganz entscheidend.


Welche Rolle wird Künstliche Intelligenz in Zukunft im Rahmen von IT-Security einnehmen?

Ohne Mustererkennungs-Algorithmen, die ständig dazulernen und das vollautomatisch, ist es nicht möglich, Abweichungen vom normalen Verhalten genügend schnell zu erkennen. Und ohne solches Machine Learning lässt sich keine Echtzeit-Abwehr (Zero-Day-Defense) aufbauen. Eine solche Echtzeit-Abwehr ist in der mobilen Cloud-Welt von heute ganz entscheidend.

Wie sollte vor diesem Hintergrund eine IT-Sicherheitsstrategie aufgebaut sein?

Ganz klar: KI muss eingebettet sein in eine effiziente Sicherheitsorganisation. Nur so lassen sich die Stärken von KI vollständig ausspielen.
Wichtig sind folgende Punkte:

  • Wie gut spielt das Mobile Security-System mit dem UEM-System zusammen?
  • Wie einfach ist das Frühwarnsystem zu handhaben. Ist es für den Nutzer vielleicht völlig transparent?
  • Inwieweit ist das jeweilige System in der Lage oder überhaupt darauf ausgerichtet, einen Angriff nicht nur zu erkennen, sondern auch zu neutralisieren, das heißt die Gefahr zu beseitigen (Remediation)
  • Und nicht zuletzt die Frage: Lässt sich das Frühwarnsystem vom Nutzer abschalten oder nicht?

Ganz entscheidend für den Erfolg in Sicherheitsfragen ist aber immer die Akzeptanz bei den Nutzern:  Jeder Management- und Sicherheits-Ansatz steht und fällt mit der Tatsache, inwieweit er das positive Nutzererlebnis durch transparente Gestaltung der Kontrollmechanismen erhält und damit die Produktivität der Nutzer noch einmal steigert. Sicherheit nicht als Bremsklotz, sondern als Produktivitätsfaktor.

Aufmacherbild/ Beitragsbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay
Bild von Pete Linforth auf Pixabay

Data-Sharing in der Cloud

Wenn die Cloud bisher eher aus Sicht der Infrastruktur und Kosteneinsparung wahrgenommen wurde, so lohnt es sich doch laut Pierre Thompson von Snowflake, die Cloud auch weiterführend zu betrachten. Konkret z.B. hinsichtlich einer zielführenden Kollaboration entlang der Wertschöpfungskette durch das Teilen von Daten. Thompson wirft dabei im Gespräch die Frage auf, wie Unternehmen dabei die geforderte Flexibilität wahren können.

Pierre Thompson, Regional Director D-A-CH bei Snowflake: „Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing.“ Bildquelle: snowflake

Herr Thompson, wie beurteilen Sie die Rolle der Cloud im Hinblick auf die digitale Transformation?
Die Cloud wurde bisher vor allem wahrgenommen als eine Möglichkeit, Kosteneinsparungen und Performancegewinn zu kombinieren. Die positiven Effekte gegenüber den traditionellen On-premise Ansätzen haben hierbei auch sehr konservative Unternehmen überzeugt.
In einem nächsten Schritt werden nun weitere Mehrwerte durch zum Beispiel einfachere Kollaboration und der Monetarisierung von Daten gehoben.
Bisher wurden cloud-basierte Data Warehouses (DWH) genutzt, um interne Unternehmensdaten optimal für interne Analysen aufzubereiten und dies extrem günstig und flexibel im Vergleich zu den klassischen Architekturen. Nun, da sich mehr und mehr Konzerne mit ihren Daten auf den großen Cloud-Plattformen befinden, ergeben sich zunehmend Möglichkeiten, diese Daten sicher entlang der vertikalen Wertschöpfungskette oder horizontalen Supply-Chain auszutauschen. Oder es entstehen Unternehmen, die ausschließlich als Data-Broker eine Drehscheibe zwischen Unternehmen darstellen und als Business-Modell veredelte Daten in Echtzeit anbieten. Dieses Data-Sharing im großen Stil ist der nächste Schritt, der durch die Cloud überhaupt erst ermöglich wurde.

Ist diese „Vision“ schon überall in der deutschen Wirtschaft angekommen?
Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing. Das heißt, Unternehmen stellen Partnern, Lieferanten, Kunden etc. in Echtzeit, sicher und klar definierte Daten zur Verfügung, um effizienter zu agieren. Im Gegensatz zu früheren Konzepten passiert dies wiederum ohne Datenkopien und manuellem Transfer – dafür aber extrem sicher und mit Echtzeitaktualisierung. Die vollständige Synchronisation von Daten entlang der Wertschöpfungskette ermöglicht ein neues, effizientes Level von Kollaboration über Unternehmensgrenzen hinweg.
Jedoch noch sehr wenig ausgeprägt ist der nächste Schritt: Die Monetarisierung des Goldschatzes auf dem viele Unternehmen sitzen. Wir kennen spannende Ansätze insbesondere von den Unternehmen, deren Kernbusiness schon immer aus Daten bestand, wie Wetterplattformen, Marktforschungsinstitute etc. Nun sehen wir darüber hinaus aber auch klassische Industrieunternehmen, Finanzinstitute oder Retailer, die ihre Daten aus Sensoren, Transaktionen oder Handelsplattformen aufbereiten und anderen Marktpartnern zur Verfügung stellen; die darauf wiederum Services und Geschäftsmodelle aufbauen.
Grundsätzlich lässt sich aber feststellen, dass Unternehmen aus dem angel-sächsischen Raum in diesem Geschäftsfeld leider deutlichen Vorsprung haben.

Hier kommen wir dann nicht umhin, über Stichwort Analytics zu sprechen: Welche Entwicklungen werden wir hier in den nächsten Monaten sehen?
Der Markt der Analytics-Anbieter hat sich in der jüngsten Vergangenheit deutlich verändert. Einstmals unabhängige Anbieter, wie Looker oder Tableau, sind nun Bestandteil von Konzernen, deren Geschäft zu 100% cloudifiziert ist und die als Platformanbieter neues Potenzial mit den Technologien heben können.
Offensichtlich ist Analytics in Kürze gleichzusetzen mit Cloud – und dies macht Sinn, wenn wie oben dargestellt, mittlerweile die Mehrheit der Daten in der Cloud vorgehalten wird. Darüber hinaus wird es einen erheblichen Schub durch künstliche Intelligenz und Machine Learning geben. Wenn Unternehmen massenhaft Daten in der Infrastruktur der Cloud analysieren, dann können schneller Formen von Metadaten und Heuristiken entwickelt werden, die dem menschlichen Vermögen, Daten kreativ auszuwerten, in einigen Disziplinen überlegen sein werden.

Wie greifen Sie diese Entwicklungen im Rahmen Ihres „Data Warehouse in der Cloud“ auf?
Die Entwicklungen aus dem Data-Sharing greift Snowflake auf zweierlei Art auf. Zum Einen ermöglicht unsere Technologie jedem Unternehmen, seine Daten in Echtzeit sicher zu teilen, ohne fehleranfälliges und unsicheres manuelles extrahieren, upload etc. Daneben haben wir auf unserer Userkonferenz unseren zukünftigen Marketplace für Data vorgestellt, der es Datenanbietern unkompliziert ermöglicht, Daten einfach anzubieten und als Umsatzquelle zu erschließen. Damit ist Snowflake als Platform so etwas wie das Amazon des Datenhandels, da wir Technologie und Marketplace zugleich anbieten.
Den analytischen Aspekt nutzen wir sehr tief in unserer Technologie um unsere Anwender optimal zu unterstützen. Neben einzelnen analytischen Funktionen innerhalb unseres Warehouses, basiert zum Beispiel das gesamte automatische skalieren von Rechten und Speicherkapazität auf komplexen Heuristiken. Diese Heuristiken wiederum lernen aus dem Verhalten von tausenden Nutzern und angepasst an kundenspezifische Besonderheiten, um bspw. zu antizipieren, dass ein Unternehmen immer Montags um 10:00 Uhr mehr Rechenkapazität benötigt, oder nach dem Monatsabschluss automatisch herunterskalieren kann.

Datenqualität steigern vs. einfach anfangen: welchen Weg würden Sie als Entscheider wählen?
Das ist ein bisschen wie Henne oder Ei und nicht pauschal zu beantworten. Tendenziell empfehle ich jedoch sehr agil zu arbeiten und in kleinen Schritten erste Erfolge aufzuweisen, um dann final den großen Schritt zu machen. Wenn ein Unternehmen eine neue Analytics-Plattform einführen möchte, um zum Beispiel Preisanalysten in Echtzeit parallel Zugriff auf strukturierte und unstruktierete Daten zu ermöglichen, dann wäre es fatal, zunächst in einem Wasserfallprojektplan das Vorhaben ingenieurmäßig vorzudenken, sämtliche Daten vollständig korrekt aufzubereiten und dann in die Umsetzung zu gehen. Der Wettbewerb ist in diesen 18 Monaten dann bereits die ersten 10 Schritte voraus und intern wird es schwierig, die Nutzer „bei Laune“ zu halten. Daher macht ein parallelisiertes Vorgehen Sinn. Erste Teilprojekte erfolgreich an den Mann zu bringen – indem zum Beispiel initial nicht alle Daten, die im Projektscope stehen integriert werden –, und paralleles feintunen des Erstsystems plus Planung und Vorbereitung des Gesamtprojektes.

Weitere Informationen unter:
https://www.snowflake.com/?lang=de