KI mit Byte und Siegel?

Prof. Dr. Volker Gruhn, Vorstandsvorsitzender der adesso AG.

Prof. Dr. Volker Gruhn kommentiert die aktuelle Berichterstattung zum „KI-Observatorium“. Dabei könnte dies tatsächlich eine Chance darstellen – auch wenn es zunächst nach Lähmung und Prüfsiegel klingt, wie er ausführt:

Jetzt macht Deutschland in Künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. 

Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht zur KI-Strategie der Bundesregierung vom 15. November 2019 beschreibt nüchtern: „Kernaufgaben […] sind die Beobachtung von Technologieentwicklung, -verbreitung und Technologiefolgenabschätzung für KI in Arbeit und Gesellschaft.“ Das klingt nicht so, als ob im nächsten Jahr der einzelne Smart Speaker oder eine KI-Anwendung in einem Unternehmen einen Prüfstempel bekommt. Die Verantwortlichen aus der Politik stellten klar, dass es dem KI-Observatorium zunächst darum geht, den Einsatz von KI-Systemen in Deutschland zu erfassen und zu verstehen. Daraus leiten die Fachleute einen Ordnungsrahmen ab, der die Grundlage für das Prüfen und Bewerten bildet.

Spöttische Stimmen würden sagen, dass im KI-Observatorium zwei Welten aufeinanderprallen werden: der deutsche Hang zur Gründlichkeit und das atemberaubende Tempo technologischer Entwicklung. Aber die Idee hinter der Institution ist interessant – und das gleich auf zwei Ebenen: Das einzelne Unternehmen und einzelne KI-Projekte profitieren von eindeutigen Rahmenbedingungen. Algorithmen unterstützen Banken bei der Kreditvergabe, autonome Fahrzeuge beim Lenken oder Musikliebhaber bei der Auswahl des nächsten Songs. Dahinter stecken völlig unterschiedliche Anwendungen mit mehr oder weniger weitreichenden Konsequenzen für den Einzelnen. Wer weiß, welche Anforderungen ein KI-System erfüllen muss, um für einen bestimmten Einsatz zugelassen zu werden, tut sich leichter mit dem Entwickeln vernünftiger Software.

Aber auch deutschen und europäischen KI-Aktivitäten insgesamt hilft ein funktionierendes KI-Observatorium. Es sorgt mit dafür, neben dem US-amerikanischen und chinesischen KI-Verständnis einen dritten Weg zu etablieren. Einen, dem eine Auffassung von Wirtschaften, Datenschutz und Persönlichkeitsrechten zugrunde liegt, mit dem sich die meisten Bürgerinnen und Bürger der EU identifizieren. 

Noch ist offen, wie mögliche Prüfungen und Bewertungen aussehen. Stellen Entwicklerinnen und Entwickler alle zwei Jahre ihre Algorithmen vor? Testen die Sachverständigen dann, ob die genutzten Machine-Learning-Verfahren in der Zwischenzeit Vorurteile entwickelten? Messen Prüfer den Grad der Nachvollziehbarkeit einer Entscheidung, die eine KI-Anwendung fällt, wie heute das Reifenprofil eines Autos? Es fällt schwer, sich die operative Umsetzung auszumalen. 

Schwer bedeutet nicht, dass es unmöglich ist. Es braucht IT-Kompetenz ebenso wie Verständnis für Jura, Philosophie, Wirtschaft, Politik oder Arbeitsschutz. Gefragt sind Fachleute unterschiedlicher Disziplinen, die unter dem Dach des KI-Observatoriums zusammenarbeiten. Gemeinsam stellen sie Regeln auf. Regeln, die sich zum Qualitätsmaßstab für gute KI entwickeln können. 

Schwer bedeutet, dass wir eine Menge menschlicher Intelligenz investieren müssen, bis die künstliche so funktioniert, wie wir das wollen. Diesem Willen zum Wollen kann das KI-Observatorium Gestalt geben. Nicht als Verhinderer, nicht als institutionalisierter Bedenkenträger. Sondern als Institution, die Regeln aufstellt und durchsetzt, die auf Qualität achtet. Die selbstbewusst ein europäisches KI-Verständnis vertritt. Wenn das so kommt, freue ich mich geradezu auf die nächste TÜV-Prüfung.

Weitere Informationen unter:
www.adesso.de

Unternehmen fordern leistungsfähiges, zukunftsstarkes Klimapaket

Gemeinsam mit bereits über 1100 Unternehmen, Verbänden und der Wirtschaftsinitiative Entrepreneurs For Future positioniert sich die GLS Bank für eine ausnahmslose CO2-Abgabe. Bis zum nächsten globalen Klimastreik von Fridays for Future am 29.11.19 sollen sich auf www.unternehmenfuersklima.de noch weitere Unternehmen der Kampagne anschließen.

„Das Klimapaket der Bundesregierung erreicht weder die Ziele des Pariser Klimaabkommens, noch gehen davon die notwendigen Impulse für eine nachhaltige Wirtschaft aus“, so Thomas Jorberg, Vorstandssprecher der GLS Bank. Die Unternehmen fordern darum die Politik auf, das Paket dringend nachzubessern. „Es ist die Verantwortung unserer Generation, dass sich Klimaschutz an den faktischen Notwendigkeiten orientiert. Nur durch adäquate Korrektive schaffen wir ein Innovationsumfeld für ein Umsteuern unserer Wirtschaft in eine lebenswerte Zukunft“, so Dr. Rüdiger Fox, Geschäftsführer der Symaptex Technologies GmbH.

In dem Aufruf heißt es weiter: Unternehmen können 79 Prozent der eigenen energiebedingten Treibhausgasemissionen direkt beeinflussen und somit massiv zum Klimaschutz beitragen. Emissionsarme Technologien und Neuschöpfungen liegen bei vielen Unternehmen in der Schublade. Sie warten nur darauf, dass die Politik endlich starke und klare Anreize setzt. Damit könne eine Markteinführung gelingen und Lösungen auch auf den Weltmärkten skaliert werden. Die effektivsten und schnellsten Klimapotenziale werden nur mit klaren, verlässlichen und zukunftsgerichteten Rahmenbedingungen für Unternehmen erreicht.

Markt- und innovationsstarke CO2-Preissignale einführen

Die Unternehmen der Initiative fordern:

  • einen ambitionierten und Veränderungsauslösenden CO2-Mindestpreis für alle Sektoren, insbesondere Verkehr, Energie, Gebäude und energieintensive Industrie auf alle nicht-erneuerbaren Energieträger wie Erdgas, Kohle und Mineralöl als Inputbesteuerung bzw. Besteuerung bei Grenzüberschreitung.
  • mit einem Startniveau von mindestens 50 Euro pro Tonne CO2
  • mit einer für Innovationen und Investitionen planungssicheren Steigerung von mindestens 5 Euro pro Jahr als Zielpfad
  • nicht zur Generierung zusätzlicher Steuereinnahmen, sondern für eine optimale Lenkungswirkung mit einem fairen, sozialen Ausgleich.

Laut dem Aufruf ist dies im Rahmen der bestehenden Systeme schnell und einfach umsetzbar. Die Unternehmen treten dafür ein, dass mit diesen Maßnahmen ein Schub an Neuerungen und Marktkräften ausgelöst wird, mit denen Unternehmen den Wirtschaftsstandort langfristig zukunftssicher gestalten können.

Weitere Informationen unter:
www.unternehmenfuersklima.de

Lizenz: Pressemitteilung der GLS Bank

Lizenz Aufmacher: Image by Annette from Pixabay

SPS – Smart Product Solutions

Zum dreißigsten Mal findet die führende Fachmesse für smarte und digitale Automatisierung statt.

Start-up bis Weltmarktführer werden ab Dienstag nächste Woche, vom 26. – 28.11.2019, in Nürnberg die Plattform als Aussteller nutzen, um ihre Produkte und Lösungen den hochqualifizierten Fachbesuchern zu präsentierten.

Teilnehmer der diesjährigen Veranstaltung werden zusätzlich eingeladen, sich auf eine Zeitreise der Messe und der Automatisierungsgeschichte zu begeben.

Messegeschehen auf der SPS IPC Drives 2018

Vom beschaulichen Branchentreffpunkt zur internationalen Leitmesse

Gestartet ist die SPS 1990 in Sindelfingen, als Messe mit begleitendem Kongress mit 63 Ausstellern und 3.420 Besuchern. Bei der ersten Ausgabe der Messe waren bereits fünf Aussteller dabei, die in diesem Jahr ebenfalls ihre 30. Messeteilnahme feiern: Beijer Electronics, Hüthig, M&M Software, Pilz und Yaskawa (ehemals VIPA).

Der Umzug 1997 nach Nürnberg gab der SPS Raum zu wachsen: Aus einer Messehalle in Sindelfingen wurden auf Anhieb drei Hallen in Nürnberg. Der Ortswechsel kam auch einigen Ausstellern, die in und um Nürnberg beheimatet sind, entgegen.

Für einige Aussteller ist die SPS fast Tradition geworden: „Die SPS war und ist Fachmesse im besten Wortsinn und seit 25 Jahren ist die letzte Woche vor dem Advent auch für mich persönlich ein Pflichttermin. Als Wahl-Nürnberger hat es mich natürlich gefreut, dass die SPS von Sindelfingen hierher umzog, und ich begann die Beckhoff-Standbesatzung am Montagabend vor der Messe bei uns zu Hause zu bewirten. Leider machte unser Wohnzimmer das Wachstum der Messe (und das von Beckhoff) nicht mit, und so musste diese Mini-Tradition recht bald wieder eingestellt werden …“, so Martin Rostan, Leiter Technologiemarketing, Beckhoff-Niederlassung Nürnberg.

Aber nicht nur der Umzug nach Nürnberg hat für einen Wachstumsschub gesorgt, die Messe hat sich seither kontinuierlich vergrößert und weiterentwickelt. Während sich die Ausstellungsfläche seit 1990 von 3.500 m² auf 136.000 m² erhöht hat, haben auch viele Aussteller eine große Entwicklung hinter sich: „SEW-Eurodrive ist seit 1996 treuer Austeller auf der SPS. Gestartet mit einem kleinen, ca. 50 m² umfassenden Komponentenstand hat sich SEW-Eurodrive mit der Messe zusammen fortentwickelt. Heute zeigen wir auf 1.620 m² von der smarten Komponente über intelligente Maschinenautomatisierung bis hin zur digitalen Cloud-Anwendung praxisorientierte Lösungen. Somit ist und bleibt die SPS – Smart Product Solutions für uns auch weiterhin die wichtigste Fachmesse für industrielle Automatisierung,“ fasst Heiko Füller, Leiter Marktmanagement SEW-EURODRIVE zusammen.

„Mit ihrem einzigartigen Konzept bildet sie das komplette Spektrum der smarten und digitalen Automation ab – vom einfachen Sensor bis hin zu intelligenten Lösungen, vom heute Machbaren bis hin zur Vision einer umfassend digitalisierten Industriewelt.
Zahlreiche Aussteller der SPS haben ihren Innovationszyklus an der Messe ausgerichtet und präsentieren vor Ort ihre neuesten Produkte und Automatisierungslösungen.“

Sylke Schulz-Metzner, Vice President SPS,

Das Erfolgsrezept

Die heutige SPS ist die Plattform für die smarte und digitale Automatisierung. Hier treffen sich hochqualifizierte Besucher und Aussteller auf Augenhöhe; im Fokus stehen praxisnahe und intelligente Lösungen für die Herausforderungen von heute und morgen. In Nürnberg zeigen die Aussteller neben ihrem gesamten Produktspektrum auch ihre Produktneuheiten. Dies ermöglicht dem Besucher einen umfassenden Marktüberblick.

Machen Sie eine Reise durch die Vergangenheit

Weitere Informationen und interessante Meilensteine der SPS, der Automatisierung und der Industrie sind auf der Webseite sps-exhibition.com zu finden.

Key Facts zur Veranstaltung

Begleitender Kongress: Automation 4.0 Summit

Für all jene, die sich noch tiefgehender zu aktuellen Themen der Automation informieren wollen, bietet sich der von den WEKA Fachmedien organisierte begleitende Kongress zur SPS an. In 4-stündigen Sessions werden dieses Jahr die Themen

5G, TSN und OPC UA in der Industrie
Securely connected – vom Sensor bis zur Cloud
IOT-Plattformen – Best Practises
Flexible Automatisierung für wenig Geld – was leistet die Robotik?

unter praxisbezogenen Aspekten fokussiert beleuchtet.

Termine und Tickets

Was: SPSSmart Production Solutions

Wann: 26. – 28.11.2019

Wo: NürnbergMesse

Planung & Vorbereitung

Weitere Informationen zur Veranstaltung, Tickets, Reisespecials sowie Tipps zur Vorbereitung
finden Sie unter sps-exhibition.com

Start der Hypermotion 2019

„Next Generation Mobility and Logistics“

Nächsten Dienstag ist es soweit. Die Hypermotion öffnet zum dritten Mal ihre Tore. Vom 26. – 28. November treffen sich in Frankfurt am Main wieder Anbieter und Anwender, die neue Standards setzen für die Mobilität und Logistik von morgen. Networking über Verkehrsträger und Systemgrenzen hinweg ist das oberste Ziel. Es erwartet Sie eine Vielzahl innovativer und zukunftsorientierter Aussteller. Zuhören, mitreden, ausprobieren – freuen Sie sich auf die neuen Micro Mobility-Parcours sowie spannende Pitches, Talks und Podiumsdiskussionen über die Mobilität, Logistik und Infrastruktur von morgen.

Werden Sie Teil der „Next Generation Mobility and Logistics“!

„Auf der Hypermotion bringen wir als erste Plattform für die digitale Transformation alle Verkehrsträger zusammen. Unser Ziel dabei ist es, die Vernetzung innerhalb der Branche voranzutreiben, damit neue integrierte Lösungen für die Mobilität von morgen entstehen können“

Danilo Kirschner, Director Hypermotion.

Über 150 Top-Speaker bieten zahlreiche Impulse

Auf der Hypermotion erwartet Sie ein vielseitiges Programm. Der Deutsche Mobilitätskongress macht sich die Städtische Mobilität der Zukunft zum Leitthema. Die EXCHAiNGE widmet sich neuen interessanten Wertschöpfungsmustern für ein nachhaltiges Supply Chain Management. Im Zukunftsforum smc:smart mobility conference geht es um die urbane Mobilität und digitale Vernetzung der Regionen und die Logistics Digital Conference zeigt neue Wege für eine schnellere und nachhaltigere digitale Logistik. Die Mobilitätsexperten des Urban Mobility Labs erörtern, wie sich neue Mobilitätskonzepte auf die Qualität von Stadt und öffentlichem Raum auswirken, während im VISION mobility THINK TANK Alternativen zum automobilen Stadtverkehr gesucht werden.

Konferenzen

Themen & Events

Key Facts

Was:

Hypermotion

Wann:

26.-28.November 2019

Wo:

Messe Frankfurt, Frankfurt am Main
Tickets

Mehr Informationen unter
www.hypermotion-frankfurt.com

Zukunft des Computer Aided Engineering

eCl@ss 11.0: Neue Version formt die Zukunft des Computer Aided Engineering

Offene Produktdatenstandards sind Voraussetzung, damit Industrie 4.0 in die Realität umgesetzt werden kann. Insbesondere der eCl@ss-Standard hat sich in den letzten Jahren etabliert. Mit der nun veröffentlichten Version 11.0 hat er seine bislang größte Weiterentwicklung erfahren. Doch welche Neuerungen gibt es und welche Vorteile bieten sie konkret für das Computer Aided Engineering (CAE)?

Die Weiterentwicklung von eCl@ss ist ein kontinuierlicher Prozess. Jährlich wird eine neue Version des Standards veröffentlicht. Die neue Version 11.0 stellt insofern eine Besonderheit dar, als dass sie die umfangreichsten Neuerungen seit dem Launch der ersten Version beinhaltet.

Vor allem an zwei Beispielen wird deutlich, warum eCl@ss 11.0 weitreichende Vorteile für das CAE bietet: Die Möglichkeit zur funktionalen Beschreibung von Produkten sowie die hinzugekommenen Engineering-Daten für Schutzparameter. Beide Neuerungen entlasten Konstrukteure bei der Planung von Schaltanlagen. Wie sie sich im Einzelnen darstellen und wie Anwender hiervon profitieren können, ist im Folgenden beschrieben.


Unser Autor

Stefan Mülhens ist Mitgründer und Geschäftsführer des Softwareherstellers AmpereSoft aus Bonn. Das Unternehmen wurde 2007 gegründet und ist auf die Entwicklung von Engineering-Tools und die Pflege von Stammdaten spezialisiert. Zuvor war Mülhens als Software-Architekt und IT-Projektleiter tätig. Neben seiner Tätigkeit bei AmpereSoft unterstützt er aktiv Weiterentwicklung und Verbreitung von Standards für Produktdaten (eCl@ss Advanced) und Engineering-Daten (AutomationML).


Reduzierter Aufwand: Schutzparameter mit eCl@ss beschreiben

Die Beschreibung der Schutzparameter gehört zu den unverzichtbaren Informationen, wenn die Netzberechnung einer Schaltanlage durchzuführen ist, und um den Netzschutz durch Selektivität zu gewährleisten.

Zur softwaregestützten Netzberechnung etwa sind zahlreiche feingranulare technische Informationen in digitaler Form nötig. Diese zu recherchieren und für die entsprechenden Tools aufzubereiten, bedeutet einen enormen manuellen Aufwand – erst recht, wenn die Daten ursprünglich aus Katalogen oder anderen Unterlagen stammen und zunächst digitalisiert werden müssen. Eine Automatisierung der Prozesse ist auf diese Weise nicht möglich.

Engineering-Daten sind äußerst vielfältig und komplex. Sie standardisiert zu beschreiben, ist eine große Herausforderung. Denn: Die Daten variieren aufgrund von technischen Abhängigkeiten oder ergeben sich aus normativen Anforderungen von Typenprüfberichten. Ihre Darstellung erfolgt in der Regel als Graphen, weshalb sie nicht in einer flachen Merkmalsstruktur beschrieben werden können und von den Produktherstellern bislang individuell bereitgestellt werden.

Systematische Abbildung von Schutzparametern in eCl@ss

Abbildung von mehrdimensionalen Datenstrukturen

Mithilfe von eCl@ss können Schutzparameter nun spezifisch und detailliert beschrieben werden – und zwar sprachneutral, maschinenlesbar, branchenunabhängig und eindeutig. Die dynamische Abbildbarkeit von mehrdimensionalen Datenstrukturen ist ein Alleinstellungsmerkmal des Produktdatenstandards. Dazu werden Strukturelemente wie Block, Aspekt, Kardinalität und Polymorphismus zur Unterteilung von Informationen verwendet.

Im Block werden zusammengehörige Merkmale unter einem bestimmten Namen gesammelt. Die Merkmale in Blöcke einzuteilen, dient der besseren Übersichtlichkeit. Würden sie auf einer einzigen Ebene aufgelistet, würde dies eine lange, aus Merkmalen bestehende, Kette ergeben, die gar noch wächst, sobald neue Merkmale hinzugefügt würden. Außerdem können Blöcke an verschiedenen Stellen wiederverwendet werden. Um einen Block zu erstellen, müssen Anwender ein sogenanntes Referenzmerkmal bilden.

Funktionsbeschreibung eines Pilzdrucktasters in eCl@ss.

Aspekt, Kardinalität und Polymorphismus

Unter einem Aspekt versteht man die Sammlung von thematisch zusammengehörigen Merkmalen und Blöcken. Ein Beispiel hierfür ist der Aspekt „CAx Anschlüsse und Funktionen“, in dem detaillierte Informationen wie Art, Position und verwendbare Leiterquerschnitte beschrieben sind, sowie die Funktionen eines Produkts, um eine möglichst schnelle Verwendung im Engineering und eine automatisierte Fertigung zu ermöglichen.

Die einzelnen Blöcke können je nach Bedarf vervielfacht werden. Diese weitere Möglichkeit, die Merkmale einer Klasse zu ordnen, nennt man Kardinalität. Angenommen, eine Produktionsstraße ist mit sechs identischen Greifarmen bestückt, deren Merkmale in einem Block zusammengefasst sind. In diesem Fall reicht es aus, das Referenzmerkmal „Anzahl der Greifarme“ auf „6“ zu stellen: Der entsprechende Block würde in diesem Fall sechsmal aufgerufen.

Polymorphismus – die „Mehrgestaltigkeit“ – bietet in eCl@ss die Möglichkeit, zur Beschreibung unterschiedliche Blöcke anzuwenden und das in Abhängigkeit von einem speziellen Merkmalswert. So werden zum Beispiel für Anschlüsse in elektrischer, pneumatischer oder optischer Ausführung jeweils spezifisch zusammengestellte Merkmale (Blöcke) verwendet.

Funktionen können beschrieben werden

Die Möglichkeit zur funktionalen Beschreibung von Produkten ist die zweite wichtige Neuerung, die eCl@ss 11.0 für das CAE mit sich bringt. Denn bei der Schaltplanerstellung spielen nicht nur die physischen Größen der Komponenten eine Rolle. Unter Zuhilfenahme einer entsprechenden Software lassen sich aus den neu in eCl@ss enthaltenen Funktionsbeschreibungen wichtige Vorteile erzielen, insbesondere in Bezug auf die Zeitersparnis bei der Schaltplanerstellung. So ermöglicht etwa das AmpereSoft ToolSystem in Verbindung mit eCl@ss 11.0 die automatisierte Generierung von Schaltsymbolen, die anschließend unkompliziert in den Schaltplan eingefügt werden können. Dies gilt sowohl für genormte als auch für nicht genormte Funktionen. Bislang mussten die Konstrukteure diese Symbole teilweise aufwendig selbst erstellen, denn von Herstellerseite besteht allein aus Gründen der Wirtschaftlichkeit häufig keine Möglichkeit, alle benötigten Symbole für alle CAE-Systeme im Markt mit auszuliefern.

Meilenstein auf dem Weg zu Industrie 4.0

Schon die vorangegangenen Versionen von eCl@ss waren wichtige Schritte auf dem Weg zur Industrie 4.0. Das jetzt veröffentlichte Release geht darüber hinaus und stellt einen echten Meilenstein dar. Die noch detailliertere Beschreibung der Produktdaten ermöglicht einen entsprechend detaillierten Engineering-Prozess.

Weitere Infos: www.amperesoft.net

Bildquelle Beitrag
AmpereSoft GmbH/eCl@ss e. V.

Aufmacherbild / Quelle / Lizenz
Bild von Aneta Esz auf Pixabay

„Disruptieren Sie sich“

Wie kann der Standort Deutschland wieder smart werden? Wir sprachen mit Oliver Bendig, CEO von Matrix42, über die Chancen der Digitalisierung. Nicht rasten, sondern sich kontinuierlich neu erfinden, rät er im Laufe des Gesprächs. Dafür ist insbesondere der Mittelstand in einer hervorragenden Situation sind. Weil Geschwindigkeit in der digitalen Welt ein extrem hohes Gut ist.

Oliver Bendig ist CEO der Matrix 42 AG.
Oliver Bendig ist CEO der Matrix42 AG.

Welche Potenziale für den Standort Deutschland stecken in den neuen Technologien im Kontext von Automatisierung, KI und deren Anwendungen sowie Vernetzung?
Insbesondere künstliche Intelligenz und Machine Learning sind nicht nur Buzzwörter, daraus können ganze Geschäftsmodelle entwickelt werden. Deshalb investieren Unternehmen und auch wir kräftig in diesen Bereich. Eine besondere Rolle spielt dabei der digitale Arbeitsplatz, der idealerweise alle möglichen Informationen wann und wo und wie ich sie benötige zur Verfügung stellt und über mich lernt, sich also meinem Nutzerverhalten anpasst. Ein weiterer Schwerpunkt liegt auf der Kombination von KI und Automation am Arbeitsplatz, der Robotic Process Automation. Wie schaffe ich es, Arbeitsabläufe in Unternehmen soweit zu automatisieren, dass die Maschine in der Lage ist sich selbst immer weiter zu optimieren? Hierzu benötigen wir verschiedene Daten – Nutzungsverhalten, Rollen, Personen, Lokationen, etc. – die wir in einen Kontext bringen, um einen besseren Service bereitzustellen.
Welche Möglichkeiten KI und Machine Learning in diesem Zusammenhang in unserer Welt ermöglichen, verdeutlicht beispielhaft unser Virtual Support Agent. Die Vision dahinter ist, einen virtuellen Buddy im Unternehmen zu haben, der den Mitarbeitern alle möglichen Fragen beantwortet und sie zusätzlich proaktiv bei der Arbeit unterstützt. Er stellt beispielsweise Dokumente zur richtigen Zeit auf dem richtigen Arbeitsgerät bereit, oder findet durch Kalenderabfragen und dem Kontext von E-Mail-Kommunikationen den richtigen Zeitblock für Terminabsprachen.
Problematisch ist allerdings, dass die digitale Transformation in den Unternehmen oft schneller voranschreitet als das dazugehörige notwendige Security-Know-how. Ich kann daher nur mahnen, sich bei der ganzen fortschrittlichen Entwicklung viel mehr Gedanken um Security-Elemente zu machen.


Welche Rolle wird speziell das Quntencomputing in puncto Security spielen?
Durch Quantencomputing werden die Verschlüsselungstechniken, die wir über Jahrzehnte entwickelt haben – von denen wir glaubten, dass sie sicher sein, weil sie so unheimlich komplex sind – der Vergangenheit angehören. Wir selbst sind schon dabei Verschlüsselungstechnologien zu entwickeln, die auch über Quantencomputing abgesichert sind und die sie nicht einfach berechnen lassen und brechen können.
Was wichtig ist, ist Awareness zu schaffen im Unternehmen, das Handlungsbedarf besteht, das man in Security nicht nur technisch investieren muss, sondern auch ins Knowhow der Menschen und Personen – und hier beraten wir sehr stark hin – auch mit unseren Lösungen. Es ist ein Riesenthema. Wenn Computing immer schneller, exponentiell voranschreitet, muss auch Security nachziehen oder besser – voranschreiten.

Droht die zunehmende Automatisierung den Menschen zu ersetzen?
Entscheidend ist, dass es bei unseren Automationslösungen nie darum geht Mitarbeiter abzubauen. Wenn Sie Ihr Geschäft ausbauen, wollen Sie keine Mitarbeiter einsparen, sondern Kosten – ein wichtiger Unterschied. Die Mitarbeiter können im Idealfall woanders eingesetzt werden, wo sie an Innovationen, am Unternehmen der Zukunft arbeiten. Automatisierung soll also nicht bloß dazu dienen, die Lichter am Laufen zu halten, sondern das Geschäft voranbringen. Sie soll Freiräume schaffen, um neue Produkte zu entwickeln oder Kunden neue Leistungen anzubieten.

Wo lagen die Herausforderungen bei der Entwicklung Ihres Virtual Support Agent Marvin?
Zunächst einmal mussten ganz einfach Menschen gefunden werden, die in der Lage waren den Code zu bauen, die also programmieren können und sich mit künstlicher Intelligenz und Machine Learning auskennen.
Damit Marvin als Virtual Support Agent wie gewünscht agieren kann, Sie ihn also als Ihren virtuellen Buddy anchatten können und er bei IT-Problemen hilft, mussten zudem einige technische Herausforderungen gemeistert werden:
Hierzu gehört die Interpretation von Sprache, von der Semantikanalyse bis hin zur Emotionserkennung. Schließlich soll Marvin anders reagieren wenn Sie sauer sind, als wenn Sie freundlich fragen. Als Virtual Support Agent spielt auch der Content, aus dem er lernen und den er zur Verfügung stellen kann, eine ganz zentrale Rolle. Ein konkretes Beispiel: PowerPoint funktioniert nicht mehr. Jetzt kann ich zwar einen einfachen Entscheidungsbaum aufbauen, wie das System auf diese Situation reagieren kann. Wichtiger ist jedoch, dass ich ein System habe, das kontinuierlich dazulernt und so auch bei neuen Probleme helfen kann. Hier haben wir eine Technologie entwickelt, die es ermöglicht aus den Informationen, die wir von den Anwendern bekommen, und aus früheren Anfragen zu lernen. Dabei spielt auch wieder die Interpretation von Sprache eine wichtige Rolle. Schließlich muss das System erkennen, bei welchen unterschiedlichen Anfragen eigentlich das gleiche gemeint ist. Darüber hinaus haben wir eine Fehlererkennung für Marvin entwickelt. Wenn also eine Fehlermeldung aufpoppt, erkennt Marvin schon das Problem, ehe Sie danach fragen. Auch damit muss Marvin natürlich gefüttert werden. Die größte Herausforderung war also definitiv, der KI den grundlegenden Content zur Verfügung zu stellen. Dabei machen wir uns einen Netzwerk-Effekt zu Nutze: Wir haben über 5.000 Kunden und je mehr Kunden, das System nutzen, desto cleverer wird das System. Die einfachste Form der Quelle sind dabei noch Knowledge-Artikel in der Knowledge-Base der Kunden, die Lösungen behandeln. Zusätzlich zapfen wir aber auch Dritt-Systeme an, um das System weiter mit Content zu befüllen.

Was raten Sie speziell kleineren Unternehmen mit bis zu 250 Mitarbeitern im Kontext neuer Technologien, um nicht abgehängt zu werden?
Auch als KMU muss ich im Zuge der Digitalisierung unheimlich schnell reagieren, sonst werde ich disruptiert, überholt, überfahren. Als KMU haben Sie dabei einen riesigen Wettbewerbsvorteil – Sie sind nicht so schwerfällig. Nicht umsonst versuchen Konzerne sich vielfach in kleine Zellen aufzuteilen und Spin-offs zu machen, die sei später wieder integrieren. Sie brauchen die Geschwindigkeit. KMU müssen diesen Vorteil ausspielen. Das heißt auch nicht erst alles bis zum Ende durch zu definieren, sondern, salopp gesprochen, einfach mal los zu legen. Der Build-measure-learn-Denkansatz ist schon lange keine Neuheit mehr, aber einfach mal loszulegen, heißt, auf das Minimum Viable Product, den MVP-Ansatz zu setzen. Ich probiere und ich experimentiere.
Inkrementelle Innovation – kleine Optimierungen in kleinen iterativen Schritten – ist natürlich wichtig. Aber ganz offen: wenn wir heute an den Maschinenbauer, das Industrieunternehmen denken, dann hilft da keine inkrementelle Innovation mehr.
Da geht es um disruptive Innovationen. Deswegen rate ich jedem Unternehmen, lieber sich selbst zu disruptieren, bevor es jemand anderes tut. Hinterfragen Sie, was Digitalisierung für Ihr Geschäftsmodell bedeutet. Uber beispielsweise arbeitet selbst am autonomen Fahren und disruptiert damit sein eigenes Geschäftsmodell, entwickelt aber gleichzeitig neue Dienstleistungen, die auch dann noch Bestand haben. Mit Uber-Eats z.B. kann man jetzt Essen bestellen.
Es gilt nicht zu rasten, sondern sich kontinuierlich neu zu erfinden. Mittelständische Unternehmen sind hier in einer hervorragenden Situation, eben weil Geschwindigkeit in der digitalen Welt ein so extrem hohes Gut ist.

Wie können Sie da den Umsatz stabil halten und sich gleichzeitig neu erfinden?
Hier gibt es von McKinsey das Treiber-Horizont-Modell: Sie bauen Ihre Organisation so auf, dass sie einen Horizont 1 haben, der Ihren Cashflow und Umsatzstrom jetzt und für die nächsten 12 – 18 Monate sicherstellt. Dann bauen sie in der Organisation einen Bereich Horizont 2 – dort beginnen schon Menschen an der Zukunft zu arbeiten, die den Umsatzstrom ab dem 18. bis zum 36. Monat generieren soll.
Dann gibt es den Horizont 3 – das ist eine ganz kleine Truppe. Das ist mein Startup – ich sage es salopp, das sind meine Spinner. Das sind die Leute, die hinter den Horizont schauen und fragen, was kommen könnte. Das sind die Leute, die Ihnen die Zukunft bauen, die sich vielleicht in den nächsten 72 Monaten materialisieren lässt.
Dabei weiß ich, dass ein Produkt aus Horizont 1, welches ich heute erfinde, in fünf, zehn oder 15 Jahren weniger Umsatz abwerfen wird. Durch Horizont 2 und 3 gleichen Sie diesen Verlust aber immer wieder aus.

Weitere Informationen unter:
www.matrix42.com
KI im Service-Desk

Prozessdaten nutzbar machen, Wertschöpfung steigern

von Marc Steinhaus

Datenanalyse in der Industrie: Prozessdaten nutzbar machen, Wertschöpfung steigern

Die Analyse industrieller Prozessdaten macht Optimierungspotenziale sichtbar und kann einen Beitrag zur Steigerung des Unternehmenserfolges leisten. Durch die zunehmende Digitalisierung in der Produktion stehen mehr Daten denn je zur Verfügung. Hier schlummert ein wertvoller Informationsschatz, der von vielen Anlagenbetreibern noch zu selten gehoben wird. Wie sind die Daten zu lesen, wie können sie ausgewertet werden, um die Wertschöpfungskette zu verbessern? Die Herausforderung besteht im Nutzbarmachen.

Temperaturen, Drücke oder Geschwindigkeiten: Maschinen und Rechnersysteme in modernen Produktionsanlagen tauschen solche Informationen permanent untereinander aus. Diese Prozessdaten dienen nicht nur dazu, dass vernetzte Maschinen den jeweiligen Ist-Zustand der mit ihnen in Verbindung stehenden Geräte kennen, um entsprechend darauf zu reagieren.

„Um die Prozessdaten effizient nutzen zu können,
ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig.
Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert.“

Marc Steinhaus

Auch die Betreiber der Anlagen können wertvolle Erkenntnisse gewinnen – die richtige Interpretation der Daten vorausgesetzt. Erst Recht wenn zusätzliche Daten, wie etwa Qualitätsdaten, Wartungsberichte oder Auftragsdaten mit in die Analyse einfließen. Die Erkenntnisse können beispielsweise für Predictive Maintenance oder zur Verbesserung der Effizienz von Anlagen genutzt werden.


Autor Marc Steinhaus

Marc Steinhaus ist Prokurist bei der Steinhaus Informationssysteme GmbH und Aufsichtsratsvorsitzender und Mitgründer der Audials AG. Der 46-jährige Diplom-Informatiker wechselte vor 17 Jahren als Entwickler in das auf Prozessdatenmanagement-Systeme spezialisierte Unternehmen ein. Heute ist Marc Steinhaus bei der Steinhaus Informationssysteme GmbH, einem familiengeführten IT-Unternehmen, für das Business Development verantwortlich.


Ziele der Analyse von Prozessdaten 

Neben den schon genannten Anwendungsmöglichkeiten sollen bei der industriellen Datenauswertung beispielsweise folgende Ziele erreicht werden.

  • die Reduzierung von Ausfällen und somit die gesteigerte Verfügbarkeit
  • eine höhere Produktqualität
  • die Steigerung der Produktionsleistung
  • das leichtere Engineering von effektiven Neuanlagen
  • die Entlastung der Mitarbeiter

Doch bevor eine zielgerichtete Analyse von Prozessdaten möglich wird, müssen diese zunächst nutzbar gemacht werden. Eine echte Herausforderung. Denn: Die verfügbaren Prozessdaten stammen in der Regel von vielen unterschiedlichen Quellen und sind daher von einer großen Heterogenität gekennzeichnet. Meist herrscht Unordnung.

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst.

Während der Wert und die Zeit noch eindeutig sind, beginnt die Variabilität bereits bei den Einheiten. Ein Beispiel: Die Temperatur wird in Celsius angegeben, doch wird die Einheit mal mit C, mal mit C°, Grad C, usw. abgekürzt. Noch komplizierter stellt sich die Einordung weiterer Metadaten dar, die die Eigenschaften der jeweiligen Messstelle beschreiben. Diese werden und wurden nach unterschiedlichsten Konventionen (beispielsweise KKS, technische Plätze, AKS …) vergeben, die zudem oft nicht strikt eingehalten und mit der Zeit weiterentwickelt werden.

Aber nicht nur Einheiten und Konventionen unterscheiden sich – auch die unterschiedlichen Systeme, in denen Daten erhoben werden, müssen bedacht werden. So werden Informationen aus Feldsystemen in einem kontinuierlichen Datenstrom gesendet, während Daten aus übergeordneten Systemen wie ERP oder MES als einzelne Datenpakete bereitgestellt werden.  Des Weiteren liegen benötigte Daten möglicherweise in den Händen von Partnern. Es ist offensichtlich, dass sich daraus verschiedene Anforderungen für die Datenaggregation ergeben. Aus all den potenziell zur Verfügung stehenden Daten entsteht eine Flut an heterogenen Informationen, die in unstrukturierter Form kaum von Nutzen sind.

Strategischer Ansatz und zuverlässige Partner: Schritt für Schritt zur effektiven Datennutzung

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst. Ein Beispiel: Für eine industrielle Anlage soll ein Energiebericht erstellt werden. Das Vorgehen ist zwar fehleranfällig und aufwendig, kann aber grundsätzlich zum gewünschten Ergebnis führen. Handelt es sich aber um eine Anlage mit 50.000 Messstellen, von denen mehrere Tausend Messungen von Energie- und Medienströmen sind, wird die Aufgabe ungleich schwieriger. Denn nicht jede der Messstellen liefert Informationen, die für einen Energiebericht Relevanz besitzen und zudem ist die schiere Masse der Daten zu groß, um sie manuell ordnen zu können.

Es wird klar, dass hier ein strategisches Vorgehen gefragt ist: In einem ersten Schritt müssen die Messstellen strukturiert werden. Dazu ist es von entscheidender Bedeutung, die Metadaten in eine einheitliche Form zu bringen und die verschiedenen Konventionen auf eine allgemein gültige Abzubilden. Ein weiterer elementarer Bestandteil ist es, die topologischen Informationen der Messstellen in eine standardisierte Form zu bringen.

Erst wenn diese Daten einheitlich und weitestgehend normiert und somit vergleichbar sind, kann auf ihrer Basis ein automatisiertes Berichtswesen erstellt werden. Beispielsweise indem die Zusammenstellung der Energieberichte nach verschiedenen Aspekten algorithmisch und nicht mehr durch den Anwender händisch erfolgt. Langjährige Erfahrung und Know-how sind hierfür ebenso Voraussetzung wie die Nutzung einer entsprechenden technologischen Lösung.    

Um die Prozessdaten effizient nutzen zu können, ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig. Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert. Anbieter, die einen nachhaltigen Erfolg ihrer Kunden anstreben, geben schon bei der Entwicklung einer passenden Strategie praktische Hilfestellung.

Die zweite Komponente ist die schon angesprochene Software. Benötigt wird ein leistungsfähiges Tool, das die vorliegenden Daten aufräumt, strukturiert und mittels algorithmischer Verfahren in Standardinformationen umwandelt. Bei der Auswahl eines Anbieters sollten Anlagenbetreiber sich also nicht mit einer modern anmutenden Nutzeroberfläche zufrieden geben, die lediglich die manuellen Tätigkeiten erleichtert. Wichtiger ist eine genaue Prüfung des angebotenen Leistungsspektrums, denn im besten Falle automatisiert die Software diese Tätigkeiten.

„Die wichtigsten Fragen sind: ...“

Die wichtigsten Fragen sind: Welche Funktionen bildet das System ab? Reichen diese aus, um die Wertschöpfung effektiv zu steigern? Wie skalieren Arbeitsaufwände, Fehleranfälligkeit, Performance und Nachvollziehbarkeit mit einer rasant wachsenden Anzahl von Messpunkten? Und steht ein erfahrener Partner zur Verfügung, der vor, während und nach dem Kauf unterstützend tätig wird, wenn es nötig ist?

Nur wenn diese Fragen bejaht werden können, wird die Analyse der Prozessdaten gewinnbringende Erkenntnisse liefern. 

http://www.steinhaus-informationssysteme.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Wie Künstliche Intelligenz die Medien verändert

von Norbert Lossau 

› 

Künstliche Intelligenz (KI) wird die Medien in vielfältiger Weise transformieren. Insbesondere wird sie den Schwerpunkt vom geschriebenen hin zum gesprochenen Wort verschieben. Digitale Assistenten könnten journalistische Inhalte vermitteln.

› 

KI ermöglicht neue Geschäftsmodelle: insbesondere 
Kooperationen zwischen Medienhäusern und Technolo- 
giefirmen. Auch Archivdaten lassen sich monetarisieren.

› 

KI wird Sprachbarrieren abbauen und damit die Globalisierung des Journalismus befördern.

› 

KI automatisiert nicht nur Arbeitsabläufe, sondern auch Entscheidungsprozesse. Damit sinkt der Bedarf an Mitarbeitern.

› 

Mit KI lassen sich Medienangebote hochspezifisch individualisieren. Dazu wird eine „kritische Masse“ an Daten benötigt. Extreme Personalisierung medialer Produkte kann Filterblasen-Effekte verstärken.

› 

Künftige Geschäftsmodelle der Medien hängen sensibel von datenschutzrechtlichen Rahmenbedingungen ab.

 

 

Inhaltsverzeichnis 
I. Was ist Künstliche Intelligenz?
II. Rechtschreibung und Hasskommentare
III. KI überwindet Sprachbarrieren
IV. KISysteme schreiben eigenständig Beiträge
V. Maschinen treffen Entscheidungen
VI. Hören statt Lesen
VII. KI-Journalismus benötigt kritische Masse
VIII. Journalismus und Blockchain
IX. Zusammenfassung und Diskussion
Literaturverzeichnis


I. Was ist Künstliche Intelligenz? 

Vor rund 50 Jahren haben Wissenschaftler den Begriff der Künstlichen Intelligenz (KI)  etabliert. Entwickelt werden sollten Computer, die Aufgaben bewältigen, für die bis dato „menschliche Intelligenz“ erforderlich war. Bereits seit den 1980er Jahren setzen Industrie und Militär solche Technologien ein (1). Sie basieren auf künstlichen neuronalen Netzen, die Mechanismen des menschlichen Gehirns nachahmen und dadurch Muster in Daten, Texten und Bildern erkennen können (2)

Was die breite Öffentlichkeit unter KI versteht, ist vorwiegend von Science Fiction-Romanen und -Filmen geprägt, in denen humanoide Roboter mit übermenschlichen, geistigen Fähigkeiten eine Rolle spielen. Beispiele sind das körperlose KI-System Winston im Roman Origin von Dan Brown (3) oder das körperbetonte KI-Wesen Ava im Film Ex Machina (4).  In der realen Welt waren es Schach und Go spielende Computer, die die Leistungsfähigkeit von KI-Systemen demonstrierten. Auch der KI-Computer Watson, der in der US-Quiz-Show Jeopardy! gegen menschliche Mitspieler siegte, war ein Meilenstein in der öffentlichen Wahrnehmung von KI. 

Inzwischen ist das Thema KI in der gesellschaftlichen und politischen Diskussion angekommen. Von der KI werden umwälzende Veränderungen in allen Bereichen der Wirtschaft und des Lebens erwartet, zum Beispiel bei der autonomen Mobilität und der Industrie 4.0. Auch die Medien werden durch den Einsatz von KI weitere Transformationen durchlaufen. 

Es gibt bislang keine wissenschaftlich anerkannte Definition für Künstliche Intelligenz. Aus pragmatischer Sicht ist es auch nicht wichtig, ob eine bestimmte Technologie das Prädikat „intelligent“ verdient. Entscheidend ist, was sie leisten kann. Wenn in diesem Beitrag von KI die Rede ist, könnte es ebenso gut „fortgeschrittene Computertechnik“ heißen. Dem allgemeinen Sprachgebrauch folgend werden jedoch die neuen technischen Möglichkeiten der KI zugeschrieben. 

II. Rechtschreibung und Hasskommentare 

Beschleunigte Arbeitsabläufe und bessere Qualität 
Jeder Leser von journalistischen Print- oder Online-Produkten hat sich schon über Rechtschreib- oder Grammatikfehler geärgert. Auch bei großer Sorgfalt und mit abschließender Kontrolle durch Korrektoren lassen sie sich nicht immer verhindern. Was wäre, wenn eine Maschine vollkommene Fehlerfreiheit garantieren könnte? Arbeitsabläufe würden sich beschleunigen, und die Produktqualität würde verbessert. Gerade im Online-Journalismus kann eine halbe Stunde im Konkurrenzkampf mit anderen Medien entscheidend sein. Oft stellt sich die Frage: Sofort veröffentlichen, ohne Korrekturlesen? Oder dreißig Minuten später online gehen, dann aber fehlerfrei? Diese Entscheidung wäre obsolet, würde KI Texte in Sekundenschnelle korrigieren. 

Hasskommentare: automatische Korrektursysteme 
Manche Medien ermöglichen ihren Nutzern, Online-Beiträge zu kommentieren. Und nicht selten kommt es zu Hasskommentaren oder gar volksverhetzenden Anmerkungen. Sie so schnell wie möglich zu löschen oder von vornherein zu verhindern, muss das Ziel jedes Mediums sein, zumal es hier gesetzliche Vorgaben (5) gibt. KI-Systeme könnten schon bald in der Lage sein, Hasskommentare eigenständig zu erkennen und zu löschen – viel schneller als ein Mensch, und rund um die Uhr. Es gibt bereits heute Software zum Aufspüren von Schlagworten, die auf problematische Inhalte hinweisen. Doch die Leistungsfähigkeit dieser regelbasierten Systeme ist begrenzt, weil sie die Bedeutung von Texten nicht verstehen. Das werden KI-Systeme mit semantischer Kompetenz voraussichtlich bald können. Auch automatische Korrektursysteme werden davon profitieren. 

III. KI überwindet Sprachbarrieren 

Internationalisierung des Journalismus 
Semantische KI, die Texte inhaltlich erfasst, ist auch eine Voraussetzung für gelungene automatische Übersetzungen. Übersetzungsprogramme gibt es schon lange, doch die 
Ergebnisse sind oft unzureichend. Manche Bedienungsanleitung gibt davon Zeugnis. Die Sprachqualität reicht für journalistische Produkte nicht aus. KI wird die Qualität automatischer Übersetzungen dramatisch verbessern. Im Idealfall merkt man einem übersetzten Text nicht mehr an, dass er ursprünglich in einer anderen Sprache geschrieben wurde. Das eröffnet den Medien neue Optionen. Zum Beispiel wären Kooperationen wie die Leading European Newspaper Alliance über Sprach- und Ländergrenzen hinweg sehr viel einfacher möglich als heute. 

Wenn ein in Deutsch verfasster Beitrag ohne nennenswerten Zeitverzug auch in Französisch, Schwedisch oder Englisch vorläge, könnte er parallel bei Partnermedien in den entsprechenden Ländern erscheinen. Das würde Kosten senken und in kleineren Märkten Produkte ermöglichen, die vorher nicht finanzierbar gewesen wären. Das publizistische Spektrum würde breiter. 

Wachsender Wettbewerbsdruck 
Seit August 2017 bietet die Kölner Firma DeepL (6) für sieben Sprachen Online-Übersetzungen in Echtzeit an. Geplant sind 230 Sprachkombinationen. Der Bedarf an Journalisten und Übersetzern dürfte durch den Einsatz solcher Systeme tendenziell kleiner werden. Autoren müssten mit wachsender Konkurrenz aus anderen Sprachräumen rechnen. KI ermöglicht die Globalisierung des Journalismus. Allerdings wird es immer auch Themen geben, die sich nur vor Ort von Journalisten im jeweiligen Land recherchieren lassen. Sprachen, die nur von relativ wenigen Menschen gesprochen werden, könnten durch diese Entwicklung allerdings weiter marginalisiert werden. 

IV. KI-Systeme schreiben eigenständig Beiträge 

Autonomes Schreiben 
Am technologischen Horizont zeichnen sich KI-Systeme ab, die eigenständig journalistische Texte verfassen. Jedoch hängt es stark vom Genre ab, wie schnell „Kollege Computer“ Journalisten aus Fleisch und Blut verdrängen wird. Medienhäuser experimentieren bereits mit Schreibrobotern. Führender Anbieter von Systemen zum Generieren von Texten aus Rohdaten ist das 2010 in Chicago gegründete Unternehmen Narrative Science (7). Die Grundlage dieser Technologie wurde mit dem Algorithmus StatsMonkey an der Northwestern University gelegt. Es gibt weitere Anbieter. Die Agentur AP verwendet die Software Wordsmith von Automated Insights zum Erstellen von Quartalsberichten. Bei der Washington Post textet die KI Heliograf kurze Sportberichte, und die Stuttgarter Zeitung nutzt AX Semantics von Aexea (8) für die Nachrichtenproduktion. Eine Software des spanischen Unternehmens Narrativa (9) verfasst für mehrere Medien Finanznachrichten. 

Bislang werden computergenerierte Texte vorwiegend in den Bereichen Sport, Finanzen und Wetter erstellt. Füttert man das System etwa mit Ergebnissen der 3. Fußballliga oder den MDAX-Kursen, so kann es aus diesen Daten mithilfe von Textbausteinen einen Artikel erstellen. Ein solcher Text liest sich nicht immer monoton, denn das System kann – nach vorgegebenen Regeln – aus vielen Bausteinen wählen und damit variieren. 

Semantische Fähigkeiten 
Forscher arbeiten an der Entwicklung von KI mit semantischen Fähigkeiten. Sie soll über ein gewisses inhaltliches Verständnis verfügen und in der Lage sein, aus Texten einer Nachrichtenagentur fertige Beiträge zu produzieren. Dazu würde sie das Rohmaterial auf vorgegebene Längen kürzen und an einen gewünschten Sprachstil anpassen. Auch die Auswahl von Bildern, das Erstellen von Überschriften, Unterzeilen und Bildunterschriften könnten fortgeschrittene Systeme übernehmen. Der (nahezu) vollautomatische Newsroom ist keine Utopie. 

V. Maschinen treffen Entscheidungen 

Auf Leserinteressen abgestimmt    
Heute wählen noch Redakteure die Themen aus. Dass sich auch dies automatisieren lässt, zeigen Newsaggregatoren wie Upday (10). Mittelfristig dürften journalistische Entscheidungen immer häufiger an lernfähige Maschinen delegiert werden. Gibt man zu optimierende Zielgrößen vor, kann eine lernfähige Maschine besser als jeder Mensch entscheiden. Ein wichtiger Aspekt ist natürlich die Frage, wofür sich die Leser interessieren. KI-Systeme können aus dem bisherigem Nutzerverhalten mit einiger Treffsicherheit ableiten, ob ein neues Thema auf großes Interesse stoßen wird. Diese Form der Automatisierung verstärkt allerdings den Echokammer-Effekt (11). Sogar Maschinen selbst können Opfer dieses Effekts werden, wie das Beispiel des Bots Tay von Microsoft zeigt: Innerhalb kürzester Zeit wurde dieses lernfähige System zu einem Rassisten und Leugner des Holocaust (12).  

Wenn es um automatisiertes Entscheiden geht, kommt die Technologie der Künstlichen Neuronalen Netze ins Spiel. Sie imitieren Mechanismen von Gehirnen und können so Aufgaben bewältigen, für die wir gemeinhin Intelligenz unterstellen. Künstliche Neuronale Netze lernen, sie sind zu Assoziationen fähig und können Muster erkennen – etwa Gesichter, Tiere oder schlicht Korrelationen in digitalen Daten aller Art. Ohne in die technischen Details zu gehen, darf man sich ihre Arbeitsweise so vorstellen: Sie werden mit möglichst vielen Daten trainiert, damit sie darin enthaltene, subtile Zusammenhänge lernen. In der Anwendungsphase kann das Netzwerk dann auch neue Daten interpretieren und Schlüsse ziehen – gleichsam auf der Basis des erlernten Wissens. 

Füttert man ein Künstliches Neuronales Netzwerk mit tausenden Tierfotos und sagt ihm, um welche Tierart es sich dabei jeweils handelt, kann es später auf neuen Fotos Tierarten eigenständig erkennen. In der Kriminalistik lässt sich die gleiche Technik zum Identifizieren von Personen nutzen. Trainiert man ein Künstliches Neuronales Netz mit menschlichen Gesichtern, erkennt es ein gelerntes Gesicht auf dem Bild einer Überwachungskamera. 

Optimierte Strategien 
Für lernfähige KI-Systeme gibt es in den Medien zahlreiche Anwendungen. Auch hier werden zunächst ausreichend viele Daten benötigt, um das System für die jeweilige Aufgabe zu trainieren. Einige Medien stellen einen Teil ihres Angebots gratis online, während ein anderer Teil nur zahlenden Kunden zugänglich ist. Doch wie entscheidet man im Einzelfall, für welchen Kanal sich ein Artikel besser eignet? Das ist eine komplexe Optimierungsaufgabe. „Frei zugänglich“ steht für möglichst große Reichweite, zum Bezahlen müssen Nutzer hingegen bereit sein. Natürlich verfügen die Entscheider über Erfahrungswissen, was sich gut verkaufen lässt und was eher für Reichweite und damit Werbung taugt. Diese Expertise kann auch ein KI-System erlangen. Es weiß von jedem veröffentlichten Beitrag, wie gut seine Performance war. Auch Parameter wie Wochentag, Uhrzeit oder eine zeitliche Konkurrenz zu bestimmten anderen Themen kann ein solches KI-System für zehntausende Veröffentlichungen berücksichtigen. Voraussetzung ist auch hier ein gewisses semantisches Verständnis. Schließlich muss die Thematik der Beiträge erkannt werden. Bis KI-Systeme dazu in der Lage sein werden, kategorisieren Menschen die Beiträge mit Schlagworten. 

Bereits heute optimiert Statistical Reasoning die Verbreitung journalistischer Produkte. So spielt etwa die Washington Post Online-Beiträge zunächst mit verschiedenen Überschriften aus – die indes noch Menschen formulieren. Schon nach kurzer Zeit lässt sich erkennen, welche Überschrift den stärksten Anreiz zum Klicken auslöst. Mit diesem Wissen setzt man dann voll auf den statistischen Sieger. Analog lassen sich auch Aufmacherbilder oder Dachzeilen variieren und testen. Mit mehr Parametern wird das Spiel zunehmend komplexer. Doch für KI-Systeme sind derartige Optimierungen ein Leichtes. 

Wissen über Kunden und Abonnenten 
Je mehr ein Medienhaus über seine Kunden und Abonnenten weiß, umso individueller kann es journalistische Angebote vermarkten. Das Motto „Daten sind das neue Öl“ gilt eben nicht nur für Google, Facebook & Co. Durch stetiges Auswerten des Nutzungsverhaltens kann KI zunehmend bessere Profile der Konsumenten erstellen. Diese lassen sich zum Optimieren der Angebote nutzen. Wenn ein Medienanbieter weiß, dass Leser X Fan des Fußballvereins Y ist, dann ist es ratsam, den Bericht zum Spiel von Y ganz oben auf die personalisierte Seite von X zu stellen. Wenn man individualisierte Produkte in großer Breite und Tiefe produzieren will, erfordert das einen massiven Einsatz von Technik. 

VI. Hören statt Lesen 

Der Fortschritt beim automatischen Erkennen gesprochener Worte hat bereits gesellschaftliche Auswirkungen. Es gibt in der Bevölkerung eine erstaunlich hohe Akzeptanz von sprachgesteuerten Assistenz-Systemen wie Alexa von Amazon, Siri von Apple oder Duplex von Google (13). Mit diesen Systemen kann man per Sprache kommunizieren und so Haushaltsgeräte steuern oder das Internet nutzen. Weil das so bequem und so intuitiv ist, werden Bedenken, die man mit einem „Internet-Mikrofon“ in der Privatsphäre haben könnte, offenbar hinten angestellt. 

Das Abfragen von im Web verfügbaren Informationen über einen digitalen Assistenten liegt im Trend. Doch dabei wird es wohl nicht bleiben. Schon bald werden die Nutzer solcher Systeme mit gleicher Bequemlichkeit auch neueste Nachrichten, andere journalistische Produkte oder das in Medienarchiven gespeicherte Wissen abrufen wollen. Hier dürften neue Geschäftsmodelle entstehen. 

Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn.

Dr. Norbert Lossau

Computergenerierte Stimmen kennt jeder vom Navigationssystem im Auto. Blinde oder Lesemuffel lassen sich Online-Texte vorlesen, und auf Bahnsteigen hören wir aus Lautsprechern Textbausteine zu verspäteten Zügen. Bislang sind Computerstimmen meist noch als solche zu erkennen. Durch KI wird sich jedoch deren Qualität so verbessern, dass sie völlig natürlich klingen. Das entsprechende Forschungsgebiet nennt sich NLG (Natural Language Generation), und erste Produkte sind bereits erhältlich – etwa die NLG-Software Quill von Narrative Science (7). Es wird auch möglich sein, dem Computer die Stimme einer realen Person zu verleihen. 

Mehr Komfort 
Für Medien ist relevant, dass Mensch und Maschine sprachlich kommunizieren können – auch mobil. Im Online-Journalismus gibt es einen starken Trend weg von der stationären hin zur mobilen Nutzung, bei einigen Medien beträgt ihr Anteil schon mehr als drei Viertel. Diese Entwicklung fördert die Audio-Nutzung. Das dürfte auch zu einem Comeback jener Formate führen, die sich nur schwer über das kleine Display eines Smartphones vermitteln lassen. Das Lesen langer, tiefgründiger Texte ist mobil eher anstrengend. Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn. Derzeit ist eine Renaissance von Podcasts zu beobachten, die um die Jahrtausendwende ihre erste Boom-Phase hatten. Besonders aktiv sind hier der Deutschlandfunk, der Bayerische Rundfunk, Spiegel-Online, WELT und Zeit-Online. 

VII. KI-Journalismus benötigt kritische Masse 

Journalismus war immer von Technologien abhängig, seien es nun Druckmaschinen, TV-Studios oder Sendeanlagen. Im Online-Zeitalter ist die Bedeutung von Technik jedoch noch einmal stark gewachsen. KI wird diesen Trend beschleunigen. Voraussetzung dafür sind jedoch ausreichend große Datenmengen, wobei sich die Frage stellt, wie Medien diese gewinnen können. Eine Möglichkeit liegt in der Zusammenarbeit mit Telekom- oder Tech-Unternehmen. 

Beispiel einer erfolgreichen Kooperation ist der Nachrichten-Aggregator Upday – ein Projekt von Axel Springer und Samsung (10). Auf den Smartphones von Samsung ist eine Upday-App vorinstalliert. Journalisten sammeln mit massiver Technikunterstützung aus vielen Quellen unterschiedlicher Sprachen jene Informationen, die dann individualisiert an die Nutzer der App ausgespielt werden. Das ist ein kleiner Vorgeschmack auf die Zukunft von KI und Medien. 

Neue Geschäftsmodelle 
Das Zeitalter der KI eröffnet den Medien diverse neue Geschäftsmodelle. Kooperationen bieten sich an, zwischen jenen, die über Inhalte (aktuell und im Archiv) verfügen, und jenen mit einem technischen Zugang zu vielen Menschen. Hier könnten auch digitale Assistenten zum Einsatz kommen. Man ruft ihnen – auf dem Sofa sitzend oder auch während einer Autofahrt – einfach zu: Lies mir den Leitartikel aus der Zeitung X vor. Oder: Was hat eigentlich Konrad Adenauer zu diesem oder jenem Thema gesagt? Oder: Wie wird morgen das Wetter? 

VIII. Journalismus und Blockchain 

Echtheit von Informationen 
Einige Experten nehmen an, dass auch die Blockchain-Technologie im Journalismus der Zukunft eine Rolle spielen wird. Die Krypto-Währung Bitcoin basiert auf diesem Konzept, das auch viele andere Anwendungen ermöglicht – etwa die Verwaltung von Grundbucheinträgen. Blockchain kombiniert Technologien der digitalen Vernetzung mit Kryptografie. Noch sind die Vorstellungen über ihren Einsatz im Journalismus vage. Manche erhoffen sich von Blockchain neue Formen der Zusammenarbeit von Journalisten sowie einen besseren Schutz von Informanten. Sie könnte auch die Echtheit von Informationen sicherstellen, weil einmal in einen Block eingetragene Daten nicht mehr verändert werden können. Blockchain könnte auch neue Finanzierungsmodelle von Journalismus ermöglichen. 

In den USA startete im Frühjahr 2018 mit Civil (14) das erste auf Blockchain basierende Medienprodukt. Der Venture Capital-Geber ConsenSys (15) schob das Projekt mit fünf Millionen US-Dollar an. Mit dem Nachrichten- und Kulturmagazin Popula ist ein weiteres Blockchain-Projekt geplant. In Deutschland gibt es das von Googles Digital News Initiative (16) geförderte Content Blockchain Project. Hier sollen neue Wege der Finanzierung und Vermarktung von Medienprodukten getestet werden. Beteiligt sind die Nachrichtenagentur dpa, Golem und DIE ZEIT. 

Noch lässt sich nicht sagen, ob Blockchain tatsächlich eine maßgebliche Rolle in der Welt des Journalismus spielen wird. Doch wenn, ist eine Kombination mit KI wahrscheinlich. 

IX. Zusammenfassung und Diskussion 

KI-Technologen führen zu einem vielschichtigen Wandel der Medienindustrie. Sie ermöglichen eine immer stärkere Personalisierung. Semantische KI-Systeme werden auch inhaltliche Arbeiten übernehmen. Mit wachsender Leistungsfähigkeit werden Maschinen Beiträge teilweise oder komplett produzieren können. Entscheidungen, die heute noch erfahrene Mitarbeiter treffen, lassen sich an lernfähige Maschinen delegieren. Es werden weniger Angestellte benötigt – von der Textkorrektur über die Redaktion bis hin zu Führungsaufgaben. Die Hierarchien dürften flacher werden. 

Medieninhalte werden künftig immer häufiger gesprochen als geschrieben. Das gilt auch für den Rückkanal zum Kunden. Audio-Technologien ermöglichen neue Formen der Mediennutzung. Zu erwarten sind Kooperationen von Medien und Telekom- oder Tech-Unternehmen. Der Zugang zu einer großen Zahl potenzieller Nutzer ermöglicht neue journalistische Formate und Service-Angebote. Die in den Archiven der Medienhäuser schlummernden Daten werden sich dank KI kapitalisieren lassen. Die Qualität journalistischer Produkte lässt sich durch Rückkopplung zum Leser verbessern. Rechtschreib- oder Stilfehler werden durch den Einsatz von KI verschwinden. 

Die neuen Technologien eröffnen den Medien viele Chancen. Es gibt aber auch Risiken, die man rechtzeitig bedenken sollte. Die KI-gesteuerten Mechanismen der Individualisierung fördern das Phänomen der Filterblase. Wenn jeder nur noch nach eigenen Interessen personalisierte Medienprodukte erhält und es in der Gesellschaft kein gemeinsames Basiswissen mehr gibt, könnte dies für den politischen Diskurs und die Zukunft der Demokratie weitreichende Folgen haben. An dieser Stelle ist ein Dialog von Gesellschaft, Medien und Politik wünschenswert, um möglichen Fehlentwicklungen proaktiv entgegen zu steuern. Eine von einigen Medien bereits verfolgte Strategie ist das Club-Konzept. Nutzer des betreffenden Mediums sollen sich in der realen Welt begegnen, um miteinander, den Journalisten und auch mit Politikern, Wissenschaftlern oder Wirtschaftsführern von Angesicht zu Angesicht zu kommunizieren. Das Analoge könnte das Digitale erden. 

Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen,
dass ihre Daten nicht missbraucht werden.

Dr. Norbert Lossau

Um im Wettbewerb erfolgreich zu sein, werden Medien künftig viel stärker persönliche Daten ihrer Kunden nutzen. Je mehr man über seinen Leser, Zuhörer oder Zuschauer weiß, umso besser kann man journalistische Produkte und die sie finanzierende Werbung maßschneidern. Damit stellt sich auch die Frage nach dem Datenschutz. Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen, dass ihre Daten nicht missbraucht werden. Der Datenskandal von Facebook und der inzwischen insolventen britischen Firma Cambridge Analytica hat gezeigt, wie schnell sich der Wind in puncto Vertrauen drehen kann. Medienunternehmen könnten in Zukunft ähnlich schnell am Datenschutz-Pranger stehen wie Betreiber sozialer Netzwerke. 

Das seit Mai 2018 gültige, neue europäische Datenschutzrecht schafft Randbedingungen, die allen Unternehmen das Sammeln personenbezogener Daten erschweren. Insbesondere der Austausch solcher Informationen zwischen verschiedenen Unternehmen wird stärker reglementiert. Wer selbst über viele Daten verfügt und weniger auf Daten Dritter angewiesen ist, kann von der neuen Rechtslage in gewisser Weise profitieren. Im KI-getriebenen Journalismus wird die kritische Masse wichtiger. Gibt es nicht genügend Daten, erzielen die KI-Algorithmen nur schlechte Ergebnisse. Insgesamt fördert die technologische Entwicklung das Entstehen großer Einheiten. Daraus werden sich medienpolitische Fragen ergeben. Der KI-bedingte Wegfall von Sprachgrenzen ist ein Effekt, der zu supranationalen und damit deutlich größeren Nutzergruppen führen könnte. Offen ist die Frage, wie sich dies auf den Wettbewerb der verschiedenen Medien auswirkt. 

Zum Schluss ein Gedanke, der heute noch Science-Fiction ist, aber Wirklichkeit werden könnte. KI-Systeme, die qualitativ hochwertigen Journalismus präsentieren sollen, werden selbst journalistische Lektüre benötigen, um sich auf dem Laufenden zu halten und stets dazu zu lernen. Es klingt zwar merkwürdig, doch in absehbarer Zeit gibt es wahrscheinlich Medienprodukte von Maschinen für Maschinen. Doch vielleicht wollen die Maschinen ab und zu auch mal einen richtig guten Artikel lesen – den ein Mensch geschrieben hat. 


Über den Autor

Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Er ist ein Experte für sowohl die technischen Aspekte der KI als auch deren Auswirkung auf die Medienlandschaft.

www.kas.de

Konrad-Adenauer-Stiftung e. V.
Analysen und Argumente Nr. 318 September 2018

Literaturverzeichnis 

1. Eberhard Schöneburg (Hrsg.): „Industrielle Anwendung Neuronaler Netze“. Addison-Wesley. 
2. Norbert Lossau: „Wenn Computer denken lernen“. Ullstein. 
3. Dan Brown: „Origin“. Lübbe. 
4. Ex Machina, britischer Spielfilm von Alex Garland (2015) 
5. https://www.welt.de/kultur/article172179137/NetzDG-Wie-ein-gut-gemeinetes-Gesetz-den-Hass-im-Netz-verstärkt.html (Letzter Abruf: 16.7.2018). 
6. https://www.deepl.com/translator (Letzter Abruf: 16.7.2018). 
7. htpps://narrativescience.com (Letzter Abruf: 16.7.2018). 
8. https://www.ax-semantics.com/de (Letzter Abruf: 16.7.2018). 
9. http://www.narrativa.com/aijournalism (Letzter Abruf: 16.7.2018). 
10. http://www.upday.com/de/ (Letzter Abruf: 16.7.2018). 
11. Norbert Lossau: „Gefährden Fake News die Demokratie?“. Beitrag in „Digitale Gesellschaft“, Konrad-Adenauer-Stiftung. 
12. https://www.welt.de/wirtschaft/webwelt/article153664299/Microsofts-KI-findet-Hitler-besser-als-Obama.html 
13. https://www.zeit.de/2018/14/amazon-alexa-sprachassistentin-persoenliche-daten-test (Letzter Abruf: 16.7.2018). 
14. https://joincivil.com (Letzter Abruf: 16.7.2018). 
15. https://new.consensys.net (Letzter Abruf: 16.7.2018). 
16. https://newsinitiative.withgoogle.com/dnifund/ (Letzter Abruf: 16.7.2018). 

Impressum

Der Autor Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Konrad-Adenauer-Stiftung e. V.
Dr. Norbert Arnold Leiter des Teams Bildungs- und Wissenschaftspolitik
Hauptabteilung Politik und Beratung
Telefon: +49(0)30 / 26 996-3504
E-Mail: norbert.arnold@kas.de
Postanschrift: Konrad-Adenauer-Stiftung, 10907 Berlin
Herausgeberin: Konrad-Adenauer-Stiftung e.V. 2018, Sankt Augustin/Berlin
Gestaltung: yellow too Pasiek Horntrich GbRSatz: Janine Höhle, Konrad-Adenauer-Stiftung e.V.
Lektorat: Jenny Kahlert, Konrad-Adenauer-Stiftung e.v.
Druck: copy print Kopie & Druck GmbH, Berlin
Printed in Germany.
Gedruckt mit finanzieller Unterstützung der Bundesrepublik Deutschland.
ISBN 978-3-95721-466-9

Der Text dieses Werkes ist lizenziert unter den Bedingungen von „Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 4.0 international”, CC BY-SA 4.0 (abrufbar unter: https://creativecommons.org/licenses/by-sa/4.0/legalcode.de)
Bildvermerk – Titelseite© liuzishan, fotolia

 

Deutschland auf Rang 2 der meisten Datenpannen in Europa

Fast die Hälfte (47%) der Firmen geben an, dass Nachforschungen am meisten von fehlenden Ressourcen beeinflusst werden

Der führende Anbieter für Ethik- und Compliance-Software und -Dienstleistungen, NAVEX Global®, hat einen neuen Bericht über Datensicherheit und Compliance in Unternehmen veröffentlicht. Dabei ergab sich, dass zwischen Mai 2018 und Januar 2019 in Deutschland 12.600 Datenschutzverletzungen gemeldet wurden. Damit ist Deutschland nach den Niederlanden das Land mit den zweitmeisten Verstößen in Europa.

Der Bericht deckte auch auf, dass fast 7 von 10 Compliance-Beauftragten (69%) sich über Datenschutz Sorgen machen und 68% Netzsicherheit zum einem der wichtigsten Ethik- und Compliance-Themen erklärten, obwohl die regelmäßige Kontrolle Dritter (52%) und ein durchgehend risikobasierter Ansatz (44%) die effektivsten Faktoren für Verbesserung im Vergleich zu Risikomanagement sind.

Trotzdem gibt es immer noch mehr als ein Viertel (27%) an Firmen mit einem veralteten Compliance-Programm, für die Datenschutz kein besonderer Grund zur Sorge ist. Auf die Frage, was den größten Einfluss darauf hat, wie lange es dauert Nachforschungen anzustellen und abzuschließen, nannten fast die Hälfte (47%) fehlende Ressourcen als Hauptgrund.

Aus dem Bericht kann man schließen, dass zu wenige Schulungen zu dem Thema teilweise dafür verantwortlich sind. In Unternehmen mit einem rückwirkenden Compliance-Programm wurden nur 53% im Senior Management und ohne Führungsverantwortung zu Datenschutz und sogar nur 41% zu Netzsicherheit geschult. In Firmen mit fortschrittlicheren Compliance-Programmen erhalten 22% derer ohne Führungsverantwortung gar keine Schulungen zu Datenschutz und Netzsicherheit. Das bedeutet, dass fast ein Viertel der Arbeitnehmer gar keine Handlungsempfehlungen oder Orientierungshilfen hat.

Trotz alledem sind die Kosten für Datenpannen in kleinen Unternehmen im Jahr 2019 um 50% zurückgegangen. Allerdings haben größere Unternehmen weniger gute Ergebnisse zu verzeichnen: bei mittelgroßen Firmen sind die Kosten um 327% und bei großen Unternehmen um 341% gestiegen.

Unternehmen mit Risikomanagement-Programmen machen dagegen einen Schritt in die richtige Richtung und 37% geben an, dass es dabei geholfen hat eine Vertrauenskultur aufzubauen. Für fast zwei Drittel (64%) der Firmen war ein Verhaltenskodex der Baustein, der den positivsten Einfluss auf Verletzungen ethischer Grundsätze hatte. Außerdem war für 60% ein internes Meldesystem, wie zum Beispiel eine Risikomanagement-Hotline nützlich, um Verstöße am Arbeitsplatz und Verletzungen der Firmenrichtlinien zu identifizieren.

„Datenschutz ist ein Vollzeitjob und ein großer Risikobereich. Die bloße Anzahl an Themen ist neu und es werden ständig mehr. Wenn Leute sich nicht an Datenforderungen halten, dann muss HR miteinbezogen werden, um sicherzustellen, dass es entsprechende Zuständigkeiten gibt.“

Carrie Penman, Chief Compliance Officer und Senior Vizepresident, Beratungsdienst, NAVEX Global

Jessica Wilburn, Datenschutzbeauftragte und führender Rechtsbeistand bei NAVEX Global, fügt hinzu: „Interne Kommunikation und Weiterbildungen sind essenziell, um Data Governance und Compliance zu unterstützen. Ja, es ist wichtig aufzuschlüsseln, was Datenschutz für verschiedene Abteilungen, Teams und Positionen bedeutet, aber es ist noch wirkungsvoller, wenn wir damit anfangen, worum es wirklich geht: Menschen zu schützen.“

Ansprechpartner 
Jonathan Lohbeck 
jonathan.lohbeck@searchlaboratory.com 
+44 (0113) 2121211 

Dies ist eine Pressemitteilung von NAVEX Global

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Arbeitswelt im Jahr 2030

Die Arbeitswelt von morgen: Dell Technologies blickt ins Jahr 2030: Die Studie „Realizing 2030: Die Zukunft der Arbeit“ von Dell Technologies und dem Institute for the Future (IFTF) benennt die großen Herausforderungen, denen Arbeitnehmer und Unternehmen im nächsten Jahrzehnt gegenüberstehen werden. 

Frankfurt am Main, 11. November 2019 – Dell Technologies hat zusammen mit dem Institute for the Future (IFTF) untersucht, welche Auswirkungen neue Technologien bis 2030 auf den Arbeitsmarkt haben werden, einschließlich der Chancen und Herausforderungen, denen sich Unternehmen und Arbeitnehmer in den kommenden Jahren gegenübersehen. Das zentrale Ergebnis: Die Ära der Partnerschaft zwischen Mensch und Maschine kommt, davon sind die befragten Führungskräfte überzeugt.

Die Studie Realizing 2030: Die Zukunft der Arbeit, die Dell Technologies gemeinsam mit dem Institute for the Future veröffentlicht hat, identifiziert vier Technologien, die die Arbeitswelt von morgen neu strukturieren werden: kollaborative KI, multimodale Schnittstellen wie haptisches 3D-Feedback oder Gestenerkennung, sichere verteilte Ledger wie Blockchains sowie Extended Reality (XR). Diese Technologien werden entscheidend dafür sein, dass Menschen und Maschinen einerseits im Einklang miteinander arbeiten können, und sich die Menschen andererseits auf sinnvolle, kreative und nachhaltige Aufgaben konzentrieren können. Beim Einsatz dieser Technologien müssen jedoch verschiedene Herausforderungen gemeistert werden, einschließlich algorithmischer Vorurteile, digitaler Qualifikationslücken sowie Arbeitnehmerrechte und -schutz. 

  • Algorithmische Vorurteile: 67% der Führungskräfte (Deutschland: 51%) gehen davon aus, dass sie neue Technologien einsetzen werden, um durch die Beseitigung menschlicher Vorurteile bei der Entscheidungsfindung für mehr Chancengleichheit zu sorgen. Die Bewerber müssen allerdings verstehen, wie ihre Profile von Machine-Learning-Tools, die von den Unternehmen genutzt werden, ausgewertet werden. Eine vollständige Transparenz der Kriterien, die in algorithmischen Einstellungsverfahren verwendet werden, wird unerlässlich sein, um Vertrauen zwischen Unternehmen und Arbeitnehmern aufzubauen. 
  • Lücken in der digitalen Kompetenz: 60% der befragten Führungskräfte (Deutschland: 39%) glauben, dass ihre Mitarbeiter bis 2030 bei der Nutzung neuer Technologien fit sein müssen. Den Unternehmen kommt dabei eine besondere Rolle zu: Die Fähigkeit, erfahrene Arbeitskräfte umzuschulen und eine neue Generation von Arbeitskräften zu fördern, wird von entscheidender Bedeutung sein. Aus Sicht der Experten müssen Mitarbeiter zudem über die notwendigen Skills verfügen, um Technologien wie Künstliche Intelligenz anwenden zu können. Gleichzeitig fördern 46% der Führungskräfte (Deutschland: 37%) die Entwicklung der unternehmenseigenen digitalen Fähigkeiten und Talente, indem sie ihren Mitarbeitern beispielsweise Programmierkenntnisse vermitteln.
  • Arbeitnehmerrechte und -schutz: Angesichts der sich ändernden Arbeitsbedingungen werden neue Richtlinien erforderlich sein, um die Arbeitnehmerrechte umfassend zu schützen. Die Führungsebene muss zudem Veränderungen in der Arbeitsorganisation vorantreiben, die mit dynamischen Arbeitsabläufen Schritt halten können. 44% der Befragten (Deutschland: 41%) fordern bereits eine KI-Regulierung und Klarheit über deren Verwendung. 

Trotz der Herausforderungen, die von den Führungskräften erkannt wurden, sind 83% der Befragten (Deutschland: 61%) der Meinung, dass sich die Art und Weise des Arbeitens dank der neuen Technologien zum Besseren verändern wird. Viele sind zudem optimistisch, was die Chancen angeht, die sich aus der Partnerschaft zwischen Mensch und Maschine ergeben. 70% der Führungskräfte (Deutschland: 57%) würden es begrüßen, wenn Mitarbeiter mit Maschinen oder Robotern zusammenarbeiten, um dadurch menschliche Grenzen zu überwinden. 86% (Deutschland: 79%) planen den Einsatz neuer Technologien zur Steigerung der Mitarbeiterproduktivität.

Aus Sicht des IFTF werden drei wesentliche Faktoren das Arbeitsumfeld im nächsten Jahrzehnt prägen: Chancengleichheit im Beruf, befähigte Mitarbeiter und KI-Kompetenz.

  • Chancengleichheit im Beruf: Partnerschaften zwischen Mensch und Maschine werden gerechtere Arbeitsplätze schaffen, da die Kandidaten nach ihren Fähigkeiten und nicht nach Geschlecht, Alter oder sonstigen Kriterien bewertet werden. So werden sich Unternehmen beispielsweise auf KI verlassen, um menschliche Vorurteile im Einstellungsprozess zu reduzieren, die Bildung optimaler Teams am Arbeitsplatz zu steuern und Anreize zur Steigerung von Produktivität, Arbeitsmoral und Mitarbeiterbindung zu schaffen. 
  • Befähigte Mitarbeiter: Mitarbeiter werden auf ganz andere, immersive Weise zusammenarbeiten, da Technologien wie Extended Reality (XR) sie mehr als je zuvor unterstützen werden. Verfahren zur Zusammenarbeit in Echtzeit, die bereits in Gaming-, Coding- und verteilten Communitys bekannt sind, werden auch zur Etablierung stärker vernetzter Arbeitsweisen eingesetzt. Ganze Teams können Arbeit gemeinsam angehen, ausführen und miteinander interagieren. 
  • KI-Kompetenz: KI wird die menschlichen Fähigkeiten ergänzen und erweitern, anstatt sie zu ersetzen. Mit KI vertraute Mitarbeiter werden ihre Fähigkeiten einsetzen, um Workflows zu managen, Aufgaben zu erledigen und die erfassten Daten leichter zu verstehen. Ein tiefgehendes Verständnis der KI sowie der Mensch-Maschine-Systeme kann menschliches Potenzial freisetzen und die Mitarbeiter von der Masse abheben. 

Über die Studie

Dell Technologies hat zusammen mit der unabhängigen Forschungsgruppe Institute for the Future (IFTF) im Rahmen der Studie „Future of Work: Forecasting Emerging Technologies‘ Impact on Work in the Next Era of Human-Machine Partnerships“ untersucht, wie neue Technologien das Arbeitsumfeld in den nächsten zehn Jahren verändern. Die Untersuchung baut auf der Zusammenarbeit beider Organisationen aus dem Jahr 2017 auf, als das IFTF Meinungen von 20 Experten aus der ganzen Welt auswertete, um die „nächste Ära der Mensch-Maschine-Partnerschaft“ vorherzusagen. Zwei Jahre später prognostiziert das IFTF, wie eine neue Dynamik zwischen Mensch und Maschine die Zukunft der Arbeit beeinflussen kann. Bei der Durchführung dieser Untersuchung stützte sich das IFTF auf seine Langzeitstudien über die Zukunft von Arbeit und Technologie sowie auf einen Expertenworkshop, der im November 2018 in Palo Alto, Kalifornien, mit Teilnehmern aus aller Welt stattfand. Die neuen Ergebnisse ergänzen den Dell Technologies Transformation Index (DTI), für den 2018 insgesamt 4.600 Führungskräfte aus 42 Ländern befragt wurden.

Über das Institute for the Future
Das Institute for the Future (IFTF) ist ein weltweit führender Think-Tank, der sich mit Fragen der zukünftigen Entwicklung auseinandersetzt. Seit über 50 Jahren verlassen sich Unternehmen, Regierungen und Social-Impact-Organisationen auf die globalen Prognosen, die individuellen Forschungen und das Foresight-Training des IFTF, um sich auf komplexe Veränderungen vorzubereiten und Strategien dafür zu entwickeln. IFTF-Methoden und -Toolsets liefern kohärente Ansichten über transformative Möglichkeiten in allen Bereichen, um eine nachhaltigere Zukunft zu unterstützen. Das Institute for the Future ist eine eingetragene 501(c)(3) gemeinnützige Organisation mit Sitz in Palo Alto, Kalifornien. 

Über Dell Technologies
Dell Technologies (www.delltechnologies.com) ist eine einzigartige Unternehmensfamilie, die Organisationen und Privatpersonen dabei unterstützt, ihre Zukunft digital zu gestalten und Arbeitsplätze sowie private Lebensbereiche zu transformieren. Das Unternehmen bietet Kunden das branchenweit umfangreichste und innovativste Technologie- und Services-Portfolio, von der Edge über das Rechenzentrum bis in die Cloud.

Pressekontakt

Michael Rufer
Dell Technologies
+49 69 9792 3271
Michael.Rufer@dell.com

Nadine Harbeck
PR-COM
+49 89 59997 805
Nadine.Harbeck@pr-com.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Textlizenz
Dies ist eine Pressemitteilung von Dell

Exzellentes Customer Onboarding

Case Study

„Know-Your-Customer (KYC)“-Anforderungen erfolgreich begegnen: Customer-Onboarding-Prozesse mit Echtzeitvalidierung und -verifizierung für free-floating Carsharing.

Jederzeit und zu günstigen (Minuten-)Preisen ein Auto mieten, das ist car2go. Dank des stationsunabhängigen, free-floating Carsharing-Systems stehen den Kunden die Fahrzeuge im jeweiligen Geschäftsgebiet überall und spontan zur Verfügung. Per Smartphone-App lassen sich die Fahrzeuge einfach finden, reservieren, anmieten und zurückgeben. Damit sich Neukunden komplett online registrieren können, hat das Unternehmen im Mai 2017 Lösungen von Melissa Data GmbH eingeführt. Seitdem konnte die Kundenzufriedenheit deutlich gesteigert werden.

Carsharing wird in Deutschland immer beliebter. Ende 2017 waren nach Angaben des Bundesverbandes Carsharing mehr als 1,7 Millionen Menschen bei den Anbietern registriert. Das entspricht einem Plus von 36 Prozent gegenüber dem Vorjahr. Mit weltweit mehr als drei Millionen Kunden, davon knapp 890.000 in Deutschland, zählt der Carsharing-Anbieter in diesem Segment zu den führenden Anbietern. Registrierte Kunden können an 26 Standorten in acht Ländern einfach über ihr Smartphone ein Auto mieten.

Offline-Registrierung als alleinige Möglichkeit passt nicht in die heutige digitale Welt

„Unser Ziel ist es, dass Kunden den kompletten Vorgang, von der Registrierung bis zum Mietvorgang, digital und über ihr Smartphone abbilden können“, erläutert Elisabeth Ihmels, Digital Optimization Manager bei car2go. „Bis 2017 fehlte uns hierzu noch die Möglichkeit, dass auch eine Neuregistrierung online erfolgen konnte. Die Länge des Registrierungsprozesses und die Customer Experience entsprachen nicht unseren Ansprüchen. Außerdem passten sie nicht zu unserer Philosophie, dass unsere Kunden unsere Fahrzeuge bequem über die car2go App kurzfristig und flexibel anmieten können.“

Um ein Konto zu eröffnen, mussten die Kunden zuvor einen stationären car2go Shop während der Öffnungszeiten aufsuchen. Damit ihnen dieser Weg erspart bleibt, suchte der Carsharing-Anbieter eine innovative Lösung, mit der die Daten online verifiziert werden. Dies hat den Vorteil, dass auch neue Kunden sich direkt am Auto online registrieren können, um dann innerhalb weniger Minuten einsteigen und losfahren zu können.

Nach dem Know-Your-Customer-Prinzip hatte der Carsharing-Anbieter an die Lösung folgende Anforderungen:

Die Adressverifizierung soll via Web Service und in Echtzeit ablaufen
Die Verifizierung der Adressen – unabhängig, aus welchem Land – hat innerhalb von wenigen Sekunden zu erfolgen
24/7 Support
sichere und verschlüsselte Verarbeitung (via https)
gutes Preis-Leistungsverhältnis
hohe Ergebnisqualität
Einhaltung internationaler Datenschutzrichtlinien

 

„Nach der Evaluierung und erfolgreich abgeschlossenen Tests haben wir uns gemeinsam mit dem zuständigen Fachbereich für die Lösung von Melissa entschieden“, sagt Elisabeth Ihmels

Validierung und Verifizierung internationaler Adressen in Sekunden

Melissa hat eigens für das Unternehmen einen dedizierten Server als „Private Cloud“ aufgesetzt. Über diesen Web Service ist die Prüfung mehrstufig aufgebaut und beinhaltet im ersten Schritt die Datenvalidierungstools und im zweiten Schritt den Check mit Global Personator, der Lösung von Melissa für die internationale Identitätsprüfung. Mithilfe der Datenvalidierung wird innerhalb weniger Sekunden zunächst geprüft, ob die vom Kunden eingegebenen Informationen plausibel und korrekt sind. Stimmen die Daten aus dieser Validierung, erfolgt anschließend die Identitätsprüfung. Dabei werden die personenbezogenen Daten von Kunden – Name, Adresse und Geburtsdatum – betrachtet und mit Referenzdaten abgeglichen sowie verifiziert.

„Die Einbindung der Lösung von Melissa in unsere Infrastruktur war der einfachste Teil an dem Projekt“, erinnert sich Elisabeth Ihmels. „Eine größere Herausforderung war es, alle möglichen Anwendungsfälle zu berücksichtigen, wie auch die unterschiedlichen Besonderheiten und Anforderungen in anderen Ländern.“

Zeitersparnis auf beiden Seiten

Heute können Neukunden entscheiden, ob sie sich in einem Shop oder online via Smartphone registrieren, wobei Letzteres für potenzielle Kunden und das Unternehmen selbst wesentlich einfacher und schneller funktioniert.

„Die Zusammenarbeit mit Melissa ist transparent und sehr angenehm“, sagt Elisabeth Ihmels. „Wir haben direkte, persönliche Ansprechpartner, die sehr kompetent und schnell mit Lösungsvorschlägen antworten. Die vereinbarten Service Level Agreements werden in hoher Qualität erfüllt. Darüber hinaus bietet Melissa einen sehr guten Support, der rund um die Uhr erreichbar ist. Dies ist für uns als internationales Unternehmen unabdingbar.“

https://www.melissa.com/de/

Aufmacherbild / Quelle / Lizenz
Bild von M W auf Pixabay

Unternehmen unterschätzen den digitalen Wandel

Die Ergebnisse einer Umfrage unter 11.000 Firmenkunden der Star Finanz zur Digitalisierung im deutschen Mittelstand ergeben ein interessantes Bild.
Die meisten Unternehmen in Deutschland begreifen die Digitalisierung als Chance. Gleichzeitig unterschätzen sie aber die volle Tragweite des digitalen Wandels, insbesondere die tiefgreifende Disruption ihres Geschäftsmodells, die damit einhergeht.


Hamburg, 7. November 2019.
Unternehmen in Deutschland scheinen bereit für die Digitalisierung. Die meisten Betriebe (83 Prozent) begreifen die Transformation als Chance: Sie beschäftigen sich mit den Herausforderungen der Digitalisierung und der Automatisierung ihrer Geschäftsprozesse. Gleichzeitig unterschätzen die Unternehmen die volle Tragweite des digitalen Wandels und die tiefgreifende Disruption ihres Geschäftsmodells, die damit einhergeht. Das geht aus Deutschlands derzeit größter Umfrage zur „Digitalisierung im deutschen Mittelstand“ hervor. An dieser Befragung nahmen im Zeitraum von Juni bis Juli 2019 mehr als 11.000 Einzelunternehmer, mittelständische Firmen und Konzerne teil.

Im ersten Teil der Umfrage analysiert die Star Finanz, wie Unternehmen in Deutschland mit dem Thema Digitalisierung umgehen. Insgesamt zeigen sich die Betriebe optimistisch: Ganze 83 Prozent sagen, dass der digitale Wandel Chancen für ihr Unternehmen bietet. In kleinen, langjährig etablierten Unternehmen sind die Vorbehalte größer. Auch mit Blick auf die Branchen lassen sich Trends erkennen. So sieht etwa der Handel, der vergleichsweise schon heute durch die Macht von Amazon und anderen Großanbietern am stärksten von den Auswirkungen der Digitalisierung betroffen ist, darin öfter eine Bedrohung (21 Prozent). In Industrie und verarbeitendem Gewerbe sind es nur 15,3 Prozent.

Viele Unternehmen in Deutschland sind zudem verunsichert, welche Auswirkungen die Digitalisierung auf das eigene Geschäftsmodell hat. Rund jeder vierte Betrieb (27,2 Prozent) kann die Veränderungen nicht abschätzen. Und während fast die Hälfte der Unternehmen (44,9 Prozent) in den kommenden fünf Jahren durch den digitalen Wandel eine Transformation ihres Geschäftsmodells erwartet, wollen nur 11,3 Prozent der Betriebe diese Veränderung aktiv in die Hände nehmen und ihr Geschäftsmodell anpassen.


„Der Veränderungsdruck ist in vielen Unternehmen offenbar noch nicht so hoch, als dass sie Anpassungen ihres Geschäftsmodells als Priorität wahrnehmen.“

Dr. Christian Kastner

Größere Unternehmen stehen der Digitalisierung positiver gegenüber. Sie sind oft auf einem höheren Digitalisierungslevel als kleinere Betriebe. Dr. Christian Kastner, Geschäftsführer der Star Finanz: „Die Ergebnisse zeigen, dass Unternehmen den digitalen Wandel als Chance begreifen. Gleichzeitig wird jedoch klar, dass ein Großteil der Betriebe die volle Tragweite der Disruption unterschätzt. Sie wollen zwar ihre bestehenden Prozesse optimieren und digitalisieren, mit den wirklich disruptiven Veränderungstreibern wie neuen Geschäftsmodellen, digitalen Produkten, Big Data oder künstlicher Intelligenz setzen sie sich jedoch selten auseinander. Der Veränderungsdruck ist in vielen Unternehmen offenbar noch nicht so hoch, als dass sie Anpassungen ihres Geschäftsmodells als Priorität wahrnehmen.“

Dr. Christian Kastner

Finanzinstitute als kaufmännische Begleiter bei der digitalen Transformation

Im zweiten Teil der Umfrage untersucht die Star Finanz, wie Banken und Sparkassen ihre Unternehmenskunden bei der digitalen Transformation unterstützen können. Noch wird der überwiegende Teil der Prozesse in den Unternehmen manuell abgewickelt, das betrifft insbesondere Prozesse in den Bereichen Weiterbildung und Mitarbeiterorganisation. Klassisch kaufmännische Vorgänge weisen den höchsten Automatisierungsgrad auf. So sagen 86,2 Prozent der Unternehmen, dass sie Gehaltsabrechnungen automatisch oder überwiegend automatisch erstellen. Es folgen Ausgangsrechnungen mit einem vollständigen oder überwiegenden Automatisierungsgrad von 64 Prozent, die Erstellung regelmäßiger Reports (57,7 Prozent), das Mahnwesen (57,2 Prozent) und die Angebots- und Auftragserstellung (53,8 Prozent).

Bei der Erstellung von Ausgangsrechnungen setzen 49,2 Prozent der Unternehmen auf eine lokale Buchhaltungssoftware am PC. Eine cloudbasierte Buchhaltungssoftware nehmen hingegen nur 8,3 Prozent der Betriebe in Anspruch. Erstaunlich ist, dass gut ein Viertel der Unternehmen (23,7 Prozent) für die Erstellung der Ausgangsrechnungen noch auf Word, Excel oder Textprogramme setzt. Dabei gilt: Je kleiner ein Unternehmen, desto eher erstellt es seine Ausgangsrechnungen per Word, Excel oder Textprogramm.


„Die etablierten Finanzinstitute können sich noch weit stärker als Experten für den digitalen Wandel positionieren und disziplinenübergreifende Mehrwertlösungen für ihre Firmenkunden anbieten.“

Dr. Christian Kastner

Doch selbst bei Großunternehmen wird noch verhältnismäßig viel Zeit in die Abwicklung kaufmännischer Prozesse auf Basis von Textprogrammen investiert. Ein erheblicher Teil der Unternehmen erwartet von ihren Banken oder Sparkassen zudem zusätzliche digitale Services, die über das aktuelle Angebot hinausgehen. An der Spitze liegen Kredit-Services (39,4 Prozent). Es folgen Cash Management (28 Prozent), Vertragsverwaltung (21,5 Prozent) und Rechnungsservice (20,3 Prozent).

Dr. Kastner: „Die etablierten Finanzinstitute können sich noch weit stärker als Experten für den digitalen Wandel positionieren und disziplinenübergreifende Mehrwertlösungen für ihre Firmenkunden anbieten. Die Umfrageergebnisse zeigen, welchen Bedarf es hier insbesondere bei kleineren Firmen gibt. Für sie gibt es heute oft noch nicht die passenden Angebote, um kaufmännische Prozesse durchgehend automatisiert abzubilden. Auch wenn die Digitalisierung noch lange nicht abgeschlossen ist: Die deutsche Wirtschaft hat sich auf den Weg gemacht.
Wichtig ist, dass Banken und Sparkassen sie auf diesem Weg noch stärker begleiten“, sagt Dr. Kastner abschließend.

Weitere Informationen finden Sie im Whitepaper unter:
https://www.starfinanz.de/digitalisierung-im-deutschen-mittelstand/

Zur Umfrage:
Die Star Finanz führte im Juni und Juli 2019 eine Online-Umfrage unter Einzelunternehmern, mittelständischen Firmen und Konzernen in ganz Deutschland durch. Ziel der Umfrage war es, Erkenntnisse zum Digitalisierungsgrad sowie den Digitalisierungswünschen deutscher Unternehmen zu gewinnen. Insgesamt nahmen mehr als 11.000 Firmen an der Befragung teil. Ein Großteil der Antwortgeber besetzt in den Unternehmen leitende Positionen. Über die Hälfte sind Inhaber oder Geschäftsführer, knapp ein Viertel leitende Angestellte.

https://www.starfinanz.de

Für weitere Informationen oder Fragen:
Birte Bachmann
Pressesprecherin
Star Finanz-Software Entwicklung und Vertriebs GmbH
Telefon +49 40 23728-336
presse@starfinanz.de
Pressekontakt:
Marco Luterbach
redRobin. Strategic Public Relations
Telefon +49 40 692 123-29
luterbach@red-robin.de

Aufmacherbild / Quelle / Lizenz
Bild von mohamed Hassan auf Pixabay

Textlizenz:
Dies ist eine Pressemitteilung der Star Finanz

Riesige Vermögenslücke auch bei Bitcoin Cash

Riesige Vermögenslücke auch bei Bitcoin Cash: 0,01 Prozent verfügen über mehr als die Hälfte aller BCH Tokens

Kryptoszene.de verdeutlicht gewaltige BCH-Vermögens-Unterschiede in sieben Grafiken und Charts

Bereits vergangene Woche berichtete Kryptoszene.de über ein enormes Vermögens-Ungleichgewicht beim Bitcoin (BTC). Nun zeigen Daten von Bitinfocharts, dass Bitcoin Cash (BCH) Tokens noch deutlich ungleichmäßiger verteilt sind.

Die sechs größten BCH Adressen vereinnahmen 1.355.460 Coins. Dies entspricht beim derzeitigen Bitcoin Cash Kurs einem Gegenwert von knapp vierhundert Millionen US-Dollar. 54,59 Prozent des Gesamtbestandes befindet sich auf nur 0,01 Prozent der Adressen.

Ungleichgewicht noch drastischer als bei Bitcoin

„Wir sind schon überrascht, dass sich der Eindruck der vergangenen Woche nun noch weiter bestätigt,“ so Kryptoszene.de Chefredakteur Raphael Adrian, „es hat fast den Anschein, dass Kryptowährungen im Allgemeinen zum Spielzeug der Eliten werden.“

Insgesamt gibt es über 4,6 Millionen BCH Adressen. Auf 36,08 Prozent derer befinden sich jedoch nur zwischen 0,001 und 0,01 Bitcoin Cash. Auf einer einzigen Bitcoin Cash Adresse befinden sich satte 505.295 BCH. Das entspricht ganzen 2,8 Prozent des Token-Bestandes.

Über die geografische Verteilung der Adressen gibt es keinerlei Informationen. Zudem geben die Daten keine Auskunft darüber, auf welcher Bitcoin Cash Wallet die Kryptowährungen gelagert sind. Außerdem gibt es keine Möglichkeit, zu unterscheiden, ob sich auf einer Bitcoin Cash Adresse die Token einer Privatperson, eines Unternehmens oder gar eines Vermögensverwalters befinden.

Kryptoszene hat die Ergebnisse in Charts und Grafiken unter folgendem Link aufgearbeitet:

https://kryptoszene.de/riesige-vermoegensluecke-auch-bei-bitcoin-cash-001-prozent-verfuegen-ueber-mehr-als-die-haelfte-aller-bch-tokens/

Pressekontakt

Raphael Adrian

www.kryptoszene.de

Lizenz:
Dies ist eine Pressemitteilung von Kryptoszene

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Die Digitalisierung als Chance für flexibles Arbeiten

Die Arbeitswelt ist volatiler denn je. Vor allem junge Menschen wünschen sich, dass Jobs auf sie zugeschnitten sind – und nicht umgekehrt. Die Digitalisierung sehen die meisten von ihnen dabei als große Chance an. So ist es beispielsweise mithilfe elektronischer Collaboration Tools möglich, flexibel und ortsunabhängig zu arbeiten. Wenn Unternehmen die Employee Journey ihrer Angestellten durch entsprechende Angebote verbessern, zahlen diese den Gefallen vielfach zurück.

Die Veränderungen der Arbeitswelt gehen immer schneller und dynamischer vonstatten. Das ist eine notwendige Entwicklung. Denn laut dem Gallup Engagement Index 2018 haben über fünf Millionen Arbeitnehmer (14 Prozent) in Deutschland bereits innerlich gekündigt und besitzen keine Bindung zum Unternehmen. Drei von vier Beschäftigten machen lediglich Dienst nach Vorschrift (71 Prozent)[1].

Dieser Herausforderung müssen Unternehmen begegnen, nachdem gerade die der Generation Y und Z zugehörigen Talente häufig Wünsche haben, die sich nur schwer mit dem Rhythmus klassischer Organisationsformen decken: Sinnvolle Tätigkeiten sind für viele von ihnen wichtiger als schnelle Karriereschritte. Selbst Angebote wie ein Dienstwagen sind auf der Prioritätenliste nach unten abgerutscht. Stattdessen steht Flexibilität für junge Menschen hoch im Kurs. Auch der Wunsch ortsunabhängigen Arbeitens ist erheblich gewachsen. Gleichzeitig leben „Digital Natives“ eine „Always-on-Mentalität“.


 

 

Über den Autor


René Proske ist Geschäftsführer der Proske GmbH, einer Veranstaltungsagentur mit rund 80 Mitarbeitern und vier Standorten in Deutschland und den USA. Proske implementiert Strategische Meeting Management Programme (SMMP) und bietet kreative und logistische Dienstleistungen.

 


Mitarbeiter als digitale Nomaden – ein Erfolgsmodell

Laut Gallup sind bei agilen Unternehmen 43 Prozent der Befragten emotional stark gebunden, während es bei nicht agilen Unternehmen nur sechs Prozent sind. Wer als Arbeitgeber attraktiv bleiben möchte, kommt kaum umhin, sich darauf einzustellen – auch im Hinblick auf den Arbeitsort. Die Digitalisierung und die Nutzung digitaler Angebote durch die junge Generation erleichtern das immens, das erleben wir bei Proske tagtäglich. Unsere Agentur realisiert Firmenveranstaltungen wie Tagungen und Kongresse rund um den Globus. Obwohl das ein klassisches „People Business“ mit einer hohen Bedeutung persönlicher Kontakte ist, sind auch hier Flexibilität und moderne Arbeitsformen vielfältig möglich.

So ist etwa „Remote Work“ bei uns bereits seit einigen Jahren gängig – und zwar von überall auf der Welt aus. Begonnen hat das mit einer Projektleiterin, die auf dem Wifi Tribe unterwegs ist, einer Community aus Bloggern, Freelancern und anderen digitalen Nomaden. Um ihre Aufenthaltsorte in der Karibik oder in Südamerika würde sie vermutlich jeder beneiden, der im Novemberregen im Rush-Hour-Stau steht. Das einzige fixe Kriterium für die Wahl ihres Aufenthaltsortes ist eine stabile WLAN-Verbindung.

Inzwischen arbeiten 15 Mitarbeiter bei Proske dauerhaft von außerhalb des Büros. Viele weitere unserer rund 80 Angestellten profitieren von weitgehenden Home-Office-Regelungen. Eine Teamleiterin hat ihren Wohnsitz auf Malta, ein Nachwuchstalent ist als Globetrotterin in Australien und den USA. Vor kurzem haben wir zwei neue Kolleginnen eingestellt, von denen eine aus Singapur und eine von den Philippinen aus für uns tätig sein werden. Auch ich als Geschäftsführer lebe bereits seit 10 Jahren in Spanien und Portugal. Unter dem Strich funktioniert das auch über Zeitzonen hinweg reibungslos.

Das Angebot, remote zu arbeiten, ist dabei nicht nur mit praktischen Aspekten, sondern auch mit einer neuen Unternehmenskultur verbunden. New Work geht für uns einher mit einem Maximum an Verantwortung für Mitarbeiter – und das bedeutet: Wir ermöglichen Freiheit statt Kontrolle. Diese Mentalität führt zu Engagement, Professionalität und Freude im operativen Alltag. Das erleben wir bei Proske ständig aufs Neue.


https://www.proske.com/de/

[1] https://www.gallup.de/183104/engagement-index-deutschland.aspx

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Misstrauen als Prinzip für Endpoint-Security

Zero Trust als Security-Strategie ist keine Option, sondern ein Muss in Zeiten grenzenloser Vernetzung, denn Vorsicht ist besser als Nachsicht!
Peter Machat, Vice President Central EMEA bei MobileIron erläuterte im Interview, wie Endpoint-Sicherheit und Nutzerakzeptanz zeitgleich mit Techniken, die durch „Misstrauen als Prinzip“ gekennzeichnet sind, gesteigert werden.

Herr Machat, welche Auswirkungen haben Cloud, mobiles Arbeiten, BYOD, remote, aber andererseits auch die zunehmende Vernetzung (IoT, IIoT) im Hinblick auf den Endpoint und dessen Sicherheit?

Die herkömmlichen Netzwerkgrenzen gibt es in dieser modernen Arbeitswelt nicht mehr. Die Plattform von MobileIron ergänzt deshalb die bewährten Unified Endpoint Management (UEM) Funktionen durch Techniken, die durch „Misstrauen als Prinzip“ gekennzeichnet sind (Zero-Trust-Prinzip). Oder positiv ausgedrückt: Jede Nutzerin und jeder Nutzer müssen sich Vertrauen erst einmal erarbeiten. Zusammen ermöglichen diese Methoden und Technologien eine nahtlose, sichere Benutzererfahrung, indem sie sicherstellen, dass nur autorisierte Nutzer, Geräte, Anwendungen und Dienste auf Geschäftsressourcen zugreifen können.

Wo lauern aktuell die größten Gefahren?

Lange Zeit war der Bereich der Smartphones und Tablets sicherheitstechnisch eher unauffällig. Das hat sich mittlerweile grundlegend geändert. Neben unsicheren WiFI-Zugängen, über die viele oft gedankenlos mit ihrem Mobilgerät auf sensible Geschäftsdaten zugreifen, haben sich Spionage-Apps mittlerweile zu einem der gefährlichsten Angriffsvektoren im Mobil-IT-Bereich entwickelt. Ohne entsprechende Nachrüstung in Form einer Früherkennung und schnellen Beseitigung von Cyberangriffen (Mobile Threat Detection and Remediation, MTD) bieten hier Unified-Endpoint-Management-(UEM-)Systeme, die die Mobilgeräte-Flotte eines Unternehmens verwalten, zunächst einmal wenig bis gar keinen Schutz.

Aber nicht überall, wo MTD draufsteht, ist MTD, wie ich es mir vorstelle, auch drin. MobileIron ist auch hier meiner Meinung nach die große Ausnahme. Unser Frühwarnsystem ist nämlich direkt in den UEM-Client integriert. Das heißt, der Nutzer muss es nicht eigens aktivieren und was noch wichtiger ist: der Nutzer kann es auch nicht deaktivieren, weil ihm oder ihr Warnmeldungen überflüssig erscheinen oder weil er oder sie vermeintlich Zeit sparen wollen. Darüber hinaus ist dieses MTD nicht nur ein Früherkennungssystem, sondern auch in der Lage, das System derart gegen den Angriff zu schützen, dass die Abläufe dadurch nicht unterbrochen werden. Wir führen also gleichzeitig mit der Früherkennung Maßnahmen zur Beseitigung der Störung durch.


„Alle Akteure – ob in einem Unternehmen oder außerhalb eines Unternehmens – sind potenzielle Gefährder.“

Peter Machat

Unser Interviewpartner:
Peter Machat ist seit 2016 Vice President Central EMEA bei
MobileIron. Der studierte Wirtschaftsinformatiker besitzt mehr als 20 Jahre Erfahrung in der Mobile IT-Branche. Durch die jahrelange Zusammenarbeit mit den Vertriebsteams der Carrier, lokalen und globalen Systemhäusern sowie den gemeinsamen Aufbau der mobilen Infrastrukturen bei Kunden ist Peter Machat ein geschätzter Partner und Experte auf vertrieblicher und technischer Ebene. Vor MobileIron war Peter Machat bei Research In Motion (heute: BlackBerry) für ein europaweit agierendes Pre-Sales Team verantwortlich, das Kunden und Partner bei der Implementierung und beim Aufbau von BlackBerry-Infrastrukturen beriet.


Wie ist der Status Quo deutscher Unternehmen und wo sehen Sie aktuell den größten Handlungsbedarf?

Viele Unternehmen haben den eben erwähnten Paradigmenwechsel in die perimeter-lose Ära in ihren Sicherheitsmaßnahmen noch nicht oder nur unzureichend umgesetzt. Sie geben immer noch zu viel Geld für traditionelle Maßnahmen aus, die in der modernen Arbeitswelt mit Cloud und mobilen Endgeräten nichts bringen oder sogar kontraproduktiv sind, weil sie die Unternehmen in einer falschen Sicherheit wiegen. Es soll ja immer noch massenweise Unternehmen geben, die ihre Smartphone- und Tablet-Flotte nicht in ein Unified Endpoint Management System eingebunden oder nur in Teilen, oder die ein wenig leistungsfähiges System benutzen, dessen Security-Features unzureichend sind.

Wie sollten Sicherheits- und IT-Teams vorgehen, um Endpoints zu sichern und damit letztendlich potenziellen Abfluss hochsensibler Unternehmensdaten zu verhindern?

Wie gesagt: das traditionelle „Innen“ und „Außen“, also zwischen innerem Unternehmensnetz und der externen IT-Welt gibt es heute nicht mehr. Alle Akteure – ob in einem Unternehmen oder außerhalb eines Unternehmens – sind potenzielle Gefährder. Grundsätzlich ist deshalb erst einmal Misstrauen angesagt. Jede Nutzerin und jeder Nutzer, die auf sensible Unternehmensdaten zugreifen wollen, und das sind natürlich auch E-Mails, müssen sich zuvor umfassend ausweisen. Benutzername und Passwort genügen da bei Weitem nicht. Gefragt ist ein kontextueller Sicherheitsmechanismus, der erst dann Zugriff auf Daten, Netzwerke etc. gewährt, wenn Gerät und Benutzer in ihrem jeweiligen Kontext validiert, die App-Autorisierung überprüft, das Netzwerk verifiziert und Bedrohungen erkannt und behoben sind.

Welche besonderen Vorteile gewinnen Kunden durch den Einsatz Ihrer Zero-Trust-Sicherheitsplattform?

Eine reine Passwort-Zugangskontrolle reicht nicht mehr aus, um die heute vorherrschende mobile Cloud-Infrastruktur zu sichern. Gestohlene Nutzerdaten sind die Hauptursache für Sicherheitslecks und Datenschutzverletzungen. Aus diesem Grund geht MobileIron einen neuen Weg für die Unternehmenssicherheit, indem es Passwörter eliminiert und das mobile Gerät als solches zur ID und zum sicheren Zugriffsmedium auf Unternehmensdaten macht. Anfang des Jahres wurde die Zero-Sign-On-Technologie eingeführt, die eine große Anzahl von Parametern wie Geräte-, Anwendungs-, Netzwerk-, Standort- und Benutzerkontext prüft, bevor sie Zugriff auf Unternehmensressourcen gewährt – ohne ein Passwort zu benötigen.


Ohne Machine Learning lässt sich keine Echtzeit-Abwehr (Zero-Day-Defense) aufbauen.
Eine solche Echtzeit-Abwehr ist in der mobilen Cloud-Welt von heute ganz entscheidend.


Welche Rolle wird Künstliche Intelligenz in Zukunft im Rahmen von IT-Security einnehmen?

Ohne Mustererkennungs-Algorithmen, die ständig dazulernen und das vollautomatisch, ist es nicht möglich, Abweichungen vom normalen Verhalten genügend schnell zu erkennen. Und ohne solches Machine Learning lässt sich keine Echtzeit-Abwehr (Zero-Day-Defense) aufbauen. Eine solche Echtzeit-Abwehr ist in der mobilen Cloud-Welt von heute ganz entscheidend.

Wie sollte vor diesem Hintergrund eine IT-Sicherheitsstrategie aufgebaut sein?

Ganz klar: KI muss eingebettet sein in eine effiziente Sicherheitsorganisation. Nur so lassen sich die Stärken von KI vollständig ausspielen.
Wichtig sind folgende Punkte:

  • Wie gut spielt das Mobile Security-System mit dem UEM-System zusammen?
  • Wie einfach ist das Frühwarnsystem zu handhaben. Ist es für den Nutzer vielleicht völlig transparent?
  • Inwieweit ist das jeweilige System in der Lage oder überhaupt darauf ausgerichtet, einen Angriff nicht nur zu erkennen, sondern auch zu neutralisieren, das heißt die Gefahr zu beseitigen (Remediation)
  • Und nicht zuletzt die Frage: Lässt sich das Frühwarnsystem vom Nutzer abschalten oder nicht?

Ganz entscheidend für den Erfolg in Sicherheitsfragen ist aber immer die Akzeptanz bei den Nutzern:  Jeder Management- und Sicherheits-Ansatz steht und fällt mit der Tatsache, inwieweit er das positive Nutzererlebnis durch transparente Gestaltung der Kontrollmechanismen erhält und damit die Produktivität der Nutzer noch einmal steigert. Sicherheit nicht als Bremsklotz, sondern als Produktivitätsfaktor.

Aufmacherbild/ Beitragsbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay
Bild von Pete Linforth auf Pixabay

Data-Sharing in der Cloud

Wenn die Cloud bisher eher aus Sicht der Infrastruktur und Kosteneinsparung wahrgenommen wurde, so lohnt es sich doch laut Pierre Thompson von Snowflake, die Cloud auch weiterführend zu betrachten. Konkret z.B. hinsichtlich einer zielführenden Kollaboration entlang der Wertschöpfungskette durch das Teilen von Daten. Thompson wirft dabei im Gespräch die Frage auf, wie Unternehmen dabei die geforderte Flexibilität wahren können.

Pierre Thompson, Regional Director D-A-CH bei Snowflake: „Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing.“ Bildquelle: snowflake

Herr Thompson, wie beurteilen Sie die Rolle der Cloud im Hinblick auf die digitale Transformation?
Die Cloud wurde bisher vor allem wahrgenommen als eine Möglichkeit, Kosteneinsparungen und Performancegewinn zu kombinieren. Die positiven Effekte gegenüber den traditionellen On-premise Ansätzen haben hierbei auch sehr konservative Unternehmen überzeugt.
In einem nächsten Schritt werden nun weitere Mehrwerte durch zum Beispiel einfachere Kollaboration und der Monetarisierung von Daten gehoben.
Bisher wurden cloud-basierte Data Warehouses (DWH) genutzt, um interne Unternehmensdaten optimal für interne Analysen aufzubereiten und dies extrem günstig und flexibel im Vergleich zu den klassischen Architekturen. Nun, da sich mehr und mehr Konzerne mit ihren Daten auf den großen Cloud-Plattformen befinden, ergeben sich zunehmend Möglichkeiten, diese Daten sicher entlang der vertikalen Wertschöpfungskette oder horizontalen Supply-Chain auszutauschen. Oder es entstehen Unternehmen, die ausschließlich als Data-Broker eine Drehscheibe zwischen Unternehmen darstellen und als Business-Modell veredelte Daten in Echtzeit anbieten. Dieses Data-Sharing im großen Stil ist der nächste Schritt, der durch die Cloud überhaupt erst ermöglich wurde.

Ist diese „Vision“ schon überall in der deutschen Wirtschaft angekommen?
Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing. Das heißt, Unternehmen stellen Partnern, Lieferanten, Kunden etc. in Echtzeit, sicher und klar definierte Daten zur Verfügung, um effizienter zu agieren. Im Gegensatz zu früheren Konzepten passiert dies wiederum ohne Datenkopien und manuellem Transfer – dafür aber extrem sicher und mit Echtzeitaktualisierung. Die vollständige Synchronisation von Daten entlang der Wertschöpfungskette ermöglicht ein neues, effizientes Level von Kollaboration über Unternehmensgrenzen hinweg.
Jedoch noch sehr wenig ausgeprägt ist der nächste Schritt: Die Monetarisierung des Goldschatzes auf dem viele Unternehmen sitzen. Wir kennen spannende Ansätze insbesondere von den Unternehmen, deren Kernbusiness schon immer aus Daten bestand, wie Wetterplattformen, Marktforschungsinstitute etc. Nun sehen wir darüber hinaus aber auch klassische Industrieunternehmen, Finanzinstitute oder Retailer, die ihre Daten aus Sensoren, Transaktionen oder Handelsplattformen aufbereiten und anderen Marktpartnern zur Verfügung stellen; die darauf wiederum Services und Geschäftsmodelle aufbauen.
Grundsätzlich lässt sich aber feststellen, dass Unternehmen aus dem angel-sächsischen Raum in diesem Geschäftsfeld leider deutlichen Vorsprung haben.

Hier kommen wir dann nicht umhin, über Stichwort Analytics zu sprechen: Welche Entwicklungen werden wir hier in den nächsten Monaten sehen?
Der Markt der Analytics-Anbieter hat sich in der jüngsten Vergangenheit deutlich verändert. Einstmals unabhängige Anbieter, wie Looker oder Tableau, sind nun Bestandteil von Konzernen, deren Geschäft zu 100% cloudifiziert ist und die als Platformanbieter neues Potenzial mit den Technologien heben können.
Offensichtlich ist Analytics in Kürze gleichzusetzen mit Cloud – und dies macht Sinn, wenn wie oben dargestellt, mittlerweile die Mehrheit der Daten in der Cloud vorgehalten wird. Darüber hinaus wird es einen erheblichen Schub durch künstliche Intelligenz und Machine Learning geben. Wenn Unternehmen massenhaft Daten in der Infrastruktur der Cloud analysieren, dann können schneller Formen von Metadaten und Heuristiken entwickelt werden, die dem menschlichen Vermögen, Daten kreativ auszuwerten, in einigen Disziplinen überlegen sein werden.

Wie greifen Sie diese Entwicklungen im Rahmen Ihres „Data Warehouse in der Cloud“ auf?
Die Entwicklungen aus dem Data-Sharing greift Snowflake auf zweierlei Art auf. Zum Einen ermöglicht unsere Technologie jedem Unternehmen, seine Daten in Echtzeit sicher zu teilen, ohne fehleranfälliges und unsicheres manuelles extrahieren, upload etc. Daneben haben wir auf unserer Userkonferenz unseren zukünftigen Marketplace für Data vorgestellt, der es Datenanbietern unkompliziert ermöglicht, Daten einfach anzubieten und als Umsatzquelle zu erschließen. Damit ist Snowflake als Platform so etwas wie das Amazon des Datenhandels, da wir Technologie und Marketplace zugleich anbieten.
Den analytischen Aspekt nutzen wir sehr tief in unserer Technologie um unsere Anwender optimal zu unterstützen. Neben einzelnen analytischen Funktionen innerhalb unseres Warehouses, basiert zum Beispiel das gesamte automatische skalieren von Rechten und Speicherkapazität auf komplexen Heuristiken. Diese Heuristiken wiederum lernen aus dem Verhalten von tausenden Nutzern und angepasst an kundenspezifische Besonderheiten, um bspw. zu antizipieren, dass ein Unternehmen immer Montags um 10:00 Uhr mehr Rechenkapazität benötigt, oder nach dem Monatsabschluss automatisch herunterskalieren kann.

Datenqualität steigern vs. einfach anfangen: welchen Weg würden Sie als Entscheider wählen?
Das ist ein bisschen wie Henne oder Ei und nicht pauschal zu beantworten. Tendenziell empfehle ich jedoch sehr agil zu arbeiten und in kleinen Schritten erste Erfolge aufzuweisen, um dann final den großen Schritt zu machen. Wenn ein Unternehmen eine neue Analytics-Plattform einführen möchte, um zum Beispiel Preisanalysten in Echtzeit parallel Zugriff auf strukturierte und unstruktierete Daten zu ermöglichen, dann wäre es fatal, zunächst in einem Wasserfallprojektplan das Vorhaben ingenieurmäßig vorzudenken, sämtliche Daten vollständig korrekt aufzubereiten und dann in die Umsetzung zu gehen. Der Wettbewerb ist in diesen 18 Monaten dann bereits die ersten 10 Schritte voraus und intern wird es schwierig, die Nutzer „bei Laune“ zu halten. Daher macht ein parallelisiertes Vorgehen Sinn. Erste Teilprojekte erfolgreich an den Mann zu bringen – indem zum Beispiel initial nicht alle Daten, die im Projektscope stehen integriert werden –, und paralleles feintunen des Erstsystems plus Planung und Vorbereitung des Gesamtprojektes.

Weitere Informationen unter:
https://www.snowflake.com/?lang=de

Konjunkturoptimismus von CEOs bricht weltweit ein

Confidence Index: Künstliche Intelligenz erfasst das Stimmungsbild von 58.000 Führungskräften weltweit.

München, 6. November 2019 – Der Konjunkturoptimismus von Führungskräften hat weltweit signifikant abgenommen. Das zeigt der zweite Worldcom Confidence Index (CI), der jährlich von der Worldcom Public Relations Group veröffentlicht wird. Durch die Analyse des Online-Content von mehr als 58.000 Chief Executive Officers (CEOs) und Chief Marketing Officers (CMOs) zeigt sich, dass der allgemeine Konjunkturoptimismus um mehr als 20 Prozent gesunken ist. Die deutlichsten Rückgänge verzeichnen die USA (51 Prozent) und China (21 Prozent), in Japan gab es allerdings positive Entwicklungen; das Land springt vom letzten auf den ersten Platz im Confidence Index, mit einem Plus von 74 Prozent.

„Das Besondere am diesjährigen Confidence Index ist die Verarbeitung der Daten mithilfe von künstlicher Intelligenz, die Worldcom für diese Analyse genutzt hat. Die Einblicke, die uns dank dieser modernen Form der Datenerhebung geliefert wurden, sind substantiell“, sagt Corinna Voss, Managing Director der HBI PR aus München. „Ein sprachenunabhängiges Stimmungsbarometer von nahezu 60.000 CEOs und CMOs zu erhalten, wäre ohne einen trainierten Algorithmus nicht möglich.“

Handelsverträge und Zölle werden in Deutschland kritisch gesehen

Der Bericht zeigt deutlich, dass CEOs in Deutschland aktuelle und künftige Handelsverträge und Zölle als kritisch für die Konjunktur einstufen. Überraschenderweise ganz im Gegensatz zu Großbritannien und Kanada, die diese als weniger problematisch sehen. Darüber hinaus spielen auch Diskussionen über die globale Erwärmung eine signifikante Rolle und trüben die Zuversicht deutscher Wirtschaftsführer ebenso, wie der Blick auf Schwankungen der globalen Wirtschaftskonjunktur und drohender Kriege. Noch kritischer werden diese Situationen von Japan, China und den USA gesehen.

„Große Unsicherheiten weltweit, einschließlich der Diskussion über Handelskriege zwischen den Vereinigten Staaten und China, haben die Sorgen der wichtigsten Wirtschaftsverantwortlichen zusätzlich erhöht. Darüber hinaus zeigt unsere Studie, dass Streit um globale Handelsabkommen und Zölle die Zuversicht noch weiter untergraben“, sagt Roger Hurni, Vorsitzender der Worldcom Public Relations Group. „Seit der Veröffentlichung unseres letzten Confidence Index im Jahr 2018 beschäftigten die Führungskräfte der weitere Verlauf des Brexits, die Proteste in Hongkong, die Ausbreitung der globalen Erwärmung, Hungersnöte und das Wiederaufkommen von Krankheiten wie Masern. Diese Kombination von Faktoren kann eine Erklärung dafür sein, dass der allgemeine Konjunkturoptimismus im vergangenen Jahr so dramatisch gesunken ist.“

Künstliche Intelligenz analysiert Online-Verhalten der Führungskräfte aus 15 Ländern

In diesem Jahr kooperierte Worldcom mit dem Marktforschungsunternehmen Advanced Symbolics Inc., das mithilfe künstlicher Intelligenz öffentlich zugängliche Social-Media-Inhalte erfasst und analysiert. Im Rahmen der diesjährigen Studie wurden Daten von 58.000 Führungskräften und die Veränderungen ihrer Meinungen und Ansichten im Laufe der Zeit untersucht.

„Um wichtige Aspekte und Inhalte für den diesjährigen Confidence Index zu analysieren, haben wir bei Worldcom auf künstliche Intelligenz und modernste Marktforschungsmethoden gesetzt. Dies beweist nicht nur die Fähigkeit Innovationen zu nutzen, sondern auch ein tiefes Verständnis dafür, welche Vorteile künstliche Intelligenz für PR-Agenturen und Kommunikationsexperten haben kann“, erläutert Erin Kelly, Chief Executive Officer von Advanced Symbolics Inc. „Unsere KI Polly hat eine Stichprobe von mehr als 58.000 Geschäftsführern aus 15 verschiedenen Ländern erhoben – die Anzahl an betrachteten Profilen hat sich gegenüber dem Vorjahr signifikant erhöht.“


Erin Kelly, Chief Executive Officer von Advanced Symbolics:

 

„Unsere KI Polly hat eine Stichprobe von mehr als 58.000 Geschäftsführern aus 15 verschiedenen Ländern erhoben – die Anzahl an betrachteten Profilen hat sich gegenüber dem Vorjahr signifikant erhöht.“

 


Der Bericht erfasst neben dem globalen Konjunkturoptimismus auch die Bedeutung, die Führungskräfte aus dem oberen Management verschiedenen Zielgruppen beimessen und ihre Zuversicht darin diese zu erreichen. Es zeigt sich deutlich, dass Influencer im Confidence Index 2019 die zentrale Zielgruppe darstellen, im Jahr zuvor waren dies vornehmlich noch Kunden. Die Zielgruppe der Influencer wuchs innerhalb eines Jahres um 160 Prozent und liegt nun vor Kunden und Mitarbeitern.

„Influencer waren 2018 eine rückläufige Zielgruppe, sprangen aber in der diesjährigen Studie an die Spitze“, so Roger Hurni. „Das Wachstum im Bereich dieser Zielgruppe könnte darauf hindeuten, dass Führungskräfte das Gefühl haben, dass sie die Unterstützung von Influencern benötigen, um sich durch diese turbulenten Zeiten zu bewegen.“

Weiterbildung ist Schwerpunkt im Ringen um Mitarbeiterengagement und -bindung

Ein weiteres Problem, mit dem sich CEOs und CMOs auseinandersetzen müssen, ist die Bindung von Mitarbeitern. Vor allem Führungskräfte aus dem Vereinigten Königreich und den USA sehen hier große Schwierigkeiten. Die Wirtschaftsmigration gibt weltweit Anlass zur Sorge – vor allem in den USA, mit dem niedrigsten Wert im Confidence Index. Das wichtigste Thema für Führungskräfte bleibt die Weiterbildung und Neuqualifizierung von Mitarbeitern. Großbritannien hatte die niedrigste Punktzahl bei diesem Thema, Japan die höchste. Fortbildungen für Mitarbeiter sind nur einer von vielen Bereichen, die Führungskräfte nutzen, um sich Loyalität und Engagement der Mitarbeiter zu sichern.

In Deutschland hingegen ist man sehr zuversichtlich auch künftig geeignete Mitarbeiter zu finden und diese an das Unternehmen zu binden. Mit dem zweithöchsten Ergebnis liegt Deutschland damit weit über dem Durchschnitt und nur hinter Japan zurück. Italien und Frankreich sind ähnlich zuversichtlich – besonders zurückhaltend zeigen sich Großbritannien und die USA.

Mitarbeiter-Benefits spielen in Europa eine große Rolle, wenn es um die Mitarbeiter-Strategie geht. Vor allem in Frankreich, Italien, Deutschland und Großbritannien ist man sich sicher, dass Mitarbeiter-Benefits den Erfolg eines Unternehmens sichern. Darüber hinaus hat man vor allem in Japan und Deutschland den Wert der Mitarbeiter für ein produktives und erfolgreiches Unternehmen erkannt.

„Genau wie im letzten Jahr kämpfen Führungskräfte um herausragende Talente. Diese benötigen aber auch das richtige Skill-Set innerhalb eines sich schnell entwickelnden und dynamischen Arbeitsumfelds“, sagt Roger Hurni. „Aus der Studie geht auch hervor, dass Arbeitnehmer-Benefits Teil der Strategie zur Gewinnung und Bindung von Mitarbeitern sind.“

In 23 Themengebieten und anhand sechs verschiedener Zielgruppen beleuchtet der Worldcom Confidence Index Bedenken und Hoffnungen der befragten Manager. „Wir freuen uns, als Teil der Worldcom Public Relations Group den KI-basierten Confidence Index zu unterstützen und werden diesen modernen Ansatz weiter verfolgen“, sagt Corinna Voss, Managing Director der HBI PR aus München. „Die datenbasierte Kommunikation werden wir künftig auch für unsere Kunden und eine ganz neue Art von Storytelling nutzen.“

Methodik der Studie

Die Studie konnte in dieser Größenordnung und in neun verschiedenen Sprachen durchgeführt werden, da die vorhandenen Daten mit einer künstlichen Intelligenz (KI) erfasst wurden. Das Forschungsunternehmen Advanced Symbolics Inc (ASI) entwickelte eine patentierte Methode, um repräsentative Analysen zu erstellen und die gesammelten Daten mit dem KI-Tool zu verarbeiten.

„Wir freuen uns, als erste Organisation KI auf diese Weise und in diesem Umfang einzusetzen“, sagt Roger Hurni, Vorsitzender der Worldcom Public Relations Group. „Dies ist ein weiterer Beweis dafür, dass die Worldcom-Partner weltweit mit innovativen Lösungen arbeiten, um sofortige Ergebnisse zu liefern und beständige Lösungen für Kunden anzubieten. Wir haben uns für den Ansatz von ASI entschieden, weil sich dieser als enorm präzise erwiesen hat. Erst letzten Monat konnte ASI als einziges Marktforschungsunternehmen das Ergebnis der kanadischen Wahlen mit Hilfe ihres KI-Tools genau voraussagen. Wir werden in den kommenden Monaten weitere Einblicke in die Ergebnisse der Studie veröffentlichen und bieten unseren Kunden im besonderen und Führungskräften im allgemeinen wertvolle Einblicke.“

Weitere Informationen finden Sie hier:
https://worldcomgroup.com/resources/confidence-index

Jasmin Rast
Account Director
HBI Helga Bailey GmbH – International PR & MarCom
T: +49 (0) 89 99 38 87 27 | M: +49 (0) 173 6942809
Jasmin_Rast@hbi.de |
www.hbi.de

Textlizenz:
Dies ist eine Pressemitteilung von HBI

Aufmacherbild /Beitragsbild / Lizenz / Quelle
Bild von Gerd Altmann auf Pixabay
Bild von rawpixel auf Pixabay

Smarte Wissensinfrastruktur für den digitalen Arbeitsplatz

Schnell an relevante Informationen gelangen ist das Gebot der Stunde. Herr Manuel Brunner von IntraFind erläutert im Gespräch die vielfältigen Mehrwerte und Features einer smarten Search-Enterprise-Lösung.

Herr Brunner, allseits ist von den Vorteilen des digitalen Arbeitsplatzes die Rede. Welche Erfahrungen machen Sie in der Kundenberatung? Wie weit ist die Technologie, das Bewusstsein schon „vorgedrungen“? Wonach fragen Ihre Kunden Sie derzeit?

In den Gesprächen, die wir zum Digitalen Arbeitsplatz führen, spüren wir sehr großes Interesse an dem Thema, allerdings in den wenigsten Fällen ein wirklich konsolidiertes Vorgehen. Ich habe das Gefühl, dass Projekte zum Digitalen Arbeitsplatz gerne dazu benutzt werden, langersehnte neue, moderne Anwendungen einzuführen, ohne dabei aber auf das gesamte Umfeld des Mitarbeiters zu achten, das ja gerade bei unseren Kunden, wirklich sehr heterogen ist.

Die IT oder eine Innovationsabteilung verantworten die Projektumsetzung, binden aber nur selten die einzelnen Teams und Bereiche mit ihren spezifischen Arbeitsweisen und Tools ein, sondern betrachten den Digitalen Arbeitsplatz subjektiv aus ihren eigenen Perspektiven heraus. Viele datenbankgestützte Fachanwendungen wie beispielsweise ein Produktdatenmanagement- oder Qualitätssystem bleiben außen vor. Das sind aber Datenquellen, die zum Beispiel für eine Entwicklungsabteilung unerlässlich sind. Auch nutzen viele Mitarbeiter nach wie vor gerne die Dokumentenablage auf Fileservern.  Über intelligente Suche und Informationsvernetzung versuchen wir, über eine übergreifende Suche im Digitalen Arbeitsplatz den universellen Zugang zu allen relevanten Informationen sicherzustellen



KI-Verfahren müssen dem Menschen helfen,
Daten besser zu verstehen, zu verknüpfen oder zu augmentieren.


Ist das nicht der Fall, bleibt KI ein hohles Buzzword.

Manuel Brunner, erfahrener Projektmanager und
Search-Rockstar beim Enterprise Search-Spezialisten IntraFind

Ein digitaler Arbeitsplatz bedeutet für jedes Unternehmen etwas anderes. Allgemein jedoch kann man sicher die Vernetzung der Anwendungen hervorheben. Wie gehen Sie bspw. bei der Einführung Ihrer Enterprise Search vor?

Wir entwickeln gemeinsam mit dem Kunden User Stories, in denen sich die Arbeitsweise der Mitarbeiter widerspiegeln. Dieses Vorgehen hilft uns dabei zu analysieren, welches die am häufigsten genutzten Datenquellen sind. Zudem besprechen wir natürlich mit den Projektverantwortlichen, welches die strategisch am höchsten priorisierten Datenquellen sind. Daraus ergibt sich eine Matrix, mit welchen Datenquellen wir starten wollen.

Der Weg der kleinen Schritte ist immer der erfolgreiche. Projekte, die zu viel auf einmal wollen, scheitern oftmals, weil die Umsetzungsdauer dadurch zu lange wird. Standardquellen wie Fileshare, SharePoint, E-Mail-Gruppenpostfächer oder Confluence hingegen sind technisch in wenigen Tagen mit allen Rechten angebunden. So sehen die Projektbeteiligten und die Testnutzergruppen schnelle Erfolge und der Appetit auf mehr Enterprise Search wird noch größer.


Mit der Möglichkeit einer Recherche über Systemgrenzen, Werke und Kontinente hinweg wird unnötige Doppelarbeit im Unternehmen verhindert.

Manuel Brunner

Natürlich ist ein digitaler Arbeitsplatz auch ein Investitionsmoment. Kann die Investition überhaupt „gerechnet werden wie jede andere“?

Der Return of Investment (RoI) ist meist schon dann gegeben, wenn die in den Digitalen Arbeitsplatz integrierte Suche es geschafft hat, dass das Rad im Unternehmen nicht ständig neu erfunden wird. Mit der Möglichkeit einer Recherche über Systemgrenzen, Werke und Kontinente hinweg wird unnötige Doppelarbeit im Unternehmen verhindert. Oftmals rechnen wir auch die klassischen Zeitspannen, die ein Office Worker pro Tag mit sinnlosem Suchen nach Informationen verbringt. Wenn man die Kosten einer Suche auf Mitarbeiterkosten pro Tag umrechnet, erzeugt die Suche Kosten von wenigen Cent pro Tag, erhöht aber die Produktivität und die Zufriedenheit der Mitarbeiter dramatisch.

Der RoI greift sogar noch viel schneller, wenn intelligente Suche und Informationsaufbereitung – als Teil einer modernen Enterprise Search Lösung – zur konkreten Verbesserung von Prozessen integriert und genutzt wird.

Derzeit hält immer mehr „Intelligenz“ Einzug in die Anwendungen. So ist z.B. Natural Language Processing ein weiteres Schlagwort. Wie spielt dieses in Ihr Portfolio hinein?

Schön formulierte Frage. In der iFinder-Suche ist bereits seit der ersten Produktversion  Sprach-Intelligenz mit an Bord, weil wir schon immer auf einem linguistisch normalisierten Index aufbauen. Selbstverständlich ist das Verständnis der natürlichen Sprache auch bei uns ein großes und wichtiges Thema. Wir verstehen und interpretieren natürliche Sprache und wandeln diese um. Sprich, wir übersetzen die Sprache so, dass sie die Maschine bestmöglich verarbeiten kann. Wir machen das mit unterschiedlichen Verfahren, dabei aber immer für den Benutzer leicht verständlich in der Bedienung und natürlich auch einfach adaptierbar.

Zudem nutzen wir Verfahren der Künstlichen Intelligenz (KI), um zusammengehörende Informationen miteinander zu verknüpfen. Das alles wird in unserem linguistisch, semantisch aufbereiteten Index innerhalb des iFinders gespeichert und funktioniert so auch bei vielen Zehntausend gleichzeitigen Nutzern und Milliarden von Daten innerhalb weniger Millisekunden. Bei jedem Verfahren, das wir anwenden, haben wir diese Prämisse als Maßstab: Ein KI-Verfahren, das auf 5 Millionen Daten zu viel Last erzeugt, ist für uns nicht brauchbar. Ein KI-Verfahren, das eine Blackbox für den Anwender ist, ist in unseren Augen ebenso wenig sinnvoll. KI-Verfahren müssen dem Menschen helfen, Daten besser zu verstehen, zu verknüpfen oder zu augmentieren. Ist das nicht der Fall, bleibt KI ein hohles Buzzword.

Inwiefern ist NLP auch ein Baustein des „Arbeitsplatzes als Assistent“?

Tja, ein schwieriges Thema in der Tat, weil die Arbeitsweise innerhalb eines Unternehmens eben unglaublich heterogen ist. Wie oben bereits gesagt, sind unsere NLP-Verfahren sehr leicht adaptierbar. Die Frage nach dem Wetter ist überall gleich, die Frage nach Dokumentenarten oder dem richtigen Prozess hingegen kann sich schon im Büro nebenan völlig geändert haben.

Unser System ist natürlich mit einigen Fragetypen bei Auslieferung bestückt, kann zusätzlich dazu aber eben einfach angereichert werden. Zudem können Benutzer einzelne Treffer mit aus ihren Augen wichtigen Schlagworten versehen, die dann in Echtzeit mitindexiert werden und von allen Benutzern, die Rechte auf diese Dokumente haben, auch gefunden werden. In manchen Fällen hilft es auch, Antworten oder Zusatzinformationen in einem Knowledge Graph anzuzeigen oder anstatt einer Antwort eine weitere passende Frage zu geben. In jedem Fall ist NLP ein wichtiger Baustein, aber nicht die Antwort auf alle Fragen (die bleibt nach wie vor 42).

Wie trainieren Sie die entsprechenden Algorithmen?

NLP setzt unter anderem auf textbasierte KI-Verfahren, bei denen Machine-Learning-Verfahren wie Deep Learning zum Einsatz kommen, die wiederum in Supervised- und Unsupervised-Learning-Verfahren zu unterteilen sind.

Bei den Supervised-Learning-Verfahren wählt ein Benutzer oder ein Domänenexperte relevante Texte oder Textpassagen, die als Trainingsinput dienen und mit denen die Maschine dann lernt. Aus den gelernten Daten lässt sich dann automatisch das System weiter verfeinern. Die Systeme wie der iFinder für Enterprise Search oder der Contract Analyzer für die tiefe, automatische Dokumentenanalyse lernen, indem der Benutzer eine relevante Textstelle wie einen Datenpunkt, einen Absatz oder eine Klausel markiert. Damit wird das Training des Systems gestartet.

Anhand dieses ersten Trainingsinputs schlägt das System dem Benutzer dann auch weitere mögliche Textstellen vor, die er mit „korrekt oder inkorrekt“ bewertet und somit dem System weiteren Trainingsinput liefert. Oft stehen hier nur wenige Daten am Beginn einer Prozessverbesserung zur Verfügung, unsere Lernverfahren sind daher auch darauf optimiert, mit sogenannten „Small Data Input“ arbeiten zu können. Schon mit wenig Trainingsbeispielen sind wir im Bereich der produktiven Nutzung und müssen nicht Tausende oder gar Millionen von Trainingsmaterialien dem Lernverfahren zur Verfügung stellen. Das sind die besonderen Alleinstellungsmerkmale unserer Lernverfahren.

https://www.intrafind.de/

Aufmacherbild / Quelle / Lizenz
Bild von Yan Wong auf Pixabay

Smarte Tools trimmen Geschäftsprozesse auf Effizienz

Prozess-Optimierung ist ein Teamsport, der sich für Unternehmen auszahlt, denn ineffiziente Prozesse kosten Zeit und Geld.

Wie Recruiter zu Business-Verstehern werden