Sicherheit muss integraler Bestandteil der Smart City sein

Smart-City-Konzepte versprechen Kosteneinsparungen, Effizienzverbesserungen und Serviceoptimierungen für den Bürger. Sie erfordern aber auch eine stärkere Vernetzung und höheren IT-Einsatz und damit steigen die Cybergefahren. Ohne entsprechende Sicherheitsmaßnehmen wird eine breite Akzeptanz in der Bevölkerung für Smart-City-Initiativen reine Fiktion bleiben.

Viele Städte befassen sich mit der Idee einer vernetzten intelligenten Stadt. Die Smart City ist eines der Trendthemen schlechthin. Voraussetzung ist eine umfassende digitale Vernetzung, die unterschiedlichste Bereiche umfasst: von der Verkehrsinfrastruktur und -steuerung über die Energieversorgung bis zur Gesundheitsversorgung.

Gegenwärtig ist die erste echte Smart City aber noch reine Zukunftsvision. Es existiert noch nicht einmal eine einheitliche Definition des Begriffs. Die Installation einiger mit dem Internet verbundener Straßenlaternen oder eines intelligenten Verkehrsmanagementsystems macht eine Stadt nicht intelligent. Aber es ist zumindest ein Anfang. Silolösungen sind nicht ausreichend, nur eine umfassende Vernetzung kann den Weg zur Smart City ebnen.

Allerdings besteht eine zentrale Herausforderung: die Cybersicherheit. Je digitaler die zugrundeliegende technologische Infrastruktur ist, desto mehr Angriffsflächen gibt es für Cyberattacken, Spionage und Sabotage.

Die Angriffsflächen werden vor allem deshalb größer, weil die Smart City maßgeblich auf IoT (Internet of Things)- und OT (Operational Technology)-Systemen basiert. Und sie weisen Schwachstellen auf, die Hackern zahlreiche Angriffswege eröffnen. Unter Sicherheitsaspekten ist vor allem problematisch, dass die Geräte eine hohe Heterogenität aufweisen, auf Ethernet- und alten Bus- und Kommunikationsprotokollen unterschiedlichster Anbieter basieren und eine relativ lange Lebensdauer besitzen können. Dies macht Sicherheitsupdates zu einer großen Herausforderung, falls Hersteller überhaupt Patches zur Verfügung stellen. Viele Geräte und Protokolle sind nämlich ausschließlich im Hinblick auf Funktionalität und nicht auf Sicherheit entwickelt worden; damit existieren auch keine Patch-Management-Prozesse für die Beseitigung von Sicherheitsschwachstellen. Für Hacker sind die nicht verwalteten IoT-Komponenten mit alten, ungesicherten Firmware-Versionen ein relativ einfaches Ziel. Und die Herausforderungen aus Security-Sicht werden immer größer, da die Zahl von IoT-Endpunkten und -Sensoren kontinuierlich steigt. Der Marktforscher Gartner prognostiziert für 2021 eine installierte Gesamtzahl von 25 Milliarden.

„Für den Erfolg von smarten Konzepten ist die Akzeptanz der Bevölkerung von ausschlaggebender Bedeutung.
Und fehlende Sicherheit ist dabei ein K.-o.-Kriterium.“

Kai Grunwitz

Die Sicherheitsrisiken sind deutlich größer als vielfach dargestellt: Es geht dabei keineswegs nur um einen potenziellen Datenverlust, sondern vor allem auch um eine Gefährdung der öffentlichen Sicherheit. Angriffe auf Verkehrsleitsysteme könnten zu Verkehrsstaus oder sogar zu Unfällen führen; Angriffe auf die Kommunikationssysteme der Rettungsdienste könnten ihre Reaktionsfähigkeit bei schweren Vorfällen beeinträchtigen; Manipulationen an Videoüberwachungssystemen könnten es Kriminellen ermöglichen, ungestört zu handeln.

Die größte Sicherheitsgefahr geht prinzipiell von Angriffen auf Kritische Infrastrukturen wie Energieversorgung, Informationstechnik und Telekommunikation, Transport und Verkehr, Gesundheit, Wasser oder Ernährung aus. Energieversorger beispielsweise verfügenzwar über jahrelange Erfahrung bei der Wiederherstellung von Netzen nach Anlagenausfällen. Ganz anders sieht es allerdings bei der Bedrohung durch Cyberkriminelle aus. Dabei können Angriffe auf industrielle Steuerungssysteme wie SCADA (Supervisory Control and Data Acquisition), aber auch Malware-Infektionen über erweiterte Angriffsflächen wie Smart Gridszu Stromausfällen beziehungsweise Beeinträchtigungen der Betriebsfähigkeit führen. Der langwierige Ausfall eines Stromnetzes würde das öffentliche Leben komplett lahmlegen. Energieversorger müssen deshalb nicht nur die technische IT-Sicherheit verbessern, genauso wichtig ist es, die Risiken zu analysieren sowie Audits und Penetrationstests durchzuführen.

Doch welche Maßnahmen sind angesichts dieses Sicherheitsdilemmas zu ergreifen, damit das Internet of Things nicht zu einem Internet of Threats wird und damit auch die Smart City angreifbar macht? Folgende Maßnahmen sind unverzichtbar:

  • Bestandsaufnahme aller IoT- und OT-Umgebungen und -Geräte
  • Durchführung von Security-Risk-Assessments für alle Smart-City-Kernkomponenten wie Smart-Grid- oder Wasserversorgungs-Systeme anhand von Verordnungen und Richtlinien wie ISO/IEC 27005, ISA/IEC 62443, NIST 800-53v4 oder DSGVO
  • Konzeption und Anwendung von Sicherheitsrichtlinien für Smart-City-Umgebungen
  • Sicherung der Kommunikation zwischen IoT- und OT-Geräten
  • Sicherung und Überwachung der Wartungszugriffe
  • Durchführung regelmäßiger Penetrationstests.

Letztlich werden alle Kommunen den Weg der Smart City gehen müssen, allein schon, um Ressourcen besser zu verwalten und Bürgerservices zu optimieren. Aber entscheidend wird dabei immer sein, dass die Sicherheit nicht zu kurz kommt. Für den Erfolg von smarten Konzepten ist die Akzeptanz der Bevölkerung von ausschlaggebender Bedeutung. Und fehlende Sicherheit ist dabei ein K.-o.-Kriterium.

 


Über den Autor:
* Kai Grunwitz ist Geschäftsführer der NTT Ltd. in Deutschland

Paid Advertising – Mit Automatisierung zum Erfolg

Im Paid Advertising gibt es eine Vielzahl an Möglichkeiten. Aber vor allem bei Large Scale-Projekten stoßen Unternehmen und Marketers schnell an die Grenzen des Machbaren. Deshalb gibt es verschiedene Automatisierungsmöglichkeiten.

Vor der Automatisierung: Kampagne richtig planen

Zu Beginn jeder Kampagne im Paid Advertising steht jedoch die Planung. An erster Stelle kommt immer die Zieldefinition, denn darauf bauen Strategie und Handlungen auf. Das Hauptziel der meisten Unternehmen ist die Umsatzgenerierung. Allerdings sind für eine Kampagne mehrere Zielsetzungen nötig, die unterschiedliche Gewichtungen haben. Diese unterteilen sich in Mikro- und Makro-Conversions.

Ziele von Paid Advertising-Kampagnen

Makro-Conversions werden eine höhere Bedeutung zugewiesen, denn sie dienen direkt dem finalen Ziel. Dagegen sind Mikro-Conversions kleinere Aktionen, die eine gewisse Interaktion mit der Website aufzeigen. Dazu zählen zum Beispiel PDF-Downloads, Newsletter-Anmeldungen oder die Scrolltiefe. Diese Ziele sind an feste Zahlen gebunden, da sie messbar sind im Gegenteil zu anderen Zielen. Dazu gehört beispielsweise die Stärkung der Marke.

Zur Kampagnenplanung gehört aber auch, sich Gedanken über das Budget zu machen. Es ist abhängig von den Zielen, der Anzahl der Kanäle und Kampagnen, aber auch von den Klickpreisen für die Keywords. Ein weiterer Planungsfaktor ist der Zeitrahmen für die Kampagne. Einige Ziele lassen sich eher kurzfristig erreichen, wie die Erhöhung der Klicks, andere müssen auf lange Frist geplant werden. Zu Letzterem zählt unter anderem die generelle Steigerung der Sichtbarkeit. Außerdem ist wichtig, dass das Unternehmen klar bestimmt, welche Zielgruppe es mit der Kampagne erreichen möchte. Dabei spielen zum Beispiel Alter, Geschlecht und Interessen eine Rolle. Die Zielgruppen geben Aufschluss darüber, welche Kanäle gewählt werden sollen. Der letzte Schritt ist die Strategieplanung. Dazu stellen Unternehmen sich folgende Fragen:

  • Wie sollen neue Produkte vermarktet werden?
  • Welche Aktionen sollen geplant werden?
  • Welche Kanäle sollen verwendet werden?
  • Wie verhält sich die Koordination zwischen verschiedenen Abteilungen?
  • Welche Online- und Offline-Maßnahmen sollen durchgeführt werden und wie sollen diese untereinander verknüpft werden?

Large Scale-Projekte mit Automatisierung stemmen

Automatisierung kommt Unternehmen zu Gute, die umfangreiche Kampagnen in verschiedenen Kanälen schalten. Funktionen können automatisiert und Daten verknüpft werden. Dadurch können Marketers Aufgaben schneller erledigen oder Funktionen nutzen, die händisch zu aufwendig wären.

„Wer nicht automatisiert, wird im Preiskampf mit dem Wettbewerb verlieren“

Florian Zink, Head of Paid Advertising der eology GmbH

Geschäftsdatenfeed

Beim Datenfeed überträgt ein Server automatisiert strukturierte Informationen an einen Client. Um welche Informationen es sich handelt, ist abhängig von den Spezifikationen und dem Vertriebspartner. Ein Geschäftsdatenfeed ist eine Tabelle mit Basis-Informationen zu Produkten oder Dienstleistungen. In Google Ads ist es möglich, mehrere Datenfeeds zur Steigerung der Kampagnenperformance zu verwenden. Dies ist hilfreich, um etwa Gebote anzupassen oder Anzeigen zu pausieren, wenn die Verfügbarkeit unter einen bestimmten Grenzwert fällt. Hierfür ist jedoch die Erstellung von zusätzlichen Regeln nötig. Weiterhin aktualisiert das System Textparameter in Anzeigen automatisch, damit der Anzeigentext immer die aktuellen Preise aus dem Feed enthält.

Beispielhafte Übersicht aktivierter Geschäftsdatenfeeds, Quelle: Google Ads

Skripte

In Google Ads helfen Skripte bei der Automatisierung. Mittels JavaScript können Marketer Anzeigengruppen pausieren, Gebote ändern, und Keywords hinzufügen. Das spart Zeit und vereinfacht die Verwaltung großer Konten, setzt aber Skriptkenntnisse voraus. Folgende Möglichkeiten gibt es:

  • Vornehmen von Änderungen mithilfe externer Datenquellen
    (z. B. Gebotsänderungen anhand externer Conversion-Daten, Pausieren/Aktivieren von Keywords anhand externer Inventardaten)
  • Abrufen von Kampagnendaten und -statistiken
    (z. B. in Tabellenform, im grafisch im Zeitverlauf, zum Erstellen von Berichten)
  • Ausführen von Aktionen für mehrere Konto-Elemente
    (z. B. Pausieren eines Keywords und gleichzeitige Budgeterhöhung, wenn ein Keyword die gesamten Tagesausgaben aufbraucht)
  • Vornehmen von Änderungen für alle Konto-Elemente
    (z. B. Erhöhung der CPC-Gebote um 30 % für alle Keywords, die mehr als 1.000 Impressionen in der Woche erzielt haben)
  • Bearbeiten aller Unterkonten eines Verwaltungskontos
    (z. B. zur Gebot-Optimierung, Berichterstellung für mehrere Konten, Problemermittlung)

Aber Vorsicht: Änderungen durch Skripte können nicht mehr rückgängig gemacht werden!

APIs

APIs dienen dem Austausch sowie der Weiterverarbeitung von Daten und Inhalten zwischen verschiedenen Webseiten, Programmen und Content-Anbietern. Darüber hinaus ermöglichen sie Dritten den Zugang zu vorher verschlossenen Datenpools und Benutzerkreisen. Die Google Ads API ist vor allem für Unternehmen mit großen Kampagnen und vielen Konten interessant, um sie effizient zu verwalten. Allerdings sind für die Implementierung Programmierkenntnisse sowie technisches Know-how nötig. Zu den Funktionen zählen:

  • Erstellen automatischer Anzeigentexte, Keywords, benutzerdefinierter Berichte und Zielseiten
  • Verwaltung von Kampagnen basierend auf Lagerbeständen durch die Integration von Google Ads-Daten im Inventursystem
  • Entwickeln zusätzlicher Tools und Anwendungen zur Kontoverwaltung

Neben der API von Google Ads lohnt es sich auch, einen Blick auf die API von SAP-Hybris Marketing und Salesforce zu werfen.

Hier ein Anwendungsfall zum Thema Automatisierung: Ein Schuhhändler spielt bei Sonnenschein Anzeigen für Sandalen aus, bei Regenwetter hingegen für Stiefeletten. Dies funktioniert mit einem Google Ads-Konto, einem Google Sheet und dem API-Key von OpenWeatherMap.
Mehr dazu erfahren Interessierte im Whitepaper „Paid Advertising – Dein Guide für performancestarke Kampagnen“.

Nach der Automatisierung: Kontinuierliches Reporting

Ein wichtiger Bestandteil erfolgreicher Paid Advertising-Kampagnen ist das Reporting, also die Auswertung der gesammelten Daten. Dieses Reporting findet idealerweise monatlich statt. Die Kunst ist, dass es kurz ausfällt und einen guten Gesamtüberblick verschafft. Dabei stellen folgende KPIs die wichtigsten Merkmale einer Kampagne dar:

  • Klicks und Impressionen
  • Cost-Per-Click
  • Click-Through-Rate
  • Conversionrate
  • Kosten
  • Kosten-Umsatz-Verhältnis
  • Sitzungsdauer

Die KPIs im Reporting sind davon abhängig, welche Ziele das Unternehmen mit der Kampagne erreichen will. Diese hat es im ersten Schritt der Kampagnenplanung festgelegt. Das Reporting hilft dabei, immer weiter Verbesserungen vorzunehmen, um zum bestmöglichen Ergebnis zu gelangen.


Über die Autorin

Ann-Kathrin Grottke hat ihr Medienmanagementstudium mit dem Bachelor abgeschlossen und ist Teil des eology-Marketing-Teams. Sie kümmert sich um die Verbreitung des gesammelten eology-Wissens, indem sie ihr Know-how in Magazinen, Blogs und Zeitschriften teilt.

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Vereinbarkeit: Strategisch angelegt eine Wunderwaffe

Es folgt ein Gastbeitrag von Oliver Schmitz, Geschäftsführer der berufundfamilie Service GmbH

Denken Sie bitte mal 20 Jahre zurück. Was fällt Ihnen da zum Thema Vereinbarkeit von Beruf und Familie ein? Junge Eltern und das Thema Kinderbetreuung? Und wenn Sie heute an Vereinbarkeit denken – kommt Ihnen dann auch nur die angestrebte Verbesserung der Balance zwischen Berufstätigkeit und Kinderversorgung in den Sinn? Wenn ja, haben Sie wesentliche Entwicklungen nicht mit bekommen.

Autor Oliver Schmitz ist Geschäftsführer der berufundfamilie Service GmbH – ThinkTank und Dienstleister im gleichnamigen Themenfeld (Bildquelle / Lizenz: berufundfamilie Service GmbH)

Denn Vereinbarkeit bedeutet heute, die gesamte Vielfalt der Beschäftigten und ihrer Bedarfe zu betrachten und letztendlich lösungsorientiert damit umzugehen. Vielfalt und Vereinbarkeit – das geht weit über das klassische Verständnis von Diversity Management hinaus. Es umfasst Genderfragen und Generationenmanagement genauso wie die Auseinandersetzung mit Inklusion und Herkunft. Aber mehr noch: In unserem Verständnis von Vielfalt werden diese Aspekte mit denen für die Vereinbarkeit entscheidenden Parameter Lebensphasen, Lebensumstände und Lebensentwürfe der Beschäftigten kombiniert. Es geht also auch um Themen wie Vereinbarkeit von Beruf und Pflege und die Flexibilisierung des Übergangs vom Erwerbsleben in den Ruhestand oder auch den Umgang mit Fernbeziehungen oder die Unterstützung von Freunden sowie die Ausübung eines Ehrenamts. Deshalb muss es heute auch Vereinbarkeit von Beruf, Familie und Privatleben heißen.

Individuelle Vereinbarkeitswünsche – der Schrecken aller Führungskräfte?

Mit dieser Entwicklung sind allerdings die Herausforderungen für Führungskräfte enorm gewachsen. Ein Mitarbeiter bittet seinen Vorgesetzten um eine stärkere Flexibilisierung der Home-Office-Zeiten. Eine Beschäftigte sucht nach Möglichkeiten, um ihre Arbeitszeit mit den KITA-Öffnungszeiten vereinbaren zu können, während bei einem Kollegen ein plötzlicher Pflegefall in seiner Familie eingetreten ist. Wie sollen Führungskräfte den individuellen Vereinbarkeitswünschen nachkommen und wie schafft man Ausgleich für eine mögliche Mehrbelastung anderer Teammitglieder ohne die betrieblichen Anforderungen und Ziele zu verletzen? Und ist es überhaupt notwendig auf die individuellen Vereinbarkeitswünsche von Beschäftigten einzugehen?

Die letzte Frage lässt sich eindeutig mit einem Ja beantworten. Vereinbarkeit ist heute ein Entscheidungskriterium für Erwerbstätige hinsichtlich der Wahl eines Arbeitgebers. Eine aktuelle, vom Meinungsforschungsunternehmen Civey durchgeführte repräsentative Umfrage unter 2.500 Erwerbstätigen zeigt: Fast acht von zehn Beschäftigten (76,3 %) ist die Vereinbarkeit von Beruf, Familie und Privatleben bei der Wahl eines Arbeitgebers wichtig. Lediglich bei 6,3 % der Beschäftigten fällt die Vereinbarkeit bei der Arbeitgeberwahl gar nicht ins Gewicht. Und am besten, das Engagement des Arbeitgebers für die Vereinbarkeit findet Bestätigung in einem spezifizierten Zertifikat. Jede/ jeder zweite Beschäftigte (52 %) hält einen Arbeitgeber für attraktiver, wenn dieser für die Vereinbarkeit von Beruf, Familie und Privatleben unabhängig zertifiziert ist.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Die Zahlen zeigen deutlich, wie wichtig eine gute Vereinbarkeit für die Gewinnung von Beschäftigten ist. Aber auch die Fähigkeit, Beschäftigte zu binden, steht und fällt häufig mit dem Thema Vereinbarkeit. Mehr als sechs von zehn Beschäftigten (64,4 %) geben an, dass eine schlechte Vereinbarkeit ein Grund wäre den Job zu wechseln.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Beschäftigte und Arbeitgebervertreter*innen setzen auf kontinuierliche Verbesserung der Vereinbarkeitspolitik

Hinzukommt: Beschäftigte erwarten, dass sich ihr Arbeitgeber hinsichtlich seiner Vereinbarkeitspolitik systematisch und strategisch beraten lässt, um sich weiterzuentwickeln. Zum Gelingen kann eine fachlich kompetente Begleitung beitragen, die nahezu vier von zehn Beschäftigten (37 %) mit Blick auf den Anbieter, der die Vereinbarkeit von Beruf, Familie und Privatleben zertifiziert, als wichtig erachten. 31,6 % der Beschäftigten schätzen das Zertifikat als Nachweis kontinuierlicher Verbesserung der familien- und lebensphasenbewussten Personalpolitik.

Und auch bei den Personaler*innen stehen diese Kriterien hoch im Kurs: Knapp die Hälfte (48,7 %) der HR-Manager*innen findet es wichtig, dass sich der Anbieter durch fachliche Kompetenz in der Begleitung auszeichnet. Bei den Entscheider*innen sind es 38 %.

Bei der Zertifizierung selbst steht bei den Fachkräften im Personalwesen eindeutig der Nachweis kontinulierlicher Verbesserungen bei einer Zeitifizierung für die Vereinbarkeit von Beruf, Familie und Privatleben im Fokus: 44,4 % sehen dieses Kriterium als wichtig an. Und auch jedem dritten Entscheider (28,4 %) ist dieses Kriterium wichtig.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Aushandlungsprozesse sind entscheidend – und zugleich Element und Ergebnis systematischer Vereinbarkeitspolitik

Bildquelle / Lizenz: berufundfamilie Service GmbH

Diese Ergebnisse machen den Bedarf an systematischer Organisationsentwicklung im Rahmen der familien- und lebensphasenbewussten Personalpolitik deutlich. Organisationsentwicklung vorantreiben, dass bedeutet eben auch Lösungen für die mit der wachsenden Individualisierung einhergehenden Herausforderungen in der Personalpolitik zu finden. Mit einer strategisch gestalteten familien- und lebensphasenbewusste Personalpolitik erarbeiten sich Arbeitgeber Wege und Instrumente zur erfolgreichen Aushandlung von Vereinbarkeitsthemen – die Tätigkeit des Beschäftigten und die betrieblichen Erfordernisse im Blick, auf die Belange des Beschäftigten zugeschnitten und auf die Bedarfe des Teams abgestimmt. Aushandlungsprozesse sind dabei der Schlüssel zu einer zukunftsorientierten Personalpolitik – und eines der wichtigsten Elemente der Personalsteuerung bzw. -entwicklung für Führungskräfte. Hier sind gezielte Vorbereitung von Gesprächen, Analyse von Anliegen, Lösungsfindung sowie Reflexion von Lösungsgesprächen und -prozessen essenziell – und all das vor dem Hintergrund relevanter organisationsspezifischer Rahmenbedingungen wie z.B. Dienstvereinbarungen, die bei der Ausgestaltung von Maßnahmen zur Vereinbarkeit zu berücksichtigen sind.

Kurzum: Es braucht einen geplanten und dirigierten Trialog zwischen den Interessensgruppen, mit dem tragfähige Vereinbarkeitslösungen gefunden werden können. Ein gelingender Vereinbarkeits-Trialog ist wiederum das Ergebnis einer systematischen Auseinandersetzung mit der Vereinbarkeit. Also keine Scheu vor systematischer familien- und lebensphasenbewusster Personalpolitik. Für sie sprechen massig Argumente.

Über den Autor:

Oliver Schmitz ist Geschäftsführer der berufundfamilie Service GmbH – ThinkTank und Dienstleister im gleichnamigen Themenfeld, der auf eine Initiative der Gemeinnützigen Hertie-Stiftung zurückgeht. Seit 2007 war Oliver Schmitz autorisierter Auditor für das audit berufundfamilie und das audit familiengerechte hochschule. In dieser Funktion begleitete er zahlreiche Unternehmen und Institutionen mit dem audit. Zuvor war er Geschäftsführer eines international tätigen Beratungsunternehmens und wurde dafür unter anderem durch Erfolgsfaktor Familie ausgezeichnet und ließ sein eigenes Unternehmen nach dem audit berufundfamilie zertifizieren. Oliver Schmitz ist zudem Dozent an der Evangelischen Hochschule Freiburg für Arbeitsorganisation und Arbeitsbewältigung und hatte verschiedene Lehraufträge u.a. an der Dualen Hochschule Baden-Württemberg Lörrach für Demografieorientiertes Personalmanagement.

Weitere Informationen unter: www.berufundfamilie.de

6 Tipps für den Online-Handel der Zukunft

Was müssen Online-Händler in Zukunft beachten, um erfolgreich zu verkaufen?

FNG-Siegel mit Rekordwachstum

Mit Rekordwachstum geht das FNG-Siegel, der Qualitätsstandard Nachhaltiger Geldanlagen, in sein fünftes Jahr. Anlässlich der diesjährigen Vergabefeier auf dem historischen Römerberg in Frankfurt wurden 104 Fonds mit dem begehrten Gütesiegel ausgezeichnet. Beworben hatten sich 105 Fonds, was einer Steigerung von 60% zum Vorjahr entspricht. Damit hat sich das Wachstumstempo nach 25% und 40% in den letzten beiden Jahren nochmals beschleunigt. Die Zahl der sich bewerbenden Fondshäuser stieg von 30 auf 47. Die ausgezeichneten Fonds verwalten ein Vermögen von rund EUR 30 Mrd. Das FNG-Siegel ist etabliert.

Einen großen Sprung machte das Wachstum der sich zum ersten Mal bewerbenden Fonds. Produkte von gleich 19 Asset Managern gingen erstmals um das begehrte Gütezeichen ins Rennen. Nachdem Deutschland im letzten Jahr aus seinem Dornröschenschlaf erwachte, hat es die österreichischen Fonds zahlenmäßig knapp überholt. Der größte relative Zuwachs kam jedoch von Ländern außerhalb des deutschsprachigen Raums: Frankreich zog mit der Schweiz gleich, indem sich auf Anhieb 11 Fonds von sechs französischen Fondsgesellschaften bewarben. Die europäische Dimension des FNG-Siegels wird durch die Tatsache belegt, dass Fonds aus 12 Ländern mit dem SRI-Qualitätsstandard ausgezeichnet wurden. Dies geht mit den Bemühungen auf EU-Ebene einher, welche die Stärkung von Standards innerhalb des Aktionsplans zur Finanzierung nachhaltigen Wachstums offiziell vorsieht. Insbesondere vor dem Hintergrund der anstehenden Beratungsverpflichtung zu Nachhaltigen Geldanlagen, die in MiFID-II und IDD vorgesehen ist, steigt schon jetzt die Nachfrage nach soliden, professionell verwalteten Nachhaltigkeitsfonds. Das FNG-Siegel bietet hier eine gute Orientierung.

Roland Kölsch, QNG-Geschäftsführer und verantwortlich für das FNG-Siegel: „2019 ist das Jahr der Etablierung unseres SRI-Labels. Gerade auf der Vertriebsseite zeigt sich, dass Erkennbarkeit für seriöse Nachhaltige Geldanlagen immer wichtiger wird. Unsere externe Due-Diligence hilft Fondsselektoren, Maklerverbünden, Banken und Versicherungen, nicht auf Mogelpackungen reinzufallen, sondern qualitativ hochwertige Finanzprodukte anzubieten. Auch große Fondsplattformen und wichtige Finanzportale nutzen das FNG-Siegel – teils exklusiv. Nun gilt es, diese Sichtbarkeit zu nutzen, um weiter aufzuklären und um Anlegern den Einstieg in die Komplexität Nachhaltiger Geldanlagen mittels eines einfachen Gütezeichens zu vereinfachen.“

Prof. Timo Busch, Universität Hamburg und verantwortlich für das Audit: „Wir freuen uns, im Rahmen der anspruchsvollen Prüfung und Bewertung den Sparring-Gedanken fortgesetzt zu haben. Erneute Bewerber haben im Vergleich zu den Vorjahren viele Fortschritte gemacht. Erstbewerber schätzen die umfassenden Rückmeldungen, die als Grundlage für weitere Verbesserungen im Research, Investmentprozess und Reporting genutzt werden. Ein großer Erfolg war, dass nicht wenige Fonds bereits während des Audits einzelne Titel aus dem Portfolio verkauft oder Erkenntnisse gewonnen haben, die in interne Projekte einfließen, um die Nachhaltigkeitsqualität der zertifizierten Fonds weiter zu verbessern.“

Volker Weber, FNG-Vorstandsvorsitzender: „Unsere Pionier-Arbeit in Sachen Standardisierung trägt Früchte. Der Fachverband Forum Nachhaltige Geldanlagen wird seinem Auftrag gerecht, für Transparenz, Orientierung und Standards bei nachhaltigen Finanzprodukten zu sorgen. Damit machen wir all denjenigen Fondsgesellschaften und Kapitalanlegern ein Angebot, die es ernst meinen mit der Nachhaltigkeit und dem Greenwashing einen Riegel vorschieben wollen.“

Weitere Informationen unter:
www.forum-ng.org

Lizenz:
Dies ist eine Pressemitteilung von Forum Nachhaltige Geldanlagen

Geschicktes Datenportfoliomanagement

Wie Sie Ihren Unternehmenserfolg durch geschicktes Datenportfoliomanagement steigern!

Haben Sie einen Überblick darüber, welche Daten in Ihrem Unternehmen existieren?

Kennen Sie die typischen Herausforderungen, die unterschiedliche Datenarten an Ihre Organisation stellen?

Wissen Sie, wie Sie diese gekonnt meistern, um den maximalen Nutzen aus Ihren Daten zu generieren?

Im nachfolgenden Beitrag stellen wir Ihnen die verschiedenen Datenarten vor und zeigen auf, wie Sie das Potenzial dieser Daten optimal nutzen.

Kundendaten

Der Kunde ist König – das gilt auch für seine Daten. Enge Kundenbeziehungen und der korrekte Umgang mit Kundendaten sind in Zeiten der DSGVO besonders wichtig. Achten Sie deshalb auf transparente Erhebungsverfahren, eine auditfähige Dokumentation und eine hohe Datenqualität in Ihren CRM-Systemen. Je besser die Qualität Ihrer Kundendaten, desto effektiver können Sie Ihre Marketingkampagnen ausspielen.

Lesen Sie Ihren Kunden ihre Wünsche von den Lippen ab, ermöglichen Sie eine korrekte persönliche Ansprache, denken Sie an Ihre Kunden zum Geburtstag und unterstützen Sie sie bei Problemen mit einer zügigen einfachen Lösung. Darüber hinaus sind gut gepflegte Kundendaten die Basis für Ihre Kundenanalyse und Kundenwertberechnung.

Typische Herausforderungen in Bezug auf Kundendaten:

  • Syntaktisch uneinheitliche Daten
  • Fehlende Kontakt- oder Adressdaten
  • Fehlender Abgleich zwischen Kundenmanagement- und Abrechnungssystem
  • Eliminierung von Dubletten
  • Plausibilitätsprüfung und Validierung von Daten

Lösungsansätze für die Optimierung der Datenqualität bei Kundendaten:

  • Prüfung der Kundendatenqualität bei der Eingabe
  • Anreicherung von Datenbeständen
  • Zugriff auf Open Data zur Gewinnung neuer Informationen
  • Validierung von Adressdaten
  • Einsatz von Software-Tools zur Ermittlung eines einheitlichen Kundendatenstammes (Golden Records)

Lieferantendaten

Vor allem E-Commerce-Händler – egal ob groß oder klein – stehen vor dem gleichen Problem. Um ihre Shops mit Produkten zu füllen, müssen sie große Datenmengen aus vielen verschiedenen Quellen verarbeiten. Insbesondere die Bereitstellung und Aktualisierung von Produktdaten ihrer Lieferanten führt zu hohem Aufwand in der Aufbereitung der Daten. Häufig steht ein ganzes Team von Kategoriemanagern bereit, die die Daten manuell überprüfen und korrigieren, um sie an ihre Ziel-ERP-, Shop- oder PIM-Systeme weiterzuleiten.

So geben Unternehmen ihr Bestes, um den hohen Erwartungen ihrer Kunden gerecht zu werden: eine reibungslose Nutzererfahrung (z. B. perfekte Suchergebnisse) und Kaufabwicklung (korrekter Versand) – beides abhängig von maximaler Datenqualität.

Typische Herausforderungen in Bezug auf Lieferantendaten:

  • Vielzahl an Lieferanten und Logistikpartnern mit unterschiedlichen Datenformaten, -strukturen und Schnittstellen
  • Uneinheitliche Informationsqualität aufgrund fehlender Standards
  • Aufwendige Datenübernahme und Integrationen in das Warenwirtschaftssystem
  • Manuelle Bereinigung der Daten
  • Hohe Ansprüche an Datenqualität durch den Kunden: Aktualität & Korrektheit

Lösungsansätze für die Optimierung der Datenqualität bei Lieferantendaten:

  • Schaffung einer einheitlichen Referenzdatenstruktur
  • Regelbasierte Textgenerierung
  • Definition von Quality Gates 
  • Schaffung von Schnittstellen zu Standard-Systemen
  • Einsatz von Software-Tools zur automatisierten Datenübernahme und Datenqualitätsprüfung

Produkt- und Materialdaten

Die Effizienz des Supply Chain Managements steht und fällt mit dem Güter- und Informationsfluss. Nur verlässliche Produkt- und Materialdaten können eine reibungslose Lieferkette sowie ein valides und performantes Reporting garantieren. Hingegen lassen uneindeutige Daten wie bspw. Dubletten einen falschen Lagerbestand entstehen und verfälschen Inventurergebnisse. Außerdem verhindern sie die Nutzung von Einsparpotenzial aus größeren Beschaffungsmengen im Einkauf, erzeugen Kapitalbindung sowie erhöhte Prozesskosten.

Typische Herausforderungen in Bezug auf Produkt- und Materialdaten:

  • Falsche Dispositionsparameter: Losgrößen, Meldebestände, Rabatte, Mengen
  • Fehlerhafte Sicherheitsbestände und Wiederbeschaffungszeiten
  • Dubletten (uneindeutige Daten)
  • Dummys
  • Artikelgruppenzuordnung
  • Klassifizierungsprobleme
  • Werteprüfungen
  • Zuständigkeiten in der Dateneingabe und -pflege

Lösungsansätze für die Optimierung der Datenqualität bei Produkt- und Materialdaten:

  • Schaffung einer einheitlichen Referenzdatenstruktur
  • Schaffung eines abteilungs- oder unternehmensweiten Regelwerkes zur Prüfung der Daten
  • Einbindung der DQ-Kontrolle in existierende Genehmigungsworkflows
  • Zuweisen von Aufgaben zur Bereinigung der Daten an Fachabteilungen (z. B. Lager)
  • Einsatz von Software-Tools zur Markierung von Dummys und zur Ermittlung eines einheitlichen Materialstammes (Golden Records)

Technisch-infrastrukturelle Daten

Eine organisationsweite Übersicht vorhandener technisch-infrastruktureller Daten ist der Ausgangspunkt für ein serviceorientiertes IT-, Facility- und Organisationsmanagement. Technisch-infrastrukturelle Daten fassen Datenbestände aus den Bereichen Instandhaltung, dem Gebäudemanagement aber auch der Informationstechnologie zusammen. Hierzu zählen u.a. Gebäudepläne, Raumdaten, Verkabelungspläne, Lagerkapazitätspläne oder Anlagen- und Infrastrukturausstattungen von Gebäuden. Die Optimierung der Datenqualität resultiert in einer vereinfachten Rechnungsprüfung und Weiterverrechnung. Außerdem schafft sie die Basis für Kostencontrolling und Nachlizenzierung.

Typische Herausforderungen in Bezug auf technisch-infrastrukturelle Daten:

  • Fehlende Übersicht – „Wildwuchs“ an Excel-Listen
  • Aktualität der Datengrundlage fraglich (Daten schnell veraltet)
  • Vielzahl von automatisiert generierten Daten, insbesondere bei maschinellen Daten
  • Häufig numerische Erfassung ohne klare Struktur und Semantik
  • Redundante Daten in unterschiedlichsten Formaten

Lösungsansätze für die Optimierung der Datenqualität bei technisch-infrastrukturellen Daten:

  • Abbildung eines Referenzdatenmodelles als Grundlage
  • Schaffung eines einheitlichen Verzeichnisses über sämtliche Datenquellen hinweg (auch Excel)
  • Indizierte Volltextsuche über alle Daten
  • Zugriffs- und Werteregeln für Daten, die von Mitarbeitern gepflegt werden
  • Anbindung von SCCM- und DMS-Systemen
  • Anbindung an Active Directory und Nameserver (z. B. LDAP)
  • Technische Unterstützung bei der Datenkonsolidierung durch Workflowprozesse und Einbindung von Mitarbeitern

Geodaten

Der Schlüssel zu einer effektive Logistik- und Ressourcenplanung sind konsistente Geodaten. Als Daten mit einem direkten oder indirekten Bezug zu einem bestimmten Standort oder geografischen Gebiet dienen sie der korrekten Ortung. Sie beschreiben somit ein Objekt, entweder direkt (durch Koordinaten) oder indirekt (z.B. durch PLZ), einer Landschaft oder durch seine Position im Raum. Geodaten lassen sich über ihren Raumbezug untereinander verknüpfen, um detaillierte Abfragen und Analysen erstellen zu können. Ihr Nutzen liegt in der exakten Routenplanung und der Vermeidung von Umwegen. Zusätzlich können Sie zur Visualisierung von Primärdaten (Kunden- oder Materialdaten) eingesetzt werden.

Typische Herausforderungen für Geodaten:

  • Fehlerhafte Geobasisdaten wie Koordinaten (X/Y-Werte)
  • Fehlerhafte Zuordnungen von Geobasisdaten zu Attributen/Metabeschreibungen (z. B. POI)
  • Fehlerhafte Metadatenbeschreibungen (Verwendung eines Grundstückes)
  • Konzeptuelle-, Format-, Werte-, Topologische- Geometrische Konsistenz
  • Positionsgenauigkeit (innere + äußere) und Rasterdatengenauigkeit
  • Zeitliche Korrektheit
  • Klassifikation von Geodaten

Lösungsansätze für die Optimierung der Datenqualität bei technisch-infrastrukturellen Daten:

  • Integration des Geo-Informationssystems (GIS)
  • Berücksichtigung der Mehrdimensionalität der Daten 2D / 2,5D / 3D / 4D
  • Validierung und Anreicherung von Geodatenbeständen mittels Open-Source-Daten

Fazit:

Mit einem spezifischen Problem sehen sich Unternehmen über alle Datenarten hinweg konfrontiert. Fast alle Datenlandschaften weisen einen bestimmten Anteil an Dubletten auf. Dabei handelt es sich um uneindeutige und teilweise in mehreren Datenbanksystemen eingetragene Datensätze. Zur Identifikation und Bereinigung von Dubletten wird idealerweise ein Software-Tool eingesetzt. Dieses überprüft Ihren gesamten Datenstamm über alle Systeme hinweg anhand konfigurierbarer Kriterien. Die Bereinigung findet im Anschluss automatisch statt oder der Nutzer wird in einem einfachen Prozess durch die manuelle Bereinigung geleitet. Als Resultat erhalten Sie einen Datensatz – den sogenannten Golden Record – in welchem die Daten aus sämtlichen Dubletten korrekt und vollständig zusammengeführt wurden.

Unser Autor
Dr. Tobias Brockmann

Aufmacherbild / Quelle / Lizenz
Bild von Akela999 auf Pixabay

5 Trends in der Versicherungsbranche – So sieht die Versicherung der Zukunft aus

Die Versicherung von morgen wird mit jener von heute nur noch wenig gemein haben. Fünf Thesen, wie neue Technologien die Versicherungswelt von Grund auf verändern.

7 Gedanken – so gelingt die Transformation in eine Digitalbank

von Dirk Emminger – Director of Business Development, Temenos

Transformation zur Digitalbank klingt in der Theorie immer einfach, ist aber in der Praxis hoch komplex. Vor allem in traditionellen Häusern sind viele Hürden zu nehmen. Egal, ob es darum geht, eine Digitalbank von Grund auf neu zu gründen oder digitale Services in das bestehende Angebot hinzuzufügen. Vor allem alte Denk- und Arbeitsweisen machen traditionellen Finanzinstituten bei der Digitalen Transformation schwer zu schaffen. Etablierte Muster aus dem Legacy-Zeitalter bestimmen noch viel zu oft, wie Entscheidungen getroffen werden. Doch wenn Finanzinstitute an solchen Methoden festhalten, werden sie mittelfristig nicht erfolgreich sein und schlimmstenfalls scheitern.

Dabei lassen sich recht schnell die häufigsten Fehler identifizieren, die Finanzinstitute bei der Transformation machen – hier ein paar Gedanken wie man diese Fehler vermeiden kann:

  1. Neu aufbauen, nicht neu anmalen
    Beim Aufbau einer digitalen Bank scheint es am Schnellsten, mit einem traditionellen Bankmodell zu beginnen und einfach eine digitale Version daraus zu erstellen. Doch einer der größten Fehler, der bei dieser Art der digitalen Transformation gemacht wird, ist die Automatisierung alter Prozesse. Stattdessen sollten Institute digitale Dienstleistungen rund um den Kunden aufbauen, ohne dabei weiter an Backoffice-Silos und Produktabläufen der Vergangenheit festzuhalten. Ein Blick ins E-Commerce oder auch nur in die Onboarding Prozesse von z.B. E-Scooter Anbietern zeigt, dass Einfachheit gewinnt.
    Ein Beispiel verdeutlicht die Problematik: Oft ist es so, dass selbst bestehende Bankkunden sich für neue Services erneut legitimieren müssen. Diese Abfrage grundlegender Identitätsinformationen ist größtenteils überflüssig, kostet Zeit und Geld und verursacht Unbehagen bei den Kunden. Vor allem, wenn es sich um papierbehaftete Prozesse handelt. Um Kunden (und auch der Bank) dieses Prozedere zu ersparen, verwenden neue Bankinstitute eine API-basierte Serviceschicht, um die schon einmal erfragten Daten in die benötigten Formulare anzupassen.
  2. Wie Kunden denken
    Die Transformation in eine digitale Bank sollte mit dem Kundenerlebnis beginnen. Erfolgreiche Institute untersuchen, was neue Kunden anzieht und wie sie ihre Dienstleistungen ausbauen müssen, um diese Kunden auch zu halten. Bei allen Prozessen geht es darum, wie ein Kunde zu denken und Abläufe nicht von der Bankseite, sondern von der Kundenseite aus zu realisieren:
    ● Welche spezifischen Situationen gibt es, in denen das Institut ein überzeugenderes Erlebnis bieten kann, als es Kunden anderswo findet?
    ● Sind alle Anwendungen auch unterwegs abrufbar und die User Experience benutzerfreundlich auf mobile Geräte angepasst?
    ● Wo werden Transaktionen abgebrochen? Wo entstehen Fehler bei der Eingabe? Wann steigt der Kunde aus? Das Maß einer erfolgreichen digitalen Bank ist, wie wenig Zeit der Kunde bei der Nutzung aufwendet.
    ● Wie kann die Bank anhand von Transaktionen, Kontoverhalten und Social Media- und Standortdaten ein noch personalisiertes Angebote für den Kunden entwerfen?
  3. Entwerfen, Testen, Ausprobieren
    Die Zeiten jährlicher Updates sind passé. Im mobilen Zeitalter werden Verbesserungen just in time umgesetzt, teilweise passiert dies täglich und manchmal sogar mehrmals am Tag. Alles im Hintergrund und ohne das Bankkunden dafür etwas tun müssen oder dies bemerken. Voraussetzung dafür ist kontinuierliches Testen, Messen und Iterieren der Customer Journey mit einem „Live-Publikum“.
    Der Schlüssel zum Erfolg ist also die kontinuierliche Integration und Bereitstellung von neuen Services und Updates. Als Teil des so genannten DevOps basiert diese in der gesamten Softwareindustrie angewandte Methodik auf der kontinuierlichen Einführung, dem Testen und der Bereitstellung kleinerer Änderungen. Voraussetzung dafür ist eine Software-Infrastruktur mit Funktionen, die DevOps unterstützen und speziell für Cloud-Umgebungen optimiert sind.
  4. Back- und Frontoffice getrennt voneinander betrachten
    Eine Bank funktioniert wie eine Fabrik: für die jeweiligen Systeme – Backoffice (Fertigung) und Front-Office (Vertrieb) – gelten unterschiedliche Prioritäten und Aktualisierungszyklen. So benötigt beispielsweise die Fertigung die Planbarkeit und einen langzeitlichen Zyklus, während der Vertrieb die Agilität und Freiheit braucht, auf sich ändernde Kundenbedürfnisse und -präferenzen zu reagieren. Kundenorientierte Prozesse und Systeme, bei denen mehrere Varianten für verschiedene Produkte und Kanäle parallel laufen und getestet werden, müssen existieren können.
    Im Gegensatz zu monolithischen Bank-IT-Strukturen der Vergangenheit kann eine digitale Bank mit einem einzigen integrierten System, das einen Produktionswechsel erfordert, um neue Vertriebsmerkmale hinzuzufügen, nicht optimal funktionieren. Dies stellt eine Herausforderung dar, da der Datenfluss zwischen Produktion und Vertrieb für den End-to-End-Prozess entscheidend ist. Moderne Digitalbanken arbeiten mit getrennten Systemen, die über dokumentierte APIs und lose gekoppelte Mikroservices miteinander verzahnt sind. In der Praxis bedeutet das, dass Änderungen in einem System das andere nicht beeinflussen.
  5. Weit mehr als nur FrontEnd – Unterschiedliche Skills bei Mitarbeitern
    Um Probleme zu vermeiden, muss mehr Aufmerksamkeit auf die Plattform gelegt werden, die der Kunde nicht sieht. Auf dieser zugrunde liegenden Infrastruktur werden schnell wechselnde Produktkataloge, flexible Entscheidungsmaschinen, die Integration in neue Fintech-Dienste verwaltet. Diese weniger sichtbaren Elemente bilden die schwierigen Bauteile einer neuen digitalen Bank. Im Gegensatz zum FrontEnd wird dieser Teil der Plattform langfristiger ausgelegt und muss entsprechend robust sein. Für diesen Teil der neuen Digitalbank werden technisch komplett andere Skills benötigt als im FrontEnd. Erfolgreich ist das Unternehmen, dass für diesen Teil Branchenexperten rekrutieren kann. Der beste FrontEnd Entwickler mit jahrelanger Erfahrung in User Experience Projekten wird diesen Aufgaben in der Regel nicht gewachsen sein. Hier wird auf der Mitarbeiter Seite Know How von Bankprozessen und auch Regulatorik benötigt.
  6. Spezialisierte Dienstleister hinzuziehen
    Für eine komplexe und skalierbare Digitalbank, die sich ständig anpasst, werde nahezu unendlich viele spezielle Funktionen benötigt. Services wie Identitätsprüfung, Betrugserkennung, Risikobewertung und Zahlungsdienste müssen in die digitale Bankenlösung integriert und orchestriert werden.
    So etwas lässt sich schwer alleine stemmen. Aus diesem Grund ist es sinnvoll, externe Spezialisten zur Hilfe hinzuzuziehen, die diese Herausforderungen bereits gelöst haben und eine entsprechende Software entwickelt haben, die sich mittels APIs an die Systeme andocken lässt. So lassen sich elegant bestehende Erweiterungen schnell und kostengünstig integrieren, was besser und günstiger als die Programmierung neuer Stand-Alone-Lösungen ist.
    Beispielsweise brauchte eine Bank, die eine Eskalation betrügerischer Transaktionen im Zusammenhang mit neuen Produktangeboten erlebte, einen neuen Ansatz zur Betrugsbekämpfung und zwar schnell. Anstatt monatelang auf die Integration der Design-, Entwicklungs-, Test- und Release-Zyklen mit der gewählten Fintech-Lösung zu warten, konnte das Institut auf eine bestehende erprobte Lösung zurückgreifen und per API anbinden. Der neue Cloud-basierte Service wurde so innerhalb von Tagen und nicht wie üblich in Monaten implementiert.
  7. Basisinfrastruktur und Kernfunktionalität kaufen und nicht selber bauen
    Der größte Fehler besteht oft darin, in die falschen bzw. bereits bestehende Dinge zu investieren. Eine Forrester-Studie aus dem Jahr 2018 ergab, dass die erfolgreichsten Digital-Banking-Projekte diejenigen waren, die eine „Build, Buy, Extend and Assembly“-Methode anwandten.
    Banken sollten für die Basisinfrastruktur und die Kernfunktionalität auf bewährte kommerzielle Plattformen zurückgreifen – bei denen der Softwareanbieter die Kosten für Wartung und Erweiterung auf Hunderte von Kunden verteilt. Dies gibt der Bank die Möglichkeit, sich auf ihr spezialisiertes, kundenorientiertes Fachwissen zu konzentrieren und so die Differenzierungspotenziale auf der kommerziellen Plattform aufzubauen. Erfolgreiche digitale Banken nutzen ihre eigenen Ressourcen, um den sichtbaren Teil zu optimieren und zu differenzieren, um ein wirklich einzigartiges Produkt und Erlebnis zu schaffen.

Über den Autor

Dirk Emminger bewegt sich seit 1996 in der Bankenindustrie er ist von Hause aus Banker – jedoch seit mehr als einer Dekade in unterschiedlichen Rollen bei spezialisierten Dienstleistern die moderne Bankenplattformen vertrieben – heute verantwortet er als Director Business Development den Vertrieb bei Temenos für Deutschland und Österreich.

Weitere Informationen unter:
https://www.temenos.com/

Digitalisier mal!

Der CDO – Interner Berater auf Zeit

Warum sich erfolgreiche Digitalisierungstreiber in fünf Jahren selbst abschaffen und dies sogar wünschenswert ist

Ein Gastbeitrag von Roland Riedel, Senior Vice President für Zentraleuropa bei PTC

Was machen Unternehmen, Verbände, Non-Profit-Organisationen und sogar die Regierung, wenn sie vor einer größeren Herausforderung stehen, die sie mit den eigenen vorhandenen Kompetenzen und Ressourcen nicht stemmen können? Sie holen sich ein Beratungsunternehmen ins Haus, das mit Blick auf die Organisation selbst sowie auf die marktwirtschaftlichen und gesellschaftspolitischen Umstände passende Strategien und Konzepte entwirft und diese gegebenenfalls auch mit umsetzt.

Die digitale Transformation von Wirtschaft und Gesellschaft, in der wir uns alle befinden, ist nun nicht nur eine weitere dieser Herausforderungen, sondern der große Umbruch unserer Zeit. Jedermann weiß mittlerweile, dass sie auch für ihn früher oder später signifikante Veränderungen mit sich bringt, sowohl beruflich als auch privat.

Roland Riedel ist Senior Vice President für Zentraleuropa bei PTC (Bildquelle: PTC)

Immer mehr Unternehmen haben die Zeichen der Zeit nicht nur erkannt, sondern schon angefangen zu handeln. „Wir müssen digitalisieren!“ Klar – aber wie? Es lag bei vielen auf der Hand, dass entsprechende Ressourcen und Kompetenzen intern nicht vorhanden waren und von außen kommen mussten. Oft wurde das zunächst mit besagten externen Beratern gelöst. Flankierend entstand ein neues Berufsbild – der Chief Digital Officer (CDO) war geboren. Warum war das nötig? Die klassische IT, der CIO – zu sehr mit dem laufenden Betrieb der Systemlandschaft verhaftet. Der CTO? Zu stark in die klassische Produktentwicklung involviert. Der CEO? In den digitalen Themen kaum zu Hause. Auf den Anforderungslisten stand jedoch vielerorts die komplette zukünftige Ausrichtung des Unternehmens in einer digitalen Welt – nicht mehr und nicht weniger.

Der CDO – nicht nur Berater, sondern Messias

So kam es, dass in den letzten Jahren mehr und mehr CDOs Einzug in die Unternehmen hielten. Laut einigen aktuellen Studien wie der „2019 Chief Digital Officer“-Studie von Strategy&, der Strategieberatung von PwC, liegt die CDO-Quote im DACH-Raum bei 44 Prozent und ist global betrachtet überdurchschnittlich hoch. In Deutschland beträgt die CDO-Dichte sogar 48 Prozent. Das zeigt, wie wichtig dieser Posten aktuell ist. Überraschend mutet es da an, dass Deutschland in punkto Digitalisierung bislang bestenfalls im Mittelfeld spielt (vgl. Cisco Digital Readiness Index 2019). Oder ist das vielleicht gerade der Grund für den Ruf nach dem Messias? Der CDO als wahrer Tausendsassa, der alle Unternehmensbereiche verstehen, marktwirtschaftlich und technologisch bewandert sowie trendfokussiert sein muss, kulturschaffend mit den Abteilungen kommuniziert und die Fackel der Digitalisierung so von Tür zu Tür trägt.

Und dennoch stagniert diese Entwicklung aktuell. Das hat diverse Gründe. Dazu zählt sicherlich die fehlende Durchschlagskraft bei der Umsetzung, vor allem dann, wenn um Budgets gerungen wird oder der CDO nicht auf oberster Führungsebene (wie es sein sollte), sondern irgendwo darunter angesiedelt ist. Gerne mischt sich früher oder später dann doch eine/r der oben genannten Damen oder Herren ein, wenn es um Machtverteilung und Entscheidungsgewalt geht.

Unternehmenslenker führen das oft auf Missverständnisse bei der genauen Rollendefinition des CDOs, eine undurchsichtige Aufgabenverteilung zwischen CEO, CIO, CTO und CDO oder mangelndes Verständnis für die Strategien und Maßnahmenpakete zurück (siehe zum Beispiel die „Chief Digital Officer Studie 2018“ der Quadriga Berlin in Zusammenarbeit mit TMG).

Hier kommt des Dilemmas erster Teil: CDO-Rollen werden geschaffen, da es vermeintlich an Know-how und Ideen mangelt, die digitale Transformation anzupacken. Auf dieser Basis lässt sich allerdings auch kein detailliertes Stellenprofil schaffen, das all diese später aufgeführten „Mängel“ von vornherein klärt. Somit lebt und agiert der CDO in einer sehr freien Rolle, was die Schranken für die Gestaltung des Wandels reduziert und somit positiv ist, ihn und sein Handeln aber auch angreifbar macht. In den Augen der Geschäftsführung bleibt er eine Art Wundertüte. Vor allem bei denen, die sich selbst weniger in den Digitalisierungsprozess einbringen und später enttäuscht sind, weil ihre „Erwartungen“ nicht erfüllt werden. Fast schon paradox. Was uns zu der eigentlichen Frage führt:

Wo bleiben die CEOs?

Ein CDO kann basierend auf seiner allumfassenden Rolle wertvolle Impulse liefern und mit einer Digitalisierungsstrategie den Grundstein für den zukünftigen Erfolg eines Unternehmens legen. Die oftmals notwendige Öffnung der Unternehmenskultur schaffen, kann er alleine aber nur selten. Der wichtigste Treiber der digitalen Transformation sollte daher der CEO sein. Er muss sich schneller als alle anderen im Unternehmen dem Wandel stellen, schließlich formuliert er die Vision und die Ziele der Organisation. Hier sehe ich in der Praxis bereits gute Beispiele, wie es laufen sollte, aber noch viel mehr Nachholbedarf.

Macht ein CDO seine Aufgabe wirklich gut – und dies ist des Dilemmas zweiter Streich – wird seine Rolle in wenigen Jahren überflüssig. Das erfolgreich transformierte Unternehmen denkt und handelt eigenständig „digital“, angefangen bei der Geschäftsführung bis hin zu jeder einzelnen Abteilung. Und wenn das digitale Feuer einmal überall lodert, braucht es keinen Brandstifter mehr.

KI und Automation für effektive Endpoint-Protection

Matthias Canisius, Regional Director von SentinelOne erläutert im Interview wie KI-basierte Technologien und Automation vereint den Endpunkt effektiver schützen.

Je mehr wir voll automatisiert und digital basiert arbeiten, desto angreifbarer werden Endpoints und Devices gegen ungewünschten Fremdzugriff, Manipulation und Missbrauch.
Herr Canisius, was ändert sich in diesem Kontext für die IT-Security, die Sicherheitskultur und das Risikomanagement in den Unternehmen?

Absolut korrekt. Mit zunehmender Vernetzung und Digitalisierung von Systemen, vergrößert sich die Angriffsoberfläche. Und das gilt sowohl für den privaten wie auch für den professionellen Bereich. Privat und Beruf, drinnen und draußen, sind heute im digitalen Sinne kaum noch zu trennen. Was zur Folge hat, dass die Bedeutung des klassischen Perimeterschutzes zunehmend schwindet und eine enorme Konzentration auf die Sicherheit des Endpunktes zu beobachten ist. Diese Entwicklung wird weiter zunehmen.

Ferner wird der Begriff des Endpunktes zukünftig noch weiter gefasst werden und – wie wir ja auch bereits erleben – ausgeweitet werden auf Produktionssysteme und den gesamten IoT/OT-Bereich sowie Container-basierte (z.B. Docker)-Umgebungen, um hier nur einige zu nennen.

Matthias Canisius, Regional Director, SentinelOne

Wie gestaltet sich die heutige Bedrohungslandschaft?

Das größte Bedrohungspotenzial geht heute von hochentwickelter Schadsoftware aus, die aufgrund der Kombination komplexer Verschleierungstechniken immer schwerer aufzuspüren ist. Zudem sehen wir einen massiven Trend hinsichtlich Angriffen, die nicht mittels einer Datei ausgeführt werden, sondern die „fileless“ bspw. mittels Powershell, Macros, Scripten oder dergleichen Zugriff auf unsere Systeme erlangen. Für klassische Sicherheitslösungen sind diese kaum aufzuspüren und wirksam zu verhindern. Antivirus, Firewalls oder auch Intrusion-Prevention-Systems (IPS) erfassen nur einen sehr engen Sicherheitswinkel und können gegen moderne Bedrohungen, die eben auch Techniken benutzen, die zuvor nur staatlichen Geheimdiensten vorbehalten waren, nicht mehr ankommen. Das zeigt auch der aktuelle Lagebericht des BSI. 

Wie unterstützen Sie hier Unternehmen in ihrem Kampf gegen Cyberkriminalität?

Mit unserer Endpoint Security-Plattform bieten wir Unternehmen eine vollständige und benutzerfreundliche Sicherheitslösung, die sie zuverlässig vor allen Arten von Malware schützt. Hierbei setzen wir auf einen intelligenten Agenten, der direkt auf dem Endpunkt ausgeführt wird und potenzielle Bedrohungen dort mit Hilfe von KI in Echtzeit analysiert und eben auch in Echtzeit reagieren kann. Der Vorteil von diesem Ansatz ist, dass verdächtige Dateien nicht erst in eine Sandbox oder andere externe Systeme geschickt werden müssen, sondern direkt auf dem Endpunkt selbst, d.h. in natürlicher Umgebung, für die Malware ja schließlich auch geschrieben wird, analysiert werden. Dies erhöht die Erkennungsquote erheblich. Ein weiterer Vorteil ist, dass der SentinelOne-Agent auch offline arbeitet und bei einem Sicherheitsvorfall automatisiert die richtigen Maßnahmen zur Eindämmung der Bedrohung und Wiederherstellung betroffener Systeme und Dateien anstößt.

Autonomer Endpunktschutz zur Prävention, Identifikation, Abwehr und Reaktion – wie wichtig ist hier Automatisierung?

Sicherheitsbeauftragte stehen heute vor der großen Herausforderung, jeden Winkel ihres Netzwerks überwachen und schützen zu müssen – vom Endpunkt bis zur Cloud. Wer dabei auf passive Bedrohungserkennung setzt, kommt schnell an seine Grenzen, denn er muss eine schier unendliche Zahl von Daten manuell in Zusammenhang bringen, analysieren und bewerten. In Zeiten von Fachkräftemangel, überarbeiteten IT-Teams und einer komplexen Bedrohungslandschaft ist dies kaum noch zu schaffen. Integration und Automatisierung sind Themen, die in jedem CISO-Office ganz oben auf der Prioritätenliste stehen. Was nutzt mir zudem die intelligenteste Lösung, wenn ich ein Heer von Menschen für den Betrieb brauche und nicht in der Lage bin, diese sauber zu integrieren.

Unsere Endpoint Detection und Response Lösung ActiveEDR ermöglicht es, potenzielle Bedrohungen automatisiert – inklusive Kontext – zu verstehen und mögliche Angriffe ohne manuelles Eingreifen zu blockieren. Durch den hohen Grad an Automatisierung reduziert ActiveEDR die Kosten und den Zeitaufwand, der erforderlich ist, um die enormen Datenmengen auszuwerten, die bei detaillierten Analysen anfallen. Dabei arbeitet der Agent wie ein SOC-Analyst auf jedem einzelnen Endpunkt; er wandelt die einfließenden Daten in Echtzeit in komplette „Attack-Stories“ um und reagiert im Fall, dass die „Story“ „böse enden“ würde, sofort automatisch. Dafür brauchen wir lediglich 1-2% CPU auf dem System.

Welche Rolle wird Künstliche Intelligenz (KI) in Zukunft im Rahmen von IT-Security einnehmen?

Wie schon eingangs erwähnt werden KI und Machine Learning die Zukunft der Cybersicherheit wie kaum eine andere Technologie prägen. Künstliche Intelligenz kann uns dabei helfen, selbst hochentwickelte und verschleierte Arten von Cyber-Bedrohung in Echtzeit zu identifizieren und abzuwehren – vor allen Dingen unbekannte Bedrohungen, die heute etwa 90% aller Angriffe ausmachen.

Und natürlich haben auch Cyberkriminelle die Vorzüge von Artificial Intelligence längst für sich entdeckt, um potentielle Opfer damit gezielter und noch raffinierter angreifen zu können – man denke etwa an DeepFakes, d.h. erstaunlich real wirkende Audio- und Video-Nachrichten oder KI-basierte Captcha Bypass-Dienste wie Death by Captcha. Um mit diesen Entwicklungen Schritt halten zu können, sind Unternehmen letztlich dazu gezwungen, ihre Sicherheitsstrategie zu hinterfragen und neue auf KI-basierte Technologien zu erproben.

Wie sollten vor diesem Hintergrund IT-Sicherheitsstrategien aufgebaut sein?

Die Basis einer effektiven Cyber-Sicherheitsstrategie ist und bleibt eine umfassende IT-Infrastrukturanalyse. Nur wenn sie den Stand ihrer IT-Systeme kennen und mögliche Schwachstellen identifiziert haben, sind Unternehmen in der Lage, entsprechend sinnvolle Schutzmaßnahmen zu implementieren. Die Durchführung einer solchen Infrastrukturanalyse ist anspruchsvoll, da sie umfangreiche Kenntnisse über Netzwerkstrukturen sowie die aktuelle Bedrohungslandschaft verlangt, letztlich aber unumgänglich. Eine wichtige Rolle spielen dabei auch individuelle Compliance-Anforderungen sowie gesetzlich verpflichtende Regelungen wie die DSGVO, die von Anfang an mitgedacht werden müssen.

Wir als Hersteller können an dieser Stelle nur ein Teil der Lösung sein und empfehlen daher die Zusammenarbeit mit kompetenten IT-Sicherheitspartnern und Beratungsunternehmen.  Am Ende geht es immer um die gleichen Dinge: Wir möchten ein möglichst hohes Sicherheitsniveau umgesetzt wissen. Die Performance der Systeme darf darunter nicht leiden und ich möchte einen einfachen Betrieb sichergestellt wissen. Dazu wünschen wir uns Integrations- und Automatisierungsmöglichkeiten. Zu guter Letzt wünschen wir uns umfangreiche Sichtbarkeit, die letztliche Grundlage für unsere Sicherheitsmaßnahmen bildet.

Cybercrime-Trends 2020: Worauf können wir uns gefasst machen?

Das ist im Detail sicher schwer zu sagen. Doch was man mit Sicherheit sagen kann: Die technologischen Möglichkeiten werden auf beiden Seiten – bei Angreifern wie bei denjenigen, die Sicherheitstechnologien entwickeln – maximal ausgelotet werden. Wir haben bereits sich selbst verändernde Malware, Malware, die ohne Datei daherkommt und vieles mehr. Haben wir ein Loch gestopft, wird versucht, an anderer Stelle bzw. mit anderen Mitteln zu bohren.

Es ist und bleibt ein Wettlauf. Und hier schließt sich der Kreis wieder zu Ihrer ersten Frage: Entscheidend wird sein, in wie weit wir neue Entwicklungen zum Schutz unseres Unternehmens zulassen und wie schnell wir diese adaptieren.  Was hilft es, wenn wir uns nach wie vor mit kunstvoll geschmiedetem Schild und Schwert gegen Angreifer mit modernen Schusswaffen wehren wollen – und das nur, weil wir es immer so gemacht haben.

https://www.sentinelone.com/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

KI mit Byte und Siegel?

Prof. Dr. Volker Gruhn, Vorstandsvorsitzender der adesso AG.

Prof. Dr. Volker Gruhn kommentiert die aktuelle Berichterstattung zum „KI-Observatorium“. Dabei könnte dies tatsächlich eine Chance darstellen – auch wenn es zunächst nach Lähmung und Prüfsiegel klingt, wie er ausführt:

Jetzt macht Deutschland in Künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. 

Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht zur KI-Strategie der Bundesregierung vom 15. November 2019 beschreibt nüchtern: „Kernaufgaben […] sind die Beobachtung von Technologieentwicklung, -verbreitung und Technologiefolgenabschätzung für KI in Arbeit und Gesellschaft.“ Das klingt nicht so, als ob im nächsten Jahr der einzelne Smart Speaker oder eine KI-Anwendung in einem Unternehmen einen Prüfstempel bekommt. Die Verantwortlichen aus der Politik stellten klar, dass es dem KI-Observatorium zunächst darum geht, den Einsatz von KI-Systemen in Deutschland zu erfassen und zu verstehen. Daraus leiten die Fachleute einen Ordnungsrahmen ab, der die Grundlage für das Prüfen und Bewerten bildet.

Spöttische Stimmen würden sagen, dass im KI-Observatorium zwei Welten aufeinanderprallen werden: der deutsche Hang zur Gründlichkeit und das atemberaubende Tempo technologischer Entwicklung. Aber die Idee hinter der Institution ist interessant – und das gleich auf zwei Ebenen: Das einzelne Unternehmen und einzelne KI-Projekte profitieren von eindeutigen Rahmenbedingungen. Algorithmen unterstützen Banken bei der Kreditvergabe, autonome Fahrzeuge beim Lenken oder Musikliebhaber bei der Auswahl des nächsten Songs. Dahinter stecken völlig unterschiedliche Anwendungen mit mehr oder weniger weitreichenden Konsequenzen für den Einzelnen. Wer weiß, welche Anforderungen ein KI-System erfüllen muss, um für einen bestimmten Einsatz zugelassen zu werden, tut sich leichter mit dem Entwickeln vernünftiger Software.

Aber auch deutschen und europäischen KI-Aktivitäten insgesamt hilft ein funktionierendes KI-Observatorium. Es sorgt mit dafür, neben dem US-amerikanischen und chinesischen KI-Verständnis einen dritten Weg zu etablieren. Einen, dem eine Auffassung von Wirtschaften, Datenschutz und Persönlichkeitsrechten zugrunde liegt, mit dem sich die meisten Bürgerinnen und Bürger der EU identifizieren. 

Noch ist offen, wie mögliche Prüfungen und Bewertungen aussehen. Stellen Entwicklerinnen und Entwickler alle zwei Jahre ihre Algorithmen vor? Testen die Sachverständigen dann, ob die genutzten Machine-Learning-Verfahren in der Zwischenzeit Vorurteile entwickelten? Messen Prüfer den Grad der Nachvollziehbarkeit einer Entscheidung, die eine KI-Anwendung fällt, wie heute das Reifenprofil eines Autos? Es fällt schwer, sich die operative Umsetzung auszumalen. 

Schwer bedeutet nicht, dass es unmöglich ist. Es braucht IT-Kompetenz ebenso wie Verständnis für Jura, Philosophie, Wirtschaft, Politik oder Arbeitsschutz. Gefragt sind Fachleute unterschiedlicher Disziplinen, die unter dem Dach des KI-Observatoriums zusammenarbeiten. Gemeinsam stellen sie Regeln auf. Regeln, die sich zum Qualitätsmaßstab für gute KI entwickeln können. 

Schwer bedeutet, dass wir eine Menge menschlicher Intelligenz investieren müssen, bis die künstliche so funktioniert, wie wir das wollen. Diesem Willen zum Wollen kann das KI-Observatorium Gestalt geben. Nicht als Verhinderer, nicht als institutionalisierter Bedenkenträger. Sondern als Institution, die Regeln aufstellt und durchsetzt, die auf Qualität achtet. Die selbstbewusst ein europäisches KI-Verständnis vertritt. Wenn das so kommt, freue ich mich geradezu auf die nächste TÜV-Prüfung.

Weitere Informationen unter:
www.adesso.de

Unternehmen fordern leistungsfähiges, zukunftsstarkes Klimapaket

Gemeinsam mit bereits über 1100 Unternehmen, Verbänden und der Wirtschaftsinitiative Entrepreneurs For Future positioniert sich die GLS Bank für eine ausnahmslose CO2-Abgabe. Bis zum nächsten globalen Klimastreik von Fridays for Future am 29.11.19 sollen sich auf www.unternehmenfuersklima.de noch weitere Unternehmen der Kampagne anschließen.

„Das Klimapaket der Bundesregierung erreicht weder die Ziele des Pariser Klimaabkommens, noch gehen davon die notwendigen Impulse für eine nachhaltige Wirtschaft aus“, so Thomas Jorberg, Vorstandssprecher der GLS Bank. Die Unternehmen fordern darum die Politik auf, das Paket dringend nachzubessern. „Es ist die Verantwortung unserer Generation, dass sich Klimaschutz an den faktischen Notwendigkeiten orientiert. Nur durch adäquate Korrektive schaffen wir ein Innovationsumfeld für ein Umsteuern unserer Wirtschaft in eine lebenswerte Zukunft“, so Dr. Rüdiger Fox, Geschäftsführer der Symaptex Technologies GmbH.

In dem Aufruf heißt es weiter: Unternehmen können 79 Prozent der eigenen energiebedingten Treibhausgasemissionen direkt beeinflussen und somit massiv zum Klimaschutz beitragen. Emissionsarme Technologien und Neuschöpfungen liegen bei vielen Unternehmen in der Schublade. Sie warten nur darauf, dass die Politik endlich starke und klare Anreize setzt. Damit könne eine Markteinführung gelingen und Lösungen auch auf den Weltmärkten skaliert werden. Die effektivsten und schnellsten Klimapotenziale werden nur mit klaren, verlässlichen und zukunftsgerichteten Rahmenbedingungen für Unternehmen erreicht.

Markt- und innovationsstarke CO2-Preissignale einführen

Die Unternehmen der Initiative fordern:

  • einen ambitionierten und Veränderungsauslösenden CO2-Mindestpreis für alle Sektoren, insbesondere Verkehr, Energie, Gebäude und energieintensive Industrie auf alle nicht-erneuerbaren Energieträger wie Erdgas, Kohle und Mineralöl als Inputbesteuerung bzw. Besteuerung bei Grenzüberschreitung.
  • mit einem Startniveau von mindestens 50 Euro pro Tonne CO2
  • mit einer für Innovationen und Investitionen planungssicheren Steigerung von mindestens 5 Euro pro Jahr als Zielpfad
  • nicht zur Generierung zusätzlicher Steuereinnahmen, sondern für eine optimale Lenkungswirkung mit einem fairen, sozialen Ausgleich.

Laut dem Aufruf ist dies im Rahmen der bestehenden Systeme schnell und einfach umsetzbar. Die Unternehmen treten dafür ein, dass mit diesen Maßnahmen ein Schub an Neuerungen und Marktkräften ausgelöst wird, mit denen Unternehmen den Wirtschaftsstandort langfristig zukunftssicher gestalten können.

Weitere Informationen unter:
www.unternehmenfuersklima.de

Lizenz: Pressemitteilung der GLS Bank

Lizenz Aufmacher: Image by Annette from Pixabay

SPS – Smart Product Solutions

Zum dreißigsten Mal findet die führende Fachmesse für smarte und digitale Automatisierung statt.

Start-up bis Weltmarktführer werden ab Dienstag nächste Woche, vom 26. – 28.11.2019, in Nürnberg die Plattform als Aussteller nutzen, um ihre Produkte und Lösungen den hochqualifizierten Fachbesuchern zu präsentierten.

Teilnehmer der diesjährigen Veranstaltung werden zusätzlich eingeladen, sich auf eine Zeitreise der Messe und der Automatisierungsgeschichte zu begeben.

Messegeschehen auf der SPS IPC Drives 2018

Vom beschaulichen Branchentreffpunkt zur internationalen Leitmesse

Gestartet ist die SPS 1990 in Sindelfingen, als Messe mit begleitendem Kongress mit 63 Ausstellern und 3.420 Besuchern. Bei der ersten Ausgabe der Messe waren bereits fünf Aussteller dabei, die in diesem Jahr ebenfalls ihre 30. Messeteilnahme feiern: Beijer Electronics, Hüthig, M&M Software, Pilz und Yaskawa (ehemals VIPA).

Der Umzug 1997 nach Nürnberg gab der SPS Raum zu wachsen: Aus einer Messehalle in Sindelfingen wurden auf Anhieb drei Hallen in Nürnberg. Der Ortswechsel kam auch einigen Ausstellern, die in und um Nürnberg beheimatet sind, entgegen.

Für einige Aussteller ist die SPS fast Tradition geworden: „Die SPS war und ist Fachmesse im besten Wortsinn und seit 25 Jahren ist die letzte Woche vor dem Advent auch für mich persönlich ein Pflichttermin. Als Wahl-Nürnberger hat es mich natürlich gefreut, dass die SPS von Sindelfingen hierher umzog, und ich begann die Beckhoff-Standbesatzung am Montagabend vor der Messe bei uns zu Hause zu bewirten. Leider machte unser Wohnzimmer das Wachstum der Messe (und das von Beckhoff) nicht mit, und so musste diese Mini-Tradition recht bald wieder eingestellt werden …“, so Martin Rostan, Leiter Technologiemarketing, Beckhoff-Niederlassung Nürnberg.

Aber nicht nur der Umzug nach Nürnberg hat für einen Wachstumsschub gesorgt, die Messe hat sich seither kontinuierlich vergrößert und weiterentwickelt. Während sich die Ausstellungsfläche seit 1990 von 3.500 m² auf 136.000 m² erhöht hat, haben auch viele Aussteller eine große Entwicklung hinter sich: „SEW-Eurodrive ist seit 1996 treuer Austeller auf der SPS. Gestartet mit einem kleinen, ca. 50 m² umfassenden Komponentenstand hat sich SEW-Eurodrive mit der Messe zusammen fortentwickelt. Heute zeigen wir auf 1.620 m² von der smarten Komponente über intelligente Maschinenautomatisierung bis hin zur digitalen Cloud-Anwendung praxisorientierte Lösungen. Somit ist und bleibt die SPS – Smart Product Solutions für uns auch weiterhin die wichtigste Fachmesse für industrielle Automatisierung,“ fasst Heiko Füller, Leiter Marktmanagement SEW-EURODRIVE zusammen.

„Mit ihrem einzigartigen Konzept bildet sie das komplette Spektrum der smarten und digitalen Automation ab – vom einfachen Sensor bis hin zu intelligenten Lösungen, vom heute Machbaren bis hin zur Vision einer umfassend digitalisierten Industriewelt.
Zahlreiche Aussteller der SPS haben ihren Innovationszyklus an der Messe ausgerichtet und präsentieren vor Ort ihre neuesten Produkte und Automatisierungslösungen.“

Sylke Schulz-Metzner, Vice President SPS,

Das Erfolgsrezept

Die heutige SPS ist die Plattform für die smarte und digitale Automatisierung. Hier treffen sich hochqualifizierte Besucher und Aussteller auf Augenhöhe; im Fokus stehen praxisnahe und intelligente Lösungen für die Herausforderungen von heute und morgen. In Nürnberg zeigen die Aussteller neben ihrem gesamten Produktspektrum auch ihre Produktneuheiten. Dies ermöglicht dem Besucher einen umfassenden Marktüberblick.

Machen Sie eine Reise durch die Vergangenheit

Weitere Informationen und interessante Meilensteine der SPS, der Automatisierung und der Industrie sind auf der Webseite sps-exhibition.com zu finden.

Key Facts zur Veranstaltung

Begleitender Kongress: Automation 4.0 Summit

Für all jene, die sich noch tiefgehender zu aktuellen Themen der Automation informieren wollen, bietet sich der von den WEKA Fachmedien organisierte begleitende Kongress zur SPS an. In 4-stündigen Sessions werden dieses Jahr die Themen

5G, TSN und OPC UA in der Industrie
Securely connected – vom Sensor bis zur Cloud
IOT-Plattformen – Best Practises
Flexible Automatisierung für wenig Geld – was leistet die Robotik?

unter praxisbezogenen Aspekten fokussiert beleuchtet.

Termine und Tickets

Was: SPSSmart Production Solutions

Wann: 26. – 28.11.2019

Wo: NürnbergMesse

Planung & Vorbereitung

Weitere Informationen zur Veranstaltung, Tickets, Reisespecials sowie Tipps zur Vorbereitung
finden Sie unter sps-exhibition.com

Start der Hypermotion 2019

„Next Generation Mobility and Logistics“

Nächsten Dienstag ist es soweit. Die Hypermotion öffnet zum dritten Mal ihre Tore. Vom 26. – 28. November treffen sich in Frankfurt am Main wieder Anbieter und Anwender, die neue Standards setzen für die Mobilität und Logistik von morgen. Networking über Verkehrsträger und Systemgrenzen hinweg ist das oberste Ziel. Es erwartet Sie eine Vielzahl innovativer und zukunftsorientierter Aussteller. Zuhören, mitreden, ausprobieren – freuen Sie sich auf die neuen Micro Mobility-Parcours sowie spannende Pitches, Talks und Podiumsdiskussionen über die Mobilität, Logistik und Infrastruktur von morgen.

Werden Sie Teil der „Next Generation Mobility and Logistics“!

„Auf der Hypermotion bringen wir als erste Plattform für die digitale Transformation alle Verkehrsträger zusammen. Unser Ziel dabei ist es, die Vernetzung innerhalb der Branche voranzutreiben, damit neue integrierte Lösungen für die Mobilität von morgen entstehen können“

Danilo Kirschner, Director Hypermotion.

Über 150 Top-Speaker bieten zahlreiche Impulse

Auf der Hypermotion erwartet Sie ein vielseitiges Programm. Der Deutsche Mobilitätskongress macht sich die Städtische Mobilität der Zukunft zum Leitthema. Die EXCHAiNGE widmet sich neuen interessanten Wertschöpfungsmustern für ein nachhaltiges Supply Chain Management. Im Zukunftsforum smc:smart mobility conference geht es um die urbane Mobilität und digitale Vernetzung der Regionen und die Logistics Digital Conference zeigt neue Wege für eine schnellere und nachhaltigere digitale Logistik. Die Mobilitätsexperten des Urban Mobility Labs erörtern, wie sich neue Mobilitätskonzepte auf die Qualität von Stadt und öffentlichem Raum auswirken, während im VISION mobility THINK TANK Alternativen zum automobilen Stadtverkehr gesucht werden.

Konferenzen

Themen & Events

Key Facts

Was:

Hypermotion

Wann:

26.-28.November 2019

Wo:

Messe Frankfurt, Frankfurt am Main
Tickets

Mehr Informationen unter
www.hypermotion-frankfurt.com

Zukunft des Computer Aided Engineering

eCl@ss 11.0: Neue Version formt die Zukunft des Computer Aided Engineering

Offene Produktdatenstandards sind Voraussetzung, damit Industrie 4.0 in die Realität umgesetzt werden kann. Insbesondere der eCl@ss-Standard hat sich in den letzten Jahren etabliert. Mit der nun veröffentlichten Version 11.0 hat er seine bislang größte Weiterentwicklung erfahren. Doch welche Neuerungen gibt es und welche Vorteile bieten sie konkret für das Computer Aided Engineering (CAE)?

Die Weiterentwicklung von eCl@ss ist ein kontinuierlicher Prozess. Jährlich wird eine neue Version des Standards veröffentlicht. Die neue Version 11.0 stellt insofern eine Besonderheit dar, als dass sie die umfangreichsten Neuerungen seit dem Launch der ersten Version beinhaltet.

Vor allem an zwei Beispielen wird deutlich, warum eCl@ss 11.0 weitreichende Vorteile für das CAE bietet: Die Möglichkeit zur funktionalen Beschreibung von Produkten sowie die hinzugekommenen Engineering-Daten für Schutzparameter. Beide Neuerungen entlasten Konstrukteure bei der Planung von Schaltanlagen. Wie sie sich im Einzelnen darstellen und wie Anwender hiervon profitieren können, ist im Folgenden beschrieben.


Unser Autor

Stefan Mülhens ist Mitgründer und Geschäftsführer des Softwareherstellers AmpereSoft aus Bonn. Das Unternehmen wurde 2007 gegründet und ist auf die Entwicklung von Engineering-Tools und die Pflege von Stammdaten spezialisiert. Zuvor war Mülhens als Software-Architekt und IT-Projektleiter tätig. Neben seiner Tätigkeit bei AmpereSoft unterstützt er aktiv Weiterentwicklung und Verbreitung von Standards für Produktdaten (eCl@ss Advanced) und Engineering-Daten (AutomationML).


Reduzierter Aufwand: Schutzparameter mit eCl@ss beschreiben

Die Beschreibung der Schutzparameter gehört zu den unverzichtbaren Informationen, wenn die Netzberechnung einer Schaltanlage durchzuführen ist, und um den Netzschutz durch Selektivität zu gewährleisten.

Zur softwaregestützten Netzberechnung etwa sind zahlreiche feingranulare technische Informationen in digitaler Form nötig. Diese zu recherchieren und für die entsprechenden Tools aufzubereiten, bedeutet einen enormen manuellen Aufwand – erst recht, wenn die Daten ursprünglich aus Katalogen oder anderen Unterlagen stammen und zunächst digitalisiert werden müssen. Eine Automatisierung der Prozesse ist auf diese Weise nicht möglich.

Engineering-Daten sind äußerst vielfältig und komplex. Sie standardisiert zu beschreiben, ist eine große Herausforderung. Denn: Die Daten variieren aufgrund von technischen Abhängigkeiten oder ergeben sich aus normativen Anforderungen von Typenprüfberichten. Ihre Darstellung erfolgt in der Regel als Graphen, weshalb sie nicht in einer flachen Merkmalsstruktur beschrieben werden können und von den Produktherstellern bislang individuell bereitgestellt werden.

Systematische Abbildung von Schutzparametern in eCl@ss

Abbildung von mehrdimensionalen Datenstrukturen

Mithilfe von eCl@ss können Schutzparameter nun spezifisch und detailliert beschrieben werden – und zwar sprachneutral, maschinenlesbar, branchenunabhängig und eindeutig. Die dynamische Abbildbarkeit von mehrdimensionalen Datenstrukturen ist ein Alleinstellungsmerkmal des Produktdatenstandards. Dazu werden Strukturelemente wie Block, Aspekt, Kardinalität und Polymorphismus zur Unterteilung von Informationen verwendet.

Im Block werden zusammengehörige Merkmale unter einem bestimmten Namen gesammelt. Die Merkmale in Blöcke einzuteilen, dient der besseren Übersichtlichkeit. Würden sie auf einer einzigen Ebene aufgelistet, würde dies eine lange, aus Merkmalen bestehende, Kette ergeben, die gar noch wächst, sobald neue Merkmale hinzugefügt würden. Außerdem können Blöcke an verschiedenen Stellen wiederverwendet werden. Um einen Block zu erstellen, müssen Anwender ein sogenanntes Referenzmerkmal bilden.

Funktionsbeschreibung eines Pilzdrucktasters in eCl@ss.

Aspekt, Kardinalität und Polymorphismus

Unter einem Aspekt versteht man die Sammlung von thematisch zusammengehörigen Merkmalen und Blöcken. Ein Beispiel hierfür ist der Aspekt „CAx Anschlüsse und Funktionen“, in dem detaillierte Informationen wie Art, Position und verwendbare Leiterquerschnitte beschrieben sind, sowie die Funktionen eines Produkts, um eine möglichst schnelle Verwendung im Engineering und eine automatisierte Fertigung zu ermöglichen.

Die einzelnen Blöcke können je nach Bedarf vervielfacht werden. Diese weitere Möglichkeit, die Merkmale einer Klasse zu ordnen, nennt man Kardinalität. Angenommen, eine Produktionsstraße ist mit sechs identischen Greifarmen bestückt, deren Merkmale in einem Block zusammengefasst sind. In diesem Fall reicht es aus, das Referenzmerkmal „Anzahl der Greifarme“ auf „6“ zu stellen: Der entsprechende Block würde in diesem Fall sechsmal aufgerufen.

Polymorphismus – die „Mehrgestaltigkeit“ – bietet in eCl@ss die Möglichkeit, zur Beschreibung unterschiedliche Blöcke anzuwenden und das in Abhängigkeit von einem speziellen Merkmalswert. So werden zum Beispiel für Anschlüsse in elektrischer, pneumatischer oder optischer Ausführung jeweils spezifisch zusammengestellte Merkmale (Blöcke) verwendet.

Funktionen können beschrieben werden

Die Möglichkeit zur funktionalen Beschreibung von Produkten ist die zweite wichtige Neuerung, die eCl@ss 11.0 für das CAE mit sich bringt. Denn bei der Schaltplanerstellung spielen nicht nur die physischen Größen der Komponenten eine Rolle. Unter Zuhilfenahme einer entsprechenden Software lassen sich aus den neu in eCl@ss enthaltenen Funktionsbeschreibungen wichtige Vorteile erzielen, insbesondere in Bezug auf die Zeitersparnis bei der Schaltplanerstellung. So ermöglicht etwa das AmpereSoft ToolSystem in Verbindung mit eCl@ss 11.0 die automatisierte Generierung von Schaltsymbolen, die anschließend unkompliziert in den Schaltplan eingefügt werden können. Dies gilt sowohl für genormte als auch für nicht genormte Funktionen. Bislang mussten die Konstrukteure diese Symbole teilweise aufwendig selbst erstellen, denn von Herstellerseite besteht allein aus Gründen der Wirtschaftlichkeit häufig keine Möglichkeit, alle benötigten Symbole für alle CAE-Systeme im Markt mit auszuliefern.

Meilenstein auf dem Weg zu Industrie 4.0

Schon die vorangegangenen Versionen von eCl@ss waren wichtige Schritte auf dem Weg zur Industrie 4.0. Das jetzt veröffentlichte Release geht darüber hinaus und stellt einen echten Meilenstein dar. Die noch detailliertere Beschreibung der Produktdaten ermöglicht einen entsprechend detaillierten Engineering-Prozess.

Weitere Infos: www.amperesoft.net

Bildquelle Beitrag
AmpereSoft GmbH/eCl@ss e. V.

Aufmacherbild / Quelle / Lizenz
Bild von Aneta Esz auf Pixabay

„Disruptieren Sie sich“

Wie kann der Standort Deutschland wieder smart werden? Wir sprachen mit Oliver Bendig, CEO von Matrix42, über die Chancen der Digitalisierung. Nicht rasten, sondern sich kontinuierlich neu erfinden, rät er im Laufe des Gesprächs. Dafür ist insbesondere der Mittelstand in einer hervorragenden Situation sind. Weil Geschwindigkeit in der digitalen Welt ein extrem hohes Gut ist.

Oliver Bendig ist CEO der Matrix 42 AG.
Oliver Bendig ist CEO der Matrix42 AG.

Welche Potenziale für den Standort Deutschland stecken in den neuen Technologien im Kontext von Automatisierung, KI und deren Anwendungen sowie Vernetzung?
Insbesondere künstliche Intelligenz und Machine Learning sind nicht nur Buzzwörter, daraus können ganze Geschäftsmodelle entwickelt werden. Deshalb investieren Unternehmen und auch wir kräftig in diesen Bereich. Eine besondere Rolle spielt dabei der digitale Arbeitsplatz, der idealerweise alle möglichen Informationen wann und wo und wie ich sie benötige zur Verfügung stellt und über mich lernt, sich also meinem Nutzerverhalten anpasst. Ein weiterer Schwerpunkt liegt auf der Kombination von KI und Automation am Arbeitsplatz, der Robotic Process Automation. Wie schaffe ich es, Arbeitsabläufe in Unternehmen soweit zu automatisieren, dass die Maschine in der Lage ist sich selbst immer weiter zu optimieren? Hierzu benötigen wir verschiedene Daten – Nutzungsverhalten, Rollen, Personen, Lokationen, etc. – die wir in einen Kontext bringen, um einen besseren Service bereitzustellen.
Welche Möglichkeiten KI und Machine Learning in diesem Zusammenhang in unserer Welt ermöglichen, verdeutlicht beispielhaft unser Virtual Support Agent. Die Vision dahinter ist, einen virtuellen Buddy im Unternehmen zu haben, der den Mitarbeitern alle möglichen Fragen beantwortet und sie zusätzlich proaktiv bei der Arbeit unterstützt. Er stellt beispielsweise Dokumente zur richtigen Zeit auf dem richtigen Arbeitsgerät bereit, oder findet durch Kalenderabfragen und dem Kontext von E-Mail-Kommunikationen den richtigen Zeitblock für Terminabsprachen.
Problematisch ist allerdings, dass die digitale Transformation in den Unternehmen oft schneller voranschreitet als das dazugehörige notwendige Security-Know-how. Ich kann daher nur mahnen, sich bei der ganzen fortschrittlichen Entwicklung viel mehr Gedanken um Security-Elemente zu machen.


Welche Rolle wird speziell das Quntencomputing in puncto Security spielen?
Durch Quantencomputing werden die Verschlüsselungstechniken, die wir über Jahrzehnte entwickelt haben – von denen wir glaubten, dass sie sicher sein, weil sie so unheimlich komplex sind – der Vergangenheit angehören. Wir selbst sind schon dabei Verschlüsselungstechnologien zu entwickeln, die auch über Quantencomputing abgesichert sind und die sie nicht einfach berechnen lassen und brechen können.
Was wichtig ist, ist Awareness zu schaffen im Unternehmen, das Handlungsbedarf besteht, das man in Security nicht nur technisch investieren muss, sondern auch ins Knowhow der Menschen und Personen – und hier beraten wir sehr stark hin – auch mit unseren Lösungen. Es ist ein Riesenthema. Wenn Computing immer schneller, exponentiell voranschreitet, muss auch Security nachziehen oder besser – voranschreiten.

Droht die zunehmende Automatisierung den Menschen zu ersetzen?
Entscheidend ist, dass es bei unseren Automationslösungen nie darum geht Mitarbeiter abzubauen. Wenn Sie Ihr Geschäft ausbauen, wollen Sie keine Mitarbeiter einsparen, sondern Kosten – ein wichtiger Unterschied. Die Mitarbeiter können im Idealfall woanders eingesetzt werden, wo sie an Innovationen, am Unternehmen der Zukunft arbeiten. Automatisierung soll also nicht bloß dazu dienen, die Lichter am Laufen zu halten, sondern das Geschäft voranbringen. Sie soll Freiräume schaffen, um neue Produkte zu entwickeln oder Kunden neue Leistungen anzubieten.

Wo lagen die Herausforderungen bei der Entwicklung Ihres Virtual Support Agent Marvin?
Zunächst einmal mussten ganz einfach Menschen gefunden werden, die in der Lage waren den Code zu bauen, die also programmieren können und sich mit künstlicher Intelligenz und Machine Learning auskennen.
Damit Marvin als Virtual Support Agent wie gewünscht agieren kann, Sie ihn also als Ihren virtuellen Buddy anchatten können und er bei IT-Problemen hilft, mussten zudem einige technische Herausforderungen gemeistert werden:
Hierzu gehört die Interpretation von Sprache, von der Semantikanalyse bis hin zur Emotionserkennung. Schließlich soll Marvin anders reagieren wenn Sie sauer sind, als wenn Sie freundlich fragen. Als Virtual Support Agent spielt auch der Content, aus dem er lernen und den er zur Verfügung stellen kann, eine ganz zentrale Rolle. Ein konkretes Beispiel: PowerPoint funktioniert nicht mehr. Jetzt kann ich zwar einen einfachen Entscheidungsbaum aufbauen, wie das System auf diese Situation reagieren kann. Wichtiger ist jedoch, dass ich ein System habe, das kontinuierlich dazulernt und so auch bei neuen Probleme helfen kann. Hier haben wir eine Technologie entwickelt, die es ermöglicht aus den Informationen, die wir von den Anwendern bekommen, und aus früheren Anfragen zu lernen. Dabei spielt auch wieder die Interpretation von Sprache eine wichtige Rolle. Schließlich muss das System erkennen, bei welchen unterschiedlichen Anfragen eigentlich das gleiche gemeint ist. Darüber hinaus haben wir eine Fehlererkennung für Marvin entwickelt. Wenn also eine Fehlermeldung aufpoppt, erkennt Marvin schon das Problem, ehe Sie danach fragen. Auch damit muss Marvin natürlich gefüttert werden. Die größte Herausforderung war also definitiv, der KI den grundlegenden Content zur Verfügung zu stellen. Dabei machen wir uns einen Netzwerk-Effekt zu Nutze: Wir haben über 5.000 Kunden und je mehr Kunden, das System nutzen, desto cleverer wird das System. Die einfachste Form der Quelle sind dabei noch Knowledge-Artikel in der Knowledge-Base der Kunden, die Lösungen behandeln. Zusätzlich zapfen wir aber auch Dritt-Systeme an, um das System weiter mit Content zu befüllen.

Was raten Sie speziell kleineren Unternehmen mit bis zu 250 Mitarbeitern im Kontext neuer Technologien, um nicht abgehängt zu werden?
Auch als KMU muss ich im Zuge der Digitalisierung unheimlich schnell reagieren, sonst werde ich disruptiert, überholt, überfahren. Als KMU haben Sie dabei einen riesigen Wettbewerbsvorteil – Sie sind nicht so schwerfällig. Nicht umsonst versuchen Konzerne sich vielfach in kleine Zellen aufzuteilen und Spin-offs zu machen, die sei später wieder integrieren. Sie brauchen die Geschwindigkeit. KMU müssen diesen Vorteil ausspielen. Das heißt auch nicht erst alles bis zum Ende durch zu definieren, sondern, salopp gesprochen, einfach mal los zu legen. Der Build-measure-learn-Denkansatz ist schon lange keine Neuheit mehr, aber einfach mal loszulegen, heißt, auf das Minimum Viable Product, den MVP-Ansatz zu setzen. Ich probiere und ich experimentiere.
Inkrementelle Innovation – kleine Optimierungen in kleinen iterativen Schritten – ist natürlich wichtig. Aber ganz offen: wenn wir heute an den Maschinenbauer, das Industrieunternehmen denken, dann hilft da keine inkrementelle Innovation mehr.
Da geht es um disruptive Innovationen. Deswegen rate ich jedem Unternehmen, lieber sich selbst zu disruptieren, bevor es jemand anderes tut. Hinterfragen Sie, was Digitalisierung für Ihr Geschäftsmodell bedeutet. Uber beispielsweise arbeitet selbst am autonomen Fahren und disruptiert damit sein eigenes Geschäftsmodell, entwickelt aber gleichzeitig neue Dienstleistungen, die auch dann noch Bestand haben. Mit Uber-Eats z.B. kann man jetzt Essen bestellen.
Es gilt nicht zu rasten, sondern sich kontinuierlich neu zu erfinden. Mittelständische Unternehmen sind hier in einer hervorragenden Situation, eben weil Geschwindigkeit in der digitalen Welt ein so extrem hohes Gut ist.

Wie können Sie da den Umsatz stabil halten und sich gleichzeitig neu erfinden?
Hier gibt es von McKinsey das Treiber-Horizont-Modell: Sie bauen Ihre Organisation so auf, dass sie einen Horizont 1 haben, der Ihren Cashflow und Umsatzstrom jetzt und für die nächsten 12 – 18 Monate sicherstellt. Dann bauen sie in der Organisation einen Bereich Horizont 2 – dort beginnen schon Menschen an der Zukunft zu arbeiten, die den Umsatzstrom ab dem 18. bis zum 36. Monat generieren soll.
Dann gibt es den Horizont 3 – das ist eine ganz kleine Truppe. Das ist mein Startup – ich sage es salopp, das sind meine Spinner. Das sind die Leute, die hinter den Horizont schauen und fragen, was kommen könnte. Das sind die Leute, die Ihnen die Zukunft bauen, die sich vielleicht in den nächsten 72 Monaten materialisieren lässt.
Dabei weiß ich, dass ein Produkt aus Horizont 1, welches ich heute erfinde, in fünf, zehn oder 15 Jahren weniger Umsatz abwerfen wird. Durch Horizont 2 und 3 gleichen Sie diesen Verlust aber immer wieder aus.

Weitere Informationen unter:
www.matrix42.com
KI im Service-Desk

Prozessdaten nutzbar machen, Wertschöpfung steigern

von Marc Steinhaus

Datenanalyse in der Industrie: Prozessdaten nutzbar machen, Wertschöpfung steigern

Die Analyse industrieller Prozessdaten macht Optimierungspotenziale sichtbar und kann einen Beitrag zur Steigerung des Unternehmenserfolges leisten. Durch die zunehmende Digitalisierung in der Produktion stehen mehr Daten denn je zur Verfügung. Hier schlummert ein wertvoller Informationsschatz, der von vielen Anlagenbetreibern noch zu selten gehoben wird. Wie sind die Daten zu lesen, wie können sie ausgewertet werden, um die Wertschöpfungskette zu verbessern? Die Herausforderung besteht im Nutzbarmachen.

Temperaturen, Drücke oder Geschwindigkeiten: Maschinen und Rechnersysteme in modernen Produktionsanlagen tauschen solche Informationen permanent untereinander aus. Diese Prozessdaten dienen nicht nur dazu, dass vernetzte Maschinen den jeweiligen Ist-Zustand der mit ihnen in Verbindung stehenden Geräte kennen, um entsprechend darauf zu reagieren.

„Um die Prozessdaten effizient nutzen zu können,
ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig.
Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert.“

Marc Steinhaus

Auch die Betreiber der Anlagen können wertvolle Erkenntnisse gewinnen – die richtige Interpretation der Daten vorausgesetzt. Erst Recht wenn zusätzliche Daten, wie etwa Qualitätsdaten, Wartungsberichte oder Auftragsdaten mit in die Analyse einfließen. Die Erkenntnisse können beispielsweise für Predictive Maintenance oder zur Verbesserung der Effizienz von Anlagen genutzt werden.


Autor Marc Steinhaus

Marc Steinhaus ist Prokurist bei der Steinhaus Informationssysteme GmbH und Aufsichtsratsvorsitzender und Mitgründer der Audials AG. Der 46-jährige Diplom-Informatiker wechselte vor 17 Jahren als Entwickler in das auf Prozessdatenmanagement-Systeme spezialisierte Unternehmen ein. Heute ist Marc Steinhaus bei der Steinhaus Informationssysteme GmbH, einem familiengeführten IT-Unternehmen, für das Business Development verantwortlich.


Ziele der Analyse von Prozessdaten 

Neben den schon genannten Anwendungsmöglichkeiten sollen bei der industriellen Datenauswertung beispielsweise folgende Ziele erreicht werden.

  • die Reduzierung von Ausfällen und somit die gesteigerte Verfügbarkeit
  • eine höhere Produktqualität
  • die Steigerung der Produktionsleistung
  • das leichtere Engineering von effektiven Neuanlagen
  • die Entlastung der Mitarbeiter

Doch bevor eine zielgerichtete Analyse von Prozessdaten möglich wird, müssen diese zunächst nutzbar gemacht werden. Eine echte Herausforderung. Denn: Die verfügbaren Prozessdaten stammen in der Regel von vielen unterschiedlichen Quellen und sind daher von einer großen Heterogenität gekennzeichnet. Meist herrscht Unordnung.

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst.

Während der Wert und die Zeit noch eindeutig sind, beginnt die Variabilität bereits bei den Einheiten. Ein Beispiel: Die Temperatur wird in Celsius angegeben, doch wird die Einheit mal mit C, mal mit C°, Grad C, usw. abgekürzt. Noch komplizierter stellt sich die Einordung weiterer Metadaten dar, die die Eigenschaften der jeweiligen Messstelle beschreiben. Diese werden und wurden nach unterschiedlichsten Konventionen (beispielsweise KKS, technische Plätze, AKS …) vergeben, die zudem oft nicht strikt eingehalten und mit der Zeit weiterentwickelt werden.

Aber nicht nur Einheiten und Konventionen unterscheiden sich – auch die unterschiedlichen Systeme, in denen Daten erhoben werden, müssen bedacht werden. So werden Informationen aus Feldsystemen in einem kontinuierlichen Datenstrom gesendet, während Daten aus übergeordneten Systemen wie ERP oder MES als einzelne Datenpakete bereitgestellt werden.  Des Weiteren liegen benötigte Daten möglicherweise in den Händen von Partnern. Es ist offensichtlich, dass sich daraus verschiedene Anforderungen für die Datenaggregation ergeben. Aus all den potenziell zur Verfügung stehenden Daten entsteht eine Flut an heterogenen Informationen, die in unstrukturierter Form kaum von Nutzen sind.

Strategischer Ansatz und zuverlässige Partner: Schritt für Schritt zur effektiven Datennutzung

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst. Ein Beispiel: Für eine industrielle Anlage soll ein Energiebericht erstellt werden. Das Vorgehen ist zwar fehleranfällig und aufwendig, kann aber grundsätzlich zum gewünschten Ergebnis führen. Handelt es sich aber um eine Anlage mit 50.000 Messstellen, von denen mehrere Tausend Messungen von Energie- und Medienströmen sind, wird die Aufgabe ungleich schwieriger. Denn nicht jede der Messstellen liefert Informationen, die für einen Energiebericht Relevanz besitzen und zudem ist die schiere Masse der Daten zu groß, um sie manuell ordnen zu können.

Es wird klar, dass hier ein strategisches Vorgehen gefragt ist: In einem ersten Schritt müssen die Messstellen strukturiert werden. Dazu ist es von entscheidender Bedeutung, die Metadaten in eine einheitliche Form zu bringen und die verschiedenen Konventionen auf eine allgemein gültige Abzubilden. Ein weiterer elementarer Bestandteil ist es, die topologischen Informationen der Messstellen in eine standardisierte Form zu bringen.

Erst wenn diese Daten einheitlich und weitestgehend normiert und somit vergleichbar sind, kann auf ihrer Basis ein automatisiertes Berichtswesen erstellt werden. Beispielsweise indem die Zusammenstellung der Energieberichte nach verschiedenen Aspekten algorithmisch und nicht mehr durch den Anwender händisch erfolgt. Langjährige Erfahrung und Know-how sind hierfür ebenso Voraussetzung wie die Nutzung einer entsprechenden technologischen Lösung.    

Um die Prozessdaten effizient nutzen zu können, ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig. Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert. Anbieter, die einen nachhaltigen Erfolg ihrer Kunden anstreben, geben schon bei der Entwicklung einer passenden Strategie praktische Hilfestellung.

Die zweite Komponente ist die schon angesprochene Software. Benötigt wird ein leistungsfähiges Tool, das die vorliegenden Daten aufräumt, strukturiert und mittels algorithmischer Verfahren in Standardinformationen umwandelt. Bei der Auswahl eines Anbieters sollten Anlagenbetreiber sich also nicht mit einer modern anmutenden Nutzeroberfläche zufrieden geben, die lediglich die manuellen Tätigkeiten erleichtert. Wichtiger ist eine genaue Prüfung des angebotenen Leistungsspektrums, denn im besten Falle automatisiert die Software diese Tätigkeiten.

„Die wichtigsten Fragen sind: ...“

Die wichtigsten Fragen sind: Welche Funktionen bildet das System ab? Reichen diese aus, um die Wertschöpfung effektiv zu steigern? Wie skalieren Arbeitsaufwände, Fehleranfälligkeit, Performance und Nachvollziehbarkeit mit einer rasant wachsenden Anzahl von Messpunkten? Und steht ein erfahrener Partner zur Verfügung, der vor, während und nach dem Kauf unterstützend tätig wird, wenn es nötig ist?

Nur wenn diese Fragen bejaht werden können, wird die Analyse der Prozessdaten gewinnbringende Erkenntnisse liefern. 

http://www.steinhaus-informationssysteme.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Wie Künstliche Intelligenz die Medien verändert

von Norbert Lossau 

› 

Künstliche Intelligenz (KI) wird die Medien in vielfältiger Weise transformieren. Insbesondere wird sie den Schwerpunkt vom geschriebenen hin zum gesprochenen Wort verschieben. Digitale Assistenten könnten journalistische Inhalte vermitteln.

› 

KI ermöglicht neue Geschäftsmodelle: insbesondere 
Kooperationen zwischen Medienhäusern und Technolo- 
giefirmen. Auch Archivdaten lassen sich monetarisieren.

› 

KI wird Sprachbarrieren abbauen und damit die Globalisierung des Journalismus befördern.

› 

KI automatisiert nicht nur Arbeitsabläufe, sondern auch Entscheidungsprozesse. Damit sinkt der Bedarf an Mitarbeitern.

› 

Mit KI lassen sich Medienangebote hochspezifisch individualisieren. Dazu wird eine „kritische Masse“ an Daten benötigt. Extreme Personalisierung medialer Produkte kann Filterblasen-Effekte verstärken.

› 

Künftige Geschäftsmodelle der Medien hängen sensibel von datenschutzrechtlichen Rahmenbedingungen ab.

 

 

Inhaltsverzeichnis 
I. Was ist Künstliche Intelligenz?
II. Rechtschreibung und Hasskommentare
III. KI überwindet Sprachbarrieren
IV. KISysteme schreiben eigenständig Beiträge
V. Maschinen treffen Entscheidungen
VI. Hören statt Lesen
VII. KI-Journalismus benötigt kritische Masse
VIII. Journalismus und Blockchain
IX. Zusammenfassung und Diskussion
Literaturverzeichnis


I. Was ist Künstliche Intelligenz? 

Vor rund 50 Jahren haben Wissenschaftler den Begriff der Künstlichen Intelligenz (KI)  etabliert. Entwickelt werden sollten Computer, die Aufgaben bewältigen, für die bis dato „menschliche Intelligenz“ erforderlich war. Bereits seit den 1980er Jahren setzen Industrie und Militär solche Technologien ein (1). Sie basieren auf künstlichen neuronalen Netzen, die Mechanismen des menschlichen Gehirns nachahmen und dadurch Muster in Daten, Texten und Bildern erkennen können (2)

Was die breite Öffentlichkeit unter KI versteht, ist vorwiegend von Science Fiction-Romanen und -Filmen geprägt, in denen humanoide Roboter mit übermenschlichen, geistigen Fähigkeiten eine Rolle spielen. Beispiele sind das körperlose KI-System Winston im Roman Origin von Dan Brown (3) oder das körperbetonte KI-Wesen Ava im Film Ex Machina (4).  In der realen Welt waren es Schach und Go spielende Computer, die die Leistungsfähigkeit von KI-Systemen demonstrierten. Auch der KI-Computer Watson, der in der US-Quiz-Show Jeopardy! gegen menschliche Mitspieler siegte, war ein Meilenstein in der öffentlichen Wahrnehmung von KI. 

Inzwischen ist das Thema KI in der gesellschaftlichen und politischen Diskussion angekommen. Von der KI werden umwälzende Veränderungen in allen Bereichen der Wirtschaft und des Lebens erwartet, zum Beispiel bei der autonomen Mobilität und der Industrie 4.0. Auch die Medien werden durch den Einsatz von KI weitere Transformationen durchlaufen. 

Es gibt bislang keine wissenschaftlich anerkannte Definition für Künstliche Intelligenz. Aus pragmatischer Sicht ist es auch nicht wichtig, ob eine bestimmte Technologie das Prädikat „intelligent“ verdient. Entscheidend ist, was sie leisten kann. Wenn in diesem Beitrag von KI die Rede ist, könnte es ebenso gut „fortgeschrittene Computertechnik“ heißen. Dem allgemeinen Sprachgebrauch folgend werden jedoch die neuen technischen Möglichkeiten der KI zugeschrieben. 

II. Rechtschreibung und Hasskommentare 

Beschleunigte Arbeitsabläufe und bessere Qualität 
Jeder Leser von journalistischen Print- oder Online-Produkten hat sich schon über Rechtschreib- oder Grammatikfehler geärgert. Auch bei großer Sorgfalt und mit abschließender Kontrolle durch Korrektoren lassen sie sich nicht immer verhindern. Was wäre, wenn eine Maschine vollkommene Fehlerfreiheit garantieren könnte? Arbeitsabläufe würden sich beschleunigen, und die Produktqualität würde verbessert. Gerade im Online-Journalismus kann eine halbe Stunde im Konkurrenzkampf mit anderen Medien entscheidend sein. Oft stellt sich die Frage: Sofort veröffentlichen, ohne Korrekturlesen? Oder dreißig Minuten später online gehen, dann aber fehlerfrei? Diese Entscheidung wäre obsolet, würde KI Texte in Sekundenschnelle korrigieren. 

Hasskommentare: automatische Korrektursysteme 
Manche Medien ermöglichen ihren Nutzern, Online-Beiträge zu kommentieren. Und nicht selten kommt es zu Hasskommentaren oder gar volksverhetzenden Anmerkungen. Sie so schnell wie möglich zu löschen oder von vornherein zu verhindern, muss das Ziel jedes Mediums sein, zumal es hier gesetzliche Vorgaben (5) gibt. KI-Systeme könnten schon bald in der Lage sein, Hasskommentare eigenständig zu erkennen und zu löschen – viel schneller als ein Mensch, und rund um die Uhr. Es gibt bereits heute Software zum Aufspüren von Schlagworten, die auf problematische Inhalte hinweisen. Doch die Leistungsfähigkeit dieser regelbasierten Systeme ist begrenzt, weil sie die Bedeutung von Texten nicht verstehen. Das werden KI-Systeme mit semantischer Kompetenz voraussichtlich bald können. Auch automatische Korrektursysteme werden davon profitieren. 

III. KI überwindet Sprachbarrieren 

Internationalisierung des Journalismus 
Semantische KI, die Texte inhaltlich erfasst, ist auch eine Voraussetzung für gelungene automatische Übersetzungen. Übersetzungsprogramme gibt es schon lange, doch die 
Ergebnisse sind oft unzureichend. Manche Bedienungsanleitung gibt davon Zeugnis. Die Sprachqualität reicht für journalistische Produkte nicht aus. KI wird die Qualität automatischer Übersetzungen dramatisch verbessern. Im Idealfall merkt man einem übersetzten Text nicht mehr an, dass er ursprünglich in einer anderen Sprache geschrieben wurde. Das eröffnet den Medien neue Optionen. Zum Beispiel wären Kooperationen wie die Leading European Newspaper Alliance über Sprach- und Ländergrenzen hinweg sehr viel einfacher möglich als heute. 

Wenn ein in Deutsch verfasster Beitrag ohne nennenswerten Zeitverzug auch in Französisch, Schwedisch oder Englisch vorläge, könnte er parallel bei Partnermedien in den entsprechenden Ländern erscheinen. Das würde Kosten senken und in kleineren Märkten Produkte ermöglichen, die vorher nicht finanzierbar gewesen wären. Das publizistische Spektrum würde breiter. 

Wachsender Wettbewerbsdruck 
Seit August 2017 bietet die Kölner Firma DeepL (6) für sieben Sprachen Online-Übersetzungen in Echtzeit an. Geplant sind 230 Sprachkombinationen. Der Bedarf an Journalisten und Übersetzern dürfte durch den Einsatz solcher Systeme tendenziell kleiner werden. Autoren müssten mit wachsender Konkurrenz aus anderen Sprachräumen rechnen. KI ermöglicht die Globalisierung des Journalismus. Allerdings wird es immer auch Themen geben, die sich nur vor Ort von Journalisten im jeweiligen Land recherchieren lassen. Sprachen, die nur von relativ wenigen Menschen gesprochen werden, könnten durch diese Entwicklung allerdings weiter marginalisiert werden. 

IV. KI-Systeme schreiben eigenständig Beiträge 

Autonomes Schreiben 
Am technologischen Horizont zeichnen sich KI-Systeme ab, die eigenständig journalistische Texte verfassen. Jedoch hängt es stark vom Genre ab, wie schnell „Kollege Computer“ Journalisten aus Fleisch und Blut verdrängen wird. Medienhäuser experimentieren bereits mit Schreibrobotern. Führender Anbieter von Systemen zum Generieren von Texten aus Rohdaten ist das 2010 in Chicago gegründete Unternehmen Narrative Science (7). Die Grundlage dieser Technologie wurde mit dem Algorithmus StatsMonkey an der Northwestern University gelegt. Es gibt weitere Anbieter. Die Agentur AP verwendet die Software Wordsmith von Automated Insights zum Erstellen von Quartalsberichten. Bei der Washington Post textet die KI Heliograf kurze Sportberichte, und die Stuttgarter Zeitung nutzt AX Semantics von Aexea (8) für die Nachrichtenproduktion. Eine Software des spanischen Unternehmens Narrativa (9) verfasst für mehrere Medien Finanznachrichten. 

Bislang werden computergenerierte Texte vorwiegend in den Bereichen Sport, Finanzen und Wetter erstellt. Füttert man das System etwa mit Ergebnissen der 3. Fußballliga oder den MDAX-Kursen, so kann es aus diesen Daten mithilfe von Textbausteinen einen Artikel erstellen. Ein solcher Text liest sich nicht immer monoton, denn das System kann – nach vorgegebenen Regeln – aus vielen Bausteinen wählen und damit variieren. 

Semantische Fähigkeiten 
Forscher arbeiten an der Entwicklung von KI mit semantischen Fähigkeiten. Sie soll über ein gewisses inhaltliches Verständnis verfügen und in der Lage sein, aus Texten einer Nachrichtenagentur fertige Beiträge zu produzieren. Dazu würde sie das Rohmaterial auf vorgegebene Längen kürzen und an einen gewünschten Sprachstil anpassen. Auch die Auswahl von Bildern, das Erstellen von Überschriften, Unterzeilen und Bildunterschriften könnten fortgeschrittene Systeme übernehmen. Der (nahezu) vollautomatische Newsroom ist keine Utopie. 

V. Maschinen treffen Entscheidungen 

Auf Leserinteressen abgestimmt    
Heute wählen noch Redakteure die Themen aus. Dass sich auch dies automatisieren lässt, zeigen Newsaggregatoren wie Upday (10). Mittelfristig dürften journalistische Entscheidungen immer häufiger an lernfähige Maschinen delegiert werden. Gibt man zu optimierende Zielgrößen vor, kann eine lernfähige Maschine besser als jeder Mensch entscheiden. Ein wichtiger Aspekt ist natürlich die Frage, wofür sich die Leser interessieren. KI-Systeme können aus dem bisherigem Nutzerverhalten mit einiger Treffsicherheit ableiten, ob ein neues Thema auf großes Interesse stoßen wird. Diese Form der Automatisierung verstärkt allerdings den Echokammer-Effekt (11). Sogar Maschinen selbst können Opfer dieses Effekts werden, wie das Beispiel des Bots Tay von Microsoft zeigt: Innerhalb kürzester Zeit wurde dieses lernfähige System zu einem Rassisten und Leugner des Holocaust (12).  

Wenn es um automatisiertes Entscheiden geht, kommt die Technologie der Künstlichen Neuronalen Netze ins Spiel. Sie imitieren Mechanismen von Gehirnen und können so Aufgaben bewältigen, für die wir gemeinhin Intelligenz unterstellen. Künstliche Neuronale Netze lernen, sie sind zu Assoziationen fähig und können Muster erkennen – etwa Gesichter, Tiere oder schlicht Korrelationen in digitalen Daten aller Art. Ohne in die technischen Details zu gehen, darf man sich ihre Arbeitsweise so vorstellen: Sie werden mit möglichst vielen Daten trainiert, damit sie darin enthaltene, subtile Zusammenhänge lernen. In der Anwendungsphase kann das Netzwerk dann auch neue Daten interpretieren und Schlüsse ziehen – gleichsam auf der Basis des erlernten Wissens. 

Füttert man ein Künstliches Neuronales Netzwerk mit tausenden Tierfotos und sagt ihm, um welche Tierart es sich dabei jeweils handelt, kann es später auf neuen Fotos Tierarten eigenständig erkennen. In der Kriminalistik lässt sich die gleiche Technik zum Identifizieren von Personen nutzen. Trainiert man ein Künstliches Neuronales Netz mit menschlichen Gesichtern, erkennt es ein gelerntes Gesicht auf dem Bild einer Überwachungskamera. 

Optimierte Strategien 
Für lernfähige KI-Systeme gibt es in den Medien zahlreiche Anwendungen. Auch hier werden zunächst ausreichend viele Daten benötigt, um das System für die jeweilige Aufgabe zu trainieren. Einige Medien stellen einen Teil ihres Angebots gratis online, während ein anderer Teil nur zahlenden Kunden zugänglich ist. Doch wie entscheidet man im Einzelfall, für welchen Kanal sich ein Artikel besser eignet? Das ist eine komplexe Optimierungsaufgabe. „Frei zugänglich“ steht für möglichst große Reichweite, zum Bezahlen müssen Nutzer hingegen bereit sein. Natürlich verfügen die Entscheider über Erfahrungswissen, was sich gut verkaufen lässt und was eher für Reichweite und damit Werbung taugt. Diese Expertise kann auch ein KI-System erlangen. Es weiß von jedem veröffentlichten Beitrag, wie gut seine Performance war. Auch Parameter wie Wochentag, Uhrzeit oder eine zeitliche Konkurrenz zu bestimmten anderen Themen kann ein solches KI-System für zehntausende Veröffentlichungen berücksichtigen. Voraussetzung ist auch hier ein gewisses semantisches Verständnis. Schließlich muss die Thematik der Beiträge erkannt werden. Bis KI-Systeme dazu in der Lage sein werden, kategorisieren Menschen die Beiträge mit Schlagworten. 

Bereits heute optimiert Statistical Reasoning die Verbreitung journalistischer Produkte. So spielt etwa die Washington Post Online-Beiträge zunächst mit verschiedenen Überschriften aus – die indes noch Menschen formulieren. Schon nach kurzer Zeit lässt sich erkennen, welche Überschrift den stärksten Anreiz zum Klicken auslöst. Mit diesem Wissen setzt man dann voll auf den statistischen Sieger. Analog lassen sich auch Aufmacherbilder oder Dachzeilen variieren und testen. Mit mehr Parametern wird das Spiel zunehmend komplexer. Doch für KI-Systeme sind derartige Optimierungen ein Leichtes. 

Wissen über Kunden und Abonnenten 
Je mehr ein Medienhaus über seine Kunden und Abonnenten weiß, umso individueller kann es journalistische Angebote vermarkten. Das Motto „Daten sind das neue Öl“ gilt eben nicht nur für Google, Facebook & Co. Durch stetiges Auswerten des Nutzungsverhaltens kann KI zunehmend bessere Profile der Konsumenten erstellen. Diese lassen sich zum Optimieren der Angebote nutzen. Wenn ein Medienanbieter weiß, dass Leser X Fan des Fußballvereins Y ist, dann ist es ratsam, den Bericht zum Spiel von Y ganz oben auf die personalisierte Seite von X zu stellen. Wenn man individualisierte Produkte in großer Breite und Tiefe produzieren will, erfordert das einen massiven Einsatz von Technik. 

VI. Hören statt Lesen 

Der Fortschritt beim automatischen Erkennen gesprochener Worte hat bereits gesellschaftliche Auswirkungen. Es gibt in der Bevölkerung eine erstaunlich hohe Akzeptanz von sprachgesteuerten Assistenz-Systemen wie Alexa von Amazon, Siri von Apple oder Duplex von Google (13). Mit diesen Systemen kann man per Sprache kommunizieren und so Haushaltsgeräte steuern oder das Internet nutzen. Weil das so bequem und so intuitiv ist, werden Bedenken, die man mit einem „Internet-Mikrofon“ in der Privatsphäre haben könnte, offenbar hinten angestellt. 

Das Abfragen von im Web verfügbaren Informationen über einen digitalen Assistenten liegt im Trend. Doch dabei wird es wohl nicht bleiben. Schon bald werden die Nutzer solcher Systeme mit gleicher Bequemlichkeit auch neueste Nachrichten, andere journalistische Produkte oder das in Medienarchiven gespeicherte Wissen abrufen wollen. Hier dürften neue Geschäftsmodelle entstehen. 

Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn.

Dr. Norbert Lossau

Computergenerierte Stimmen kennt jeder vom Navigationssystem im Auto. Blinde oder Lesemuffel lassen sich Online-Texte vorlesen, und auf Bahnsteigen hören wir aus Lautsprechern Textbausteine zu verspäteten Zügen. Bislang sind Computerstimmen meist noch als solche zu erkennen. Durch KI wird sich jedoch deren Qualität so verbessern, dass sie völlig natürlich klingen. Das entsprechende Forschungsgebiet nennt sich NLG (Natural Language Generation), und erste Produkte sind bereits erhältlich – etwa die NLG-Software Quill von Narrative Science (7). Es wird auch möglich sein, dem Computer die Stimme einer realen Person zu verleihen. 

Mehr Komfort 
Für Medien ist relevant, dass Mensch und Maschine sprachlich kommunizieren können – auch mobil. Im Online-Journalismus gibt es einen starken Trend weg von der stationären hin zur mobilen Nutzung, bei einigen Medien beträgt ihr Anteil schon mehr als drei Viertel. Diese Entwicklung fördert die Audio-Nutzung. Das dürfte auch zu einem Comeback jener Formate führen, die sich nur schwer über das kleine Display eines Smartphones vermitteln lassen. Das Lesen langer, tiefgründiger Texte ist mobil eher anstrengend. Bequemer ist es, sie sich von einer angenehmen Stimme vorlesen zu lassen – mit geschlossenen Augen per Kopfhörer in der U-Bahn. Derzeit ist eine Renaissance von Podcasts zu beobachten, die um die Jahrtausendwende ihre erste Boom-Phase hatten. Besonders aktiv sind hier der Deutschlandfunk, der Bayerische Rundfunk, Spiegel-Online, WELT und Zeit-Online. 

VII. KI-Journalismus benötigt kritische Masse 

Journalismus war immer von Technologien abhängig, seien es nun Druckmaschinen, TV-Studios oder Sendeanlagen. Im Online-Zeitalter ist die Bedeutung von Technik jedoch noch einmal stark gewachsen. KI wird diesen Trend beschleunigen. Voraussetzung dafür sind jedoch ausreichend große Datenmengen, wobei sich die Frage stellt, wie Medien diese gewinnen können. Eine Möglichkeit liegt in der Zusammenarbeit mit Telekom- oder Tech-Unternehmen. 

Beispiel einer erfolgreichen Kooperation ist der Nachrichten-Aggregator Upday – ein Projekt von Axel Springer und Samsung (10). Auf den Smartphones von Samsung ist eine Upday-App vorinstalliert. Journalisten sammeln mit massiver Technikunterstützung aus vielen Quellen unterschiedlicher Sprachen jene Informationen, die dann individualisiert an die Nutzer der App ausgespielt werden. Das ist ein kleiner Vorgeschmack auf die Zukunft von KI und Medien. 

Neue Geschäftsmodelle 
Das Zeitalter der KI eröffnet den Medien diverse neue Geschäftsmodelle. Kooperationen bieten sich an, zwischen jenen, die über Inhalte (aktuell und im Archiv) verfügen, und jenen mit einem technischen Zugang zu vielen Menschen. Hier könnten auch digitale Assistenten zum Einsatz kommen. Man ruft ihnen – auf dem Sofa sitzend oder auch während einer Autofahrt – einfach zu: Lies mir den Leitartikel aus der Zeitung X vor. Oder: Was hat eigentlich Konrad Adenauer zu diesem oder jenem Thema gesagt? Oder: Wie wird morgen das Wetter? 

VIII. Journalismus und Blockchain 

Echtheit von Informationen 
Einige Experten nehmen an, dass auch die Blockchain-Technologie im Journalismus der Zukunft eine Rolle spielen wird. Die Krypto-Währung Bitcoin basiert auf diesem Konzept, das auch viele andere Anwendungen ermöglicht – etwa die Verwaltung von Grundbucheinträgen. Blockchain kombiniert Technologien der digitalen Vernetzung mit Kryptografie. Noch sind die Vorstellungen über ihren Einsatz im Journalismus vage. Manche erhoffen sich von Blockchain neue Formen der Zusammenarbeit von Journalisten sowie einen besseren Schutz von Informanten. Sie könnte auch die Echtheit von Informationen sicherstellen, weil einmal in einen Block eingetragene Daten nicht mehr verändert werden können. Blockchain könnte auch neue Finanzierungsmodelle von Journalismus ermöglichen. 

In den USA startete im Frühjahr 2018 mit Civil (14) das erste auf Blockchain basierende Medienprodukt. Der Venture Capital-Geber ConsenSys (15) schob das Projekt mit fünf Millionen US-Dollar an. Mit dem Nachrichten- und Kulturmagazin Popula ist ein weiteres Blockchain-Projekt geplant. In Deutschland gibt es das von Googles Digital News Initiative (16) geförderte Content Blockchain Project. Hier sollen neue Wege der Finanzierung und Vermarktung von Medienprodukten getestet werden. Beteiligt sind die Nachrichtenagentur dpa, Golem und DIE ZEIT. 

Noch lässt sich nicht sagen, ob Blockchain tatsächlich eine maßgebliche Rolle in der Welt des Journalismus spielen wird. Doch wenn, ist eine Kombination mit KI wahrscheinlich. 

IX. Zusammenfassung und Diskussion 

KI-Technologen führen zu einem vielschichtigen Wandel der Medienindustrie. Sie ermöglichen eine immer stärkere Personalisierung. Semantische KI-Systeme werden auch inhaltliche Arbeiten übernehmen. Mit wachsender Leistungsfähigkeit werden Maschinen Beiträge teilweise oder komplett produzieren können. Entscheidungen, die heute noch erfahrene Mitarbeiter treffen, lassen sich an lernfähige Maschinen delegieren. Es werden weniger Angestellte benötigt – von der Textkorrektur über die Redaktion bis hin zu Führungsaufgaben. Die Hierarchien dürften flacher werden. 

Medieninhalte werden künftig immer häufiger gesprochen als geschrieben. Das gilt auch für den Rückkanal zum Kunden. Audio-Technologien ermöglichen neue Formen der Mediennutzung. Zu erwarten sind Kooperationen von Medien und Telekom- oder Tech-Unternehmen. Der Zugang zu einer großen Zahl potenzieller Nutzer ermöglicht neue journalistische Formate und Service-Angebote. Die in den Archiven der Medienhäuser schlummernden Daten werden sich dank KI kapitalisieren lassen. Die Qualität journalistischer Produkte lässt sich durch Rückkopplung zum Leser verbessern. Rechtschreib- oder Stilfehler werden durch den Einsatz von KI verschwinden. 

Die neuen Technologien eröffnen den Medien viele Chancen. Es gibt aber auch Risiken, die man rechtzeitig bedenken sollte. Die KI-gesteuerten Mechanismen der Individualisierung fördern das Phänomen der Filterblase. Wenn jeder nur noch nach eigenen Interessen personalisierte Medienprodukte erhält und es in der Gesellschaft kein gemeinsames Basiswissen mehr gibt, könnte dies für den politischen Diskurs und die Zukunft der Demokratie weitreichende Folgen haben. An dieser Stelle ist ein Dialog von Gesellschaft, Medien und Politik wünschenswert, um möglichen Fehlentwicklungen proaktiv entgegen zu steuern. Eine von einigen Medien bereits verfolgte Strategie ist das Club-Konzept. Nutzer des betreffenden Mediums sollen sich in der realen Welt begegnen, um miteinander, den Journalisten und auch mit Politikern, Wissenschaftlern oder Wirtschaftsführern von Angesicht zu Angesicht zu kommunizieren. Das Analoge könnte das Digitale erden. 

Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen,
dass ihre Daten nicht missbraucht werden.

Dr. Norbert Lossau

Um im Wettbewerb erfolgreich zu sein, werden Medien künftig viel stärker persönliche Daten ihrer Kunden nutzen. Je mehr man über seinen Leser, Zuhörer oder Zuschauer weiß, umso besser kann man journalistische Produkte und die sie finanzierende Werbung maßschneidern. Damit stellt sich auch die Frage nach dem Datenschutz. Medienkunden sollen nicht nur den verbreiteten Inhalten trauen können, sondern müssen sich auch darauf verlassen dürfen, dass ihre Daten nicht missbraucht werden. Der Datenskandal von Facebook und der inzwischen insolventen britischen Firma Cambridge Analytica hat gezeigt, wie schnell sich der Wind in puncto Vertrauen drehen kann. Medienunternehmen könnten in Zukunft ähnlich schnell am Datenschutz-Pranger stehen wie Betreiber sozialer Netzwerke. 

Das seit Mai 2018 gültige, neue europäische Datenschutzrecht schafft Randbedingungen, die allen Unternehmen das Sammeln personenbezogener Daten erschweren. Insbesondere der Austausch solcher Informationen zwischen verschiedenen Unternehmen wird stärker reglementiert. Wer selbst über viele Daten verfügt und weniger auf Daten Dritter angewiesen ist, kann von der neuen Rechtslage in gewisser Weise profitieren. Im KI-getriebenen Journalismus wird die kritische Masse wichtiger. Gibt es nicht genügend Daten, erzielen die KI-Algorithmen nur schlechte Ergebnisse. Insgesamt fördert die technologische Entwicklung das Entstehen großer Einheiten. Daraus werden sich medienpolitische Fragen ergeben. Der KI-bedingte Wegfall von Sprachgrenzen ist ein Effekt, der zu supranationalen und damit deutlich größeren Nutzergruppen führen könnte. Offen ist die Frage, wie sich dies auf den Wettbewerb der verschiedenen Medien auswirkt. 

Zum Schluss ein Gedanke, der heute noch Science-Fiction ist, aber Wirklichkeit werden könnte. KI-Systeme, die qualitativ hochwertigen Journalismus präsentieren sollen, werden selbst journalistische Lektüre benötigen, um sich auf dem Laufenden zu halten und stets dazu zu lernen. Es klingt zwar merkwürdig, doch in absehbarer Zeit gibt es wahrscheinlich Medienprodukte von Maschinen für Maschinen. Doch vielleicht wollen die Maschinen ab und zu auch mal einen richtig guten Artikel lesen – den ein Mensch geschrieben hat. 


Über den Autor

Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Er ist ein Experte für sowohl die technischen Aspekte der KI als auch deren Auswirkung auf die Medienlandschaft.

www.kas.de

Konrad-Adenauer-Stiftung e. V.
Analysen und Argumente Nr. 318 September 2018

Literaturverzeichnis 

1. Eberhard Schöneburg (Hrsg.): „Industrielle Anwendung Neuronaler Netze“. Addison-Wesley. 
2. Norbert Lossau: „Wenn Computer denken lernen“. Ullstein. 
3. Dan Brown: „Origin“. Lübbe. 
4. Ex Machina, britischer Spielfilm von Alex Garland (2015) 
5. https://www.welt.de/kultur/article172179137/NetzDG-Wie-ein-gut-gemeinetes-Gesetz-den-Hass-im-Netz-verstärkt.html (Letzter Abruf: 16.7.2018). 
6. https://www.deepl.com/translator (Letzter Abruf: 16.7.2018). 
7. htpps://narrativescience.com (Letzter Abruf: 16.7.2018). 
8. https://www.ax-semantics.com/de (Letzter Abruf: 16.7.2018). 
9. http://www.narrativa.com/aijournalism (Letzter Abruf: 16.7.2018). 
10. http://www.upday.com/de/ (Letzter Abruf: 16.7.2018). 
11. Norbert Lossau: „Gefährden Fake News die Demokratie?“. Beitrag in „Digitale Gesellschaft“, Konrad-Adenauer-Stiftung. 
12. https://www.welt.de/wirtschaft/webwelt/article153664299/Microsofts-KI-findet-Hitler-besser-als-Obama.html 
13. https://www.zeit.de/2018/14/amazon-alexa-sprachassistentin-persoenliche-daten-test (Letzter Abruf: 16.7.2018). 
14. https://joincivil.com (Letzter Abruf: 16.7.2018). 
15. https://new.consensys.net (Letzter Abruf: 16.7.2018). 
16. https://newsinitiative.withgoogle.com/dnifund/ (Letzter Abruf: 16.7.2018). 

Impressum

Der Autor Dr. Norbert Lossau ist Physiker, Journalist und Mitglied im Beirat der Wissenschaftspressekonferenz (WPK).
Konrad-Adenauer-Stiftung e. V.
Dr. Norbert Arnold Leiter des Teams Bildungs- und Wissenschaftspolitik
Hauptabteilung Politik und Beratung
Telefon: +49(0)30 / 26 996-3504
E-Mail: norbert.arnold@kas.de
Postanschrift: Konrad-Adenauer-Stiftung, 10907 Berlin
Herausgeberin: Konrad-Adenauer-Stiftung e.V. 2018, Sankt Augustin/Berlin
Gestaltung: yellow too Pasiek Horntrich GbRSatz: Janine Höhle, Konrad-Adenauer-Stiftung e.V.
Lektorat: Jenny Kahlert, Konrad-Adenauer-Stiftung e.v.
Druck: copy print Kopie & Druck GmbH, Berlin
Printed in Germany.
Gedruckt mit finanzieller Unterstützung der Bundesrepublik Deutschland.
ISBN 978-3-95721-466-9

Der Text dieses Werkes ist lizenziert unter den Bedingungen von „Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 4.0 international”, CC BY-SA 4.0 (abrufbar unter: https://creativecommons.org/licenses/by-sa/4.0/legalcode.de)
Bildvermerk – Titelseite© liuzishan, fotolia

 

Deutschland auf Rang 2 der meisten Datenpannen in Europa

Fast die Hälfte (47%) der Firmen geben an, dass Nachforschungen am meisten von fehlenden Ressourcen beeinflusst werden

Der führende Anbieter für Ethik- und Compliance-Software und -Dienstleistungen, NAVEX Global®, hat einen neuen Bericht über Datensicherheit und Compliance in Unternehmen veröffentlicht. Dabei ergab sich, dass zwischen Mai 2018 und Januar 2019 in Deutschland 12.600 Datenschutzverletzungen gemeldet wurden. Damit ist Deutschland nach den Niederlanden das Land mit den zweitmeisten Verstößen in Europa.

Der Bericht deckte auch auf, dass fast 7 von 10 Compliance-Beauftragten (69%) sich über Datenschutz Sorgen machen und 68% Netzsicherheit zum einem der wichtigsten Ethik- und Compliance-Themen erklärten, obwohl die regelmäßige Kontrolle Dritter (52%) und ein durchgehend risikobasierter Ansatz (44%) die effektivsten Faktoren für Verbesserung im Vergleich zu Risikomanagement sind.

Trotzdem gibt es immer noch mehr als ein Viertel (27%) an Firmen mit einem veralteten Compliance-Programm, für die Datenschutz kein besonderer Grund zur Sorge ist. Auf die Frage, was den größten Einfluss darauf hat, wie lange es dauert Nachforschungen anzustellen und abzuschließen, nannten fast die Hälfte (47%) fehlende Ressourcen als Hauptgrund.

Aus dem Bericht kann man schließen, dass zu wenige Schulungen zu dem Thema teilweise dafür verantwortlich sind. In Unternehmen mit einem rückwirkenden Compliance-Programm wurden nur 53% im Senior Management und ohne Führungsverantwortung zu Datenschutz und sogar nur 41% zu Netzsicherheit geschult. In Firmen mit fortschrittlicheren Compliance-Programmen erhalten 22% derer ohne Führungsverantwortung gar keine Schulungen zu Datenschutz und Netzsicherheit. Das bedeutet, dass fast ein Viertel der Arbeitnehmer gar keine Handlungsempfehlungen oder Orientierungshilfen hat.

Trotz alledem sind die Kosten für Datenpannen in kleinen Unternehmen im Jahr 2019 um 50% zurückgegangen. Allerdings haben größere Unternehmen weniger gute Ergebnisse zu verzeichnen: bei mittelgroßen Firmen sind die Kosten um 327% und bei großen Unternehmen um 341% gestiegen.

Unternehmen mit Risikomanagement-Programmen machen dagegen einen Schritt in die richtige Richtung und 37% geben an, dass es dabei geholfen hat eine Vertrauenskultur aufzubauen. Für fast zwei Drittel (64%) der Firmen war ein Verhaltenskodex der Baustein, der den positivsten Einfluss auf Verletzungen ethischer Grundsätze hatte. Außerdem war für 60% ein internes Meldesystem, wie zum Beispiel eine Risikomanagement-Hotline nützlich, um Verstöße am Arbeitsplatz und Verletzungen der Firmenrichtlinien zu identifizieren.

„Datenschutz ist ein Vollzeitjob und ein großer Risikobereich. Die bloße Anzahl an Themen ist neu und es werden ständig mehr. Wenn Leute sich nicht an Datenforderungen halten, dann muss HR miteinbezogen werden, um sicherzustellen, dass es entsprechende Zuständigkeiten gibt.“

Carrie Penman, Chief Compliance Officer und Senior Vizepresident, Beratungsdienst, NAVEX Global

Jessica Wilburn, Datenschutzbeauftragte und führender Rechtsbeistand bei NAVEX Global, fügt hinzu: „Interne Kommunikation und Weiterbildungen sind essenziell, um Data Governance und Compliance zu unterstützen. Ja, es ist wichtig aufzuschlüsseln, was Datenschutz für verschiedene Abteilungen, Teams und Positionen bedeutet, aber es ist noch wirkungsvoller, wenn wir damit anfangen, worum es wirklich geht: Menschen zu schützen.“

Ansprechpartner 
Jonathan Lohbeck 
jonathan.lohbeck@searchlaboratory.com 
+44 (0113) 2121211 

Dies ist eine Pressemitteilung von NAVEX Global

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay