Zukunft der Handelswerbung

Die Zukunft der Handelswerbung: Der Mix macht‘s

In Zeiten voranschreitender Digitalisierung und verändertem Mediennutzungsverhalten treffen alte und neue Werbeformen aufeinander, deren Gunst um Wahrnehmung und Wirkung seitens der Konsument:innen immer wieder neu zu hinterfragen sind. Dazu kommen gesetzliche Einschränkungen wie beispielsweise die der Cookie-Nutzung im Rahmen der DSGVO und ein hoher Kostendruck insbesondere im Bereich der Print-Werbung durch hohe Papierpreise und mindestlohnbedingte Logistikkosten.

Die Entscheidung, für welchen Kanal, welches Format oder welche Zielgruppe die Werbe-Euros ausgegeben werden sollen, wird somit immer schwieriger und verlangt ein hohes Detailwissen über die Zielgruppen, deren Erreichbarkeit und Gewohnheiten sowie über die Wirkungsmechanismen crossmedialer Angebotskommunikation.

 IFH MEDIA ANALYTICS, die neue Tochtermarke des IFH KÖLN, hat sich im Rahmen der Studie „Future of Media“ mit den Auswirkungen der Digitalisierung auf zukunftsgerichtete, werbliche Ansprachen – Wahrnehmung, Nutzung und Wirkung – auseinandergesetzt und liefert dabei hilfreiche Impulse.

Fokus klassische Werbung

Traditionelle Werbeformen wie der Prospekt, Fernsehwerbung oder auch das Plakat können grundsätzlich „aufatmen“.

Wenngleich Werbung heutzutage in Summe primär digital geprägt ist, so fällt auf, dass die klassischen Kanäle weiterhin funktionieren! In Abhängigkeit des Alters erreicht man bestimmte Zielgruppen nach wie vor über langjährig etablierte Werbeformen wie das TV oder den Prospekt. Dies umso mehr, wenn von klassischer Angebotskommunikation – also regelmäßiger Produktwerbung – gesprochen wird. Hier ist der Ritualisierungsgrad und damit der Gewohnheitsfaktor so dominant, dass absehbar und kurzfristig keine signifikante Veränderung zu erwarten ist. Dazu kommt eine hohe kaufauslösende Relevanz des Mediums. Insbesondere das Leitmedium Prospekt im Lebensmitteleinzelhandel besticht durch seine hohe Conversionrate gepaart mit einer hohen Reichweite und bedingt durch die bestehende „Opt-Out“-Zulässigkeit. Diese Grundlage für den Erfolg des Mediums könnte durch eine gesetzlich veränderte Rahmenbedingung entzogen werden und damit das Gleichgewicht zwischen digitaler und klassischer Werbung zu Fall bringen. Eine „Opt-In“-Anpassung für unadressierte Prospektwerbung würde zwar positiv eine Streuverlustoptimierung bewirken, auf der anderen Seite aber den werblichen Zugang zu seither empfangsbereiten Verbraucher:innen stark einschränken.

Für die Zukunft hieße das:

Neue Verhaltens- und Gewohnheitsmuster würden sich schlagartig etablieren, die zu sinnvollen, neuen Werbeallokationen führen und digitale Medien weiter stärken würden.

Fokus Online Werbung

Die Werbung im Internet wird im Wesentlichen von drei Playern dominiert: Amazon, Google und Social Media. Rund 50 Prozent aller Befragten gaben an, dass sie primär auf diesen Plattformen für Werbung empfänglich seien. Social-Media-Kanäle haben je nach Alter und Zielstellung ganz unterschiedliche Profile, Stärken und Schwächen. TikTok verfügt über eine hohe Durchschlagkraft bei jungen Internetnutzer:innen. Instagram punktet mit hohem Inspirationspotenzial, mit Innovationen und Trends, mit Reichweite über Blogger:innen und Prominente. YouTube schließlich ist der König unter den Social-Media-Plattformen. Bei der Nutzung, aber auch bei der Imageeinstufung ist das Netzwerk die Nummer eins. Seine Informationsfunktion zu ausgewählten Themen und Produkten macht YouTube über alle Altersgruppen hinweg beliebt. Facebook hingegen spielt insbesondere bei jüngeren Zielgruppen keine Rolle mehr. Trotzdem können Unternehmen von der internationalen Reichweitedes Netzwerkes profitieren.

Es ist davon auszugehen, dass Social Media für das Werbeumfeld in Zukunft an Bedeutung gewinnen und sein Potenzial entfalten wird. Nutzergruppen werden immer stärker ausgeweitet und neue Nutzerfunktionen kommen hinzu, um mehr Kommerzialisierung zu erreichen.. Hierbei ist ausschlaggebend, dass die Kundinnen und Kunden entlang der Customer Journey über die Plattform geführt und betreut werden ohne die Plattform wechseln zu müssen. Das Ideal: Ein Zusammenspiel von Information, Inspiration und Erlebnis auf der einen Seite und der Kauf- bzw. Checkout-Prozess auf der anderen Seite mit so wenig Mausklicks wie nur möglich.

Einen besonderen Stellenwert im Rahmen des sogenannten Social Commerce – Käufe, die über soziale Netzwerke angeregt und abgeschlossen werden – wird weiterhin das Influencermarketing einnehmen.  Im Schnitt ist jeder Dritte im Netz durch einen Influencer auf Werbung aufmerksam geworden – bei den Jüngeren war es sogar über die Hälfte. Dabei ist besonders beeindruckend, dass dies bis auf wenige Ausnahmen auch zum Kauf geführt hat.

Die Wirkung dieser Werbeform auf den sozialen Netzwerken ist demnach unumstritten. Hohe Reichweiten innerhalb der zumeist jungen Zielgruppen ermöglichen einen schnellen Bekanntheitsgrad. Der unterhaltende und inspirierende Faktor verleitet zum Ausprobieren und zum Kauf: Man möchte sich selbst einen Eindruck machen, um „Mitreden“ zu können.

Fazit: Der Werbemarkt der Zukunft

Die gesamten Entwicklungen führen in Summe zu fünf naheliegenden Merkmalen, die für den zukunftsorientierten Werbemarkt bezeichnend sein werden.

  1. Messen und optimiertes Aussteuern traditioneller Werbung
    Der Einfluss klassischer Werbung auf das Kaufverhalten muss validierbar sein – online wie auch stationär.

  2. Hybride Angebotskommunikation
    Die intelligente Verbindung der Medienkanäle ermöglicht eine breit gefächerte Verbraucheransprache über unterschiedliche Mediennutzungskanäle in unterschiedlichen Alltagssituationen hinweg. Ein digitaler Transformationsprozess findet begleitend statt.

  3. Alltagsintegrierte Push-Kommunikation
    Werbung bedarfsgesteuert erhalten ohne dass man danach suchen muss (bspw. über einen digitalen Werbeassistenten).

  4. Verfügbare Kundendaten
    Je höher das Wissen über Verbraucher:innen, der Wünsche und Bedarfe und der Lebenssituation desto höher der Individualisierungsgrad der Werbung und die zielgerichtete Ansprache.

  5. Social Commerce
    Die sozialen Plattformen werden zu kommerziellen Plattformen weiter ausgebaut. Neue Nutzergruppen werden perspektivisch erschlossen.

Über den Autor

Andreas Riekötter, Geschäftsführer IFH

Mathematische Optimierung für bessere KI

Die Digitalisierung bestehender Prozesse allein reicht nicht aus: Unternehmen müssen automatisiert die kundenindividuellen Entscheidungen treffen, um sich im Wettbewerb zu differenzieren. Autor Marc Drobe von FICO berichtet über mathematische Optimierungspotenziale bei Algorithmen.

Die Digitalisierung ist schon seit einigen Jahren auf der Agenda vieler Unternehmen und Corona hat die Notwendigkeit und Entwicklung zusätzlich beschleunigt. Lag der Fokus dabei bisher überwiegend auf der Digitalisierung bestehender Prozesse, ist diese Strategie für die mittel- und langfristige Differenzierung und Erreichung der Geschäftsziele vor allem bei komplexen Portfolio-Entscheidungen nicht ausreichend. Zwar nutzen viele Unternehmen bestehende Daten immer mehr, um mit der Analyse dieser Daten ihre Kunden besser zu bedienen und eine höhere Profitabilität zu erreichen. Aber nur, wenn optimale, automatisierte und datengetriebene kundenindividuelle Entscheidungen in ihre digitalen Prozesse integriert werden, kann ihnen das wirklich gelingen.

So stellen sich Managern komplexer Produkt- oder Serviceportfolios drei große Herausforderungen: Erstens müssen sie für jeden einzelnen Kunden und alle möglichen Entscheidungsoptionen ermitteln, welcher Wertbeitrag zu erwarten ist. Zweitens benötigen sie innerhalb bestehender interner und externer Restriktionen sowie teilweise konkurrierender Ziele mithilfe von Simulationen, Transparenz über die zu erwartenden Portfolioergebnisse, um damit Entscheidungen über Portfoliostrategien zu erleichtern und diese abzusichern. Drittens müssen sie mithilfe von mathematischer Optimierung die Strategie ermitteln, welche innerhalb der gegebenen Ziele und Restriktionen zu optimalen Ergebnissen führt. Diese gilt es dann, innerhalb des (digitalen) Prozesses umzusetzen.

Vorhersagen auf der Basis historischer Daten sind nicht genug – Beispiel Finanzinstitute

Dr. Marc Drobe, Senior Partner Solution Sales bei FICO, erläutert, wie sich bei automatisierter Entscheidungsfindung Optimierungen durchführen lassen.

Nehmen wir als Beispiel die Finanzbranche mit komplexen Portfoliostrategien. Ein volatiles Marktumfeld und gestiegene Kundenanforderungen für Banken und Finanzinstitute machen Simulationen und Stresstests immer wichtiger. Neue Szenarien müssen analysiert, Auswirkungen auf Portfolios projiziert und angepasste Entscheidungsstrategien zur Erreichung der KPIs zeitnah implementiert werden. Die automatisierte Evaluation von Kunden und kundenzentrierte Aktionen rücken dabei in den Vordergrund und Modelle werden agil an neue Daten angepasst. Längst reichen traditionelle Ansätze zur Segmentierung des Portfolios und Vorhersage individuellen Kundenverhaltens nicht mehr aus. Selbst die Entwicklung von datenbasierten Strategien und Advanced Analytics helfen nur in zwei Punkten bei der Entscheidungsfindung. Sie klären erstens, was daraus resultieren könnte, wenn eine spezifische, vorab definierte Aktion für einen Kunden gewählt wird und zweitens, welche Entscheidung für den Kunden isoliert betrachtet am besten ist.

Entscheidungsmodellierung und Optimierung mithilfe von künstlicher Intelligenz entwickeln den Predictive Analytics-Ansatz weiter. Sie ermöglichen Simulationen darüber, welche Entscheidungsstrategie die beste im Hinblick auf die Erreichung von definierten Portfoliozielen ist. Finanzinstitute treffen beispielsweise bei der Kreditvergabe täglich individuelle Entscheidungen zu Kunden, die im Rahmen einer Entscheidungsstrategie definiert sind. Nun gibt es aber für jeden Kunden viele mögliche Entscheidungen und nicht nur eine. Jede dieser Optionen bringt einen anderen Beitrag zur Erreichung der Portfolioziele. Zu beachten sind dabei einerseits die zu erwartenden Erträge, Verluste und Kosten. Andererseits spielt die vorhergesagte Reaktion des Kunden auf unterschiedliche Entscheidungen eine wichtige Rolle. Abbildung 1 zeigt dieses anhand einer einfachen Preisentscheidung.

Außerdem müssen dabei bestehende interne und externe Restriktionen berücksichtigt werden. Die dadurch entstehende Komplexität kann nur mit dem Ansatz der mathematischen Optimierung eindeutig gelöst werden.

Abbildung 1: Entscheidungsmodellierung und Optimierung bringen die Portfoliostrategie auf die nächste Entwicklungsstufe

Entscheidungsfindung auf neues Niveau bringen – Komplexität managen

Folgende Analogie verdeutlicht, wie Decision Impact Modelling und Optimierung die Strategie- und Entscheidungsfindung beispielsweise für den Portfoliomanager eines Finanzinstitutes auf ein neues Niveau heben: Die Strategie- bzw. Entscheidungsfindung ist vergleichbar mit dem Fliegen eines Flugzeugs. Dabei ist im klassischen Ansatz die Preiselastizität der Kompass, um in die richtige Richtung zu fliegen. Das Risikomodell ist die Höhenmeterangabe, die verhindert, dass es einen Crash gibt. Die Erfahrung zeigt, wie weit und in welches Land das Flugzeug fliegen soll. Das Decision Impact Modelling ist das GPS beziehungsweise der Bord-Computer im Flugzeug. Er weist den Weg zum Zielflughafen. Auf das Bankenbeispiel übertragen: Welche individuellen Kundenentscheidungen sind notwendig zur Erreichung der angestrebten KPIs. Aber auch Streckenabschnitte mit schlechtem Wetter, die vermieden werden sollten, werden angezeigt – wie muss ich die Entscheidungsstrategien in einem sich ändernden Wettbewerb und regulatorischen Umfeld anpassen? Mathematische Optimierung ist dabei analog zum Autopiloten. Er zeigt dem Portfoliomanager, welche Entscheidungen für jedes Konto getroffen werden müssen, um genau zum Ziel zu kommen und nicht nur in die Nähe davon.

In der Praxis sind Decision Impact Modelling und mathematische Optimierung das Mittel der Wahl, um unterschiedlichste Szenarien zu simulieren: Wenn ich den Nettozinsertrag maximieren möchte, welchen Einfluss hat das auf das Neugeschäftsvolumen? Wie verändert sich der Zinsertrag, wenn ich das Volumen maximiere? Wie kann ich gleichzeitig Zinsertrag und Volumen steigern, und wo sind die Grenzen? So lassen sich verschiedenen Szenarien analysieren, projizierte Portfolioergebnisse darstellen und Entscheidungsstrategien erstellen, die direkt operativ umgesetzt werden können.

Anstatt das Portfolio zu segmentieren und jedem Mikrosegment eine Aktion zuzuweisen wie im klassischen Portfoliomanagement, werden innerhalb der KI-basierten Entscheidungsoptimierung alle möglichen Aktionen betrachtet, die für jeden Kunden ergriffen werden können. Dabei werden dieselben Daten genutzt wie beim traditionellen Ansatz, aber auch sogenannte Action Effect Modelle genutzt, die es ermöglichen auf der Kundenebene erwartete Ergebnisse für unterschiedliche Entscheidungen zu projizieren. So lassen sich alle möglichen Entscheidungen zeitnah testen, berechnen und im Rahmen der definierten Restriktionen die Erreichung der Portfolioziele projizieren.

Richtige Antworten auf komplexe Fragestellungen – schnell und für unterschiedlichste Szenarien

Entscheidungsmodellierung und -optimierung geben also Antworten auf typische Fragen, die sich Portfoliomanager im Zusammenhang mit Entscheidungsstrategien stellen: Was sind Auswirkungen auf mein Portfolio und meine Ziele, wenn ich meine Strategie unter bestimmten gegebenen Rahmenbedingungen auf diese oder jene Weise ändere? Bei jeder Portfolioentscheidung müssen konkurrierende Ziele berücksichtigt werden.

Bisher beispielsweise bei Kunden aus der Finanzbranche erzielte Ergebnisse sprechen für diesen Ansatz (siehe Abbildung 2). Er ermöglicht nicht nur verbesserte Kundenentscheidungen, die zu einer höheren Portfolioprofitabilität führen. Er gibt auch tiefere Einblicke in das Portfolio und dessen Mikrosegmente. Diese Transparenz ist eine notwendige Voraussetzung, um auch im Umfeld von dynamischem Wettbewerb und wechselnden wirtschaftlichen Rahmenbedingungen profitable Portfolien zu managen.

Abbildung 2: Erfolge von Entscheidungsmodellierung und mathematischer Optimierung bei Kunden aus der Finanzbranche von FICO

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Reshape 2022 online streamen

Die erste globale und virtuelle Beschaffungskonferenz von Amazon Business ist ab heute online verfügbar.

Referent:innen aus globalen Unternehmen wie Accenture, Busy Bees und Johnson & Johnson haben sich über die neuesten Einkaufsstrategien und Technologien ausgetauscht.

Reshape 2022, die globale virtuelle Veranstaltung rund um das Thema Beschaffung, hatte führende Vertreter:innen der Beschaffungsbranche aus Europa empfangen. Diese repräsentierten ein breites Spektrum von Branchen, darunter Geschäfts-und Finanzdienstleistungen, Fertigung, Software und Technologie, Einzelhandel, Transport und Logistik, Bildung und Bauwesen.

Ab heute können Interessierte alle 15 Sessions der Veranstaltung ganz einfach online streamen.


Die strategische Rolle der Beschaffung innerhalb von Unternehmen sowie die Beschaffung als Teil einer nachhaltigen Strategie waren die meistdiskutierten Themen der Veranstaltung.


Zu den Highlights gehörten außerdem:

•Endre Støgård, Global Category Director bei Accenture, der sich mit der Nutzung agiler Prozesse zur Anpassung eines dezentralen Beschaffungsmodells auseinandergesetzt hat.

•Andrea Deichert Oswald, General Director of Supplier Diversity and Procurement Operations bei Union Pacific, die hingegen über die Identifizierung, Beschaffung und Nachverfolgung der Ausgaben von zertifizierten lokalen und kleinen Unternehmen spricht.

Auch die Verfolgung von nachhaltigen Produkten steht im Fokus.

•Harry Walker, Procurement Manager von Busy Bees, der darstellt, wie das Unternehmen den Einkauf für seine Mitarbeiter:innen durch ein digitales Beschaffungsmodell vereinfacht und die Einkaufsrichtlinien anpasst.

•Shashi Mandapaty, die erzählt, wie das Unternehmen digitale Beschaffungslösungen einsetzt. Als Chief Procurement Officer und Corporate Tier bei Johnson & Johnson setzt sie alles daran, die Produktivität zu steigern und wichtige strategischen Einkaufsziele zu fördern.

„Wir freuen uns sehr, dass wir diese Veranstaltung zum ersten Mal auch für Kund:innen in Europa anbieten können. So haben sie die Möglichkeit, sich mit führenden Einkäufer:innen aus der ganzen Welt zu vernetzen und Einblicke in die Herausforderungen im Bereich der Beschaffung zu erhalten – von der Nachhaltigkeit bis hin zur Nutzung agiler Beschaffungsprozesse“, so Nabil De Marco, General Manager, Europe, Amazon Business.

Mehr Informationen finden Sie auf dem Amazon Business Blog.

Aufmacherbild / Quelle/ Lizenz
Photo by Samantha Borges on Unsplash

Wie DevOps zu DevSecOps wird

Von Lucy Kerner*

Hacks der Software Supply Chain stellen für Unternehmen eine große Sicherheitsbedrohung dar. Unter Nutzung von Drittanbieter-Software oder frei verfügbaren Software-Bibliotheken und -Komponenten können Cyberkriminelle gleichzeitig Tausende von Unternehmen und Organisationen infiltrieren. Einer der bisher größten derartigen Eingriffe in die Software-Lieferkette fand 2020 statt: Ein bösartiger Code in einem SolarWinds-Software-Update infizierte zunächst US-Bundesbehörden und anschließend weltweit rund 18.000 Organisationen. Und im März dieses Jahres waren mehr als 20.000 Organisationen von einer Schwachstelle in Microsoft Exchange Server betroffen.

Wie können Unternehmen und Organisationen auf diese Sicherheitsbedrohungen reagieren? Ein Verzicht auf die Nutzung von Software-Lieferketten ist schließlich kein gangbarer Weg. Der Schlüssel liegt in der Anwendung derselben Ideen, Prozesse und Tools, die auch den Erfolg von DevOps ermöglichen. Das heißt, Sicherheitsansätze müssen integraler Bestandteil aller Prozesse rund um Software-Lieferketten sein. Auf diese Weise kann eine „DevSecOps“-Kultur etabliert werden.

Die Sicherheit in den Fokus rücken

Der DevOps-Ansatz zeichnet sich durch die Automatisierung der Prozesse zwischen den Entwicklungs- und Betriebsteams aus. Dadurch können die Entwickler qualitativ hochwertige Software erstellen und die Betriebsteams eine kontinuierliche Bereitstellung und eine konsistente Servicequalität gewährleisten. Die Automatisierung unterstützt dabei eine effiziente Zusammenarbeit der beiden Teams.

Dieses Konzept kann auch auf den Bereich Sicherheit ausgeweitet werden. Anstatt die Sicherheit als Behinderung der DevOps-Workflows zu sehen, sollte sie als zentraler Teil aller Arbeitsabläufe betrachtet werden. Voraussetzung dafür ist, dass die Interaktionen zwischen Security und DevOps automatisiert werden.

Aber was bedeutet dieses Konzept in der Praxis? Für das Verständnis von DevSecOps sind drei Schlüsseltechniken entscheidend: Automatisierung, offene Standards und Zero-Trust-Architektur.

1. Automatisierung

Das Herzstück und die Basis von DevSecOps bildet analog zu DevOps die Automatisierung. Sie ermöglicht konsistente, wiederholbare Prozesse, die die Interaktion zwischen Entwicklungs-, IT-Infrastruktur- und Sicherheitsteams vereinfachen. Mit DevSecOps können unterschiedliche Arbeitsabläufe automatisiert werden: sei es die Einbindung von Stakeholdern in Projekte, die Durchführung alltäglicher und sich wiederholender Aufgaben oder die Orchestrierung und Integration von IT-Tools.

Darüber hinaus automatisiert DevSecOps auch die Sicherheit während des gesamten Lebenszyklus der Anwendungen. So können gemeinsame, automatisierte Anwendungspipelines erstellt werden, die Sicherheitstools und -prüfungen in die Anwendungs- und Bereitstellungsprozesse einbinden. Für Teammitglieder besteht dadurch die Möglichkeit, Security-Checks durchzuführen und so zu gewährleisten, dass die Sicherheit und Konsistenz von Anfang an in alle Anwendungen integriert sind.

Für all diese Aufgaben mussten früher E-Mails zwischen den Teams verschickt werden. Dadurch kam es zu Verzögerungen, weil die Aufgaben manuell zugewiesen und geordnet wurden. Nun ermöglicht die Automatisierung eine nahezu sofortige Bearbeitung und einen Abbau der logistischen und technischen Barrieren zwischen Security- und DevOps-Teams.

2. Offene Standards

Wie in jedem spezialisierten Ökosystem haben Sicherheitsexperten ihre eigenen Plattformen und Sprachen entwickelt, um ihre Prozesse und Techniken auszuführen und zu beschreiben. Um DevSecOps vollständig umzusetzen, ist es jedoch wichtig, dass für die Bedürfnisse und Anforderungen von Sicherheits- und DevOps-Teams eine gemeinsame technologische Basis besteht.

Hier kommen offene Standards und Open-Source-Tools ins Spiel. Im Gegensatz zu proprietärer Software können Open-Source-Software und -Anwendungen dazu beitragen, die Plattformen und Sprachen zu standardisieren, die von DevSecOps-Teams verwendet werden. Auf diese Weise können sowohl DevOps- als auch Sicherheitsteams ihre Arbeit auf kompatiblen Plattformen und in einer Form erledigen, die konsistent und verständlich ist: Es spart Zeit und verringert das Risiko von Fehlern bei der Übertragung von Workflows zwischen den Teams.

3. Zero-Trust-Architektur

Um mögliche Angriffe auf die Software-Lieferkette abzuwehren, müssen Organisationen auf jeden Fall sicherstellen, dass eine einzelne Sicherheitslücke nicht den gesamten technologischen Stack kompromittieren kann. Selbst wenn ein Angreifer Anmeldedaten, Datenbankstandorte oder IP-Adressen in Erfahrung bringt – und das ist bei schwerwiegenden Angriffen häufig der Fall –, sollte er nicht auf den Rest eines Systems oder Netzwerks zugreifen können.

Unternehmen sollten deshalb einen „Zero-Trust“-Sicherheitsansatz verfolgen. Er basiert auf der Erkenntnis, dass herkömmliche Netzwerk-Perimeter und Trust-Modelle keinen ausreichenden Schutz für Daten, Vermögenswerte oder Workloads bieten. Bei einer Zero-Trust-Strategie werden Netzwerke automatisch segmentiert, um Angriffe auf gesamte Systemumgebungen zu verhindern. Anstatt davon auszugehen, dass irgendetwas oder irgendjemand innerhalb des IT-Netzwerks vertrauenswürdig ist, geht Zero Trust vom Gegenteil aus. Folglich wird auch eine Sicherheitsumgebung rund um De-Perimeterization- und Least-Privilege-Konzepte aufgebaut. Dadurch können die Berechtigungen sehr granular sein und Sicherheitsvorfälle an einer Stelle des Netzwerks auf diese beschränkt bleiben. Zugleich sorgt die Automatisierung von Zero Trust aber auch dafür, dass reguläre Workflows nicht gestört werden, indem legitimierten Nutzern ausreichende Zugriffsrechte gewährt werden, mit denen sie ihre Arbeit erledigen können.

Insgesamt steht die DevSecOps-Kultur, die durch die Kombination von Automatisierung, offenen Standards und Zero-Trust entsteht, für ein Konzept, bei dem die Sicherheit von Anfang an in den Lebenszyklus von Anwendungen und Infrastrukturen eingebettet ist. Dies fördert die Robustheit von Prozessen, Applikationen und den damit verbundenen Lieferketten. Gleichzeitig erhalten die unterschiedlichen Teams mit DevSecOps die Flexibilität, innovative und zuverlässige Anwendungen und Services bereitzustellen.

* Lucy Kerner ist Security Global Strategy und Evangelism Director bei Red Hat

Content Authenticity Initiative versus Fake News

How Digital Content Provenance and Attribution are Combatting Disinformation

by Santiago Lyon

We are witnessing extraordinary challenges to trust in the media. Knowing how and who made a piece of content is critical to ensuring transparency, understanding, and trust.

As the speed of digital content increases and technology advances, powerful creation, editing and distribution techniques are more available than ever – with the same tools used to make and share legitimate content also being deployed to create and spread disinformation or misinformation. With the Content Authenticity Initiative (CAI), we aim to build trust by providing creators, publishers, and consumers with a simple, reliable method of determining the authenticity of content.

CAI = Content Authenticity Initiative

Adobe’s Santiago Lyon is the Head of Advocacy and Education for the CAI.


The CAI is a community of major media and technology companies, NGOs, academics and others working to promote and drive adoption of an open industry standard around content authenticity and provenance (which details the origin and edit history of a piece of content). The goal is to ensure that creators have a secure way to get credit for their work and consumers are equipped with the tools to determine which content to trust.

Founded in 2019 by Adobe through a partnership with Twitter and The New York Times Company, our mission is to bolster trust in digital media content (images, video, etc.) by adding robust, tamper-evident provenance data about how a piece of content was produced, edited, and published.

Since our inception, we’ve seen steady growth of membership. The CAI ecosystem now exceeds 650 members that collaborate, participate in events, and exchange ideas on how to best tackle mis- and disinformation. We’re joined by major media organizations like DPA, Stern, Agence France-Presse (AFP), BBC, Getty Images, McClatchy, The Washington Post, VII Photo, and others.

On the technology side, we have participation from Arm, CameraBits, Impressions, Metaphysic.ai, Microsoft, Nikon, Qualcomm, Reface, Smartframe, Synthesia, Truepic, and Wacom — among a host of others. In many cases, CAI members are working to implement digital provenance in their solutions.


>>> Lesen Sie hier den Artikel in Deutsch


„CAI’s approach is helping restore trust in online content and supporting creators.“

Santiago Lyon

Content Credentials


The CAI is also driving adoption of the world’s first open industry standard for verifying content authenticity across digital media as part of the Coalition for Content Provenance and Authenticity (C2PA), a standards organization comprised of media and technology companies including Adobe, Arm, BBC, Intel, Microsoft, Truepic, and Twitter.

The CAI is creating a digital chain of custody for photography, video, and other file types from creation to publication. Images and video will be published in both traditional and social media with public-facing CAI metadata, called “Content Credentials,” that will expose relevant information about the image’s provenance and authenticity to the viewer. From the moment of creation, images (and eventually other file types) will include indelible CAI metadata accompanying the content wherever it goes – from the point of creation through editing and publication or sharing. Once Content Credentials are embedded in a piece of content, consumers can authenticate it using the CAI’s Verify website to view the content credentials showing what (if anything) was altered.

We launched the CAI’s Content Credentials as a public beta in Adobe Photoshop in October 2021, alongside support in other Adobe tools including Behance and Adobe Stock. This feature is now available in beta for all Photoshop users, the first time CAI technology is being brought to a wide audience.

Coming soon…

Soon, any interested individual, organization, or company will be able to access open-source offerings from the CAI to utilize our code for content provenance across various applications – without licensing or intellectual property concerns. Find out more and sign up for updates on our site here. If you or your company are interested in the CAI’s work, you can join us for free as a member to have access to our events and updates and get access to collaborate with our team on your projects.


„With digital content provenance and attribution, we have a way forward.“


While no one company or organization can solve the real and growing problem of fake content and mis- and disinformation, the CAI’s approach is helping restore trust in online content and supporting creators. Addressing this issue will require ongoing collaboration between content creators, academia, researchers, technology providers, government, and content distributors. With digital content provenance and attribution, we have a way forward.

https://contentauthenticity.org/

Aufmacherbild/ Quelle / Lizenz
https://pixabay.com/photos/original-sign-label-character-960525/

Content Authenticity Initiative vs. Fake News


Digitale Provenienz und transparente Bearbeitungshistorien helfen Desinformation zu bekämpfen

von Santiago Lyon

Wir erleben, wie das Vertrauen in Medien auf eine außerordentliche Probe gestellt wird.  Zu wissen, wie und von wem ein Inhalt erstellt wurde, ist entscheidend, um Transparenz, Verständnis und Vertrauen zu gewährleisten.

Durch den rasanten technologischen Fortschritt werden digitale Inhalte schneller erstellt und verbreitet denn je. Dabei werden dieselben Mittel, die für die Erstellung und Verbreitung legitimer Inhalte verwendet werden, auch für die Erstellung und Verbreitung von Des- oder Fehlinformationen eingesetzt. Mit der Content Authenticity Initiative (CAI) wollen wir Vertrauen schaffen, indem wir Urheber*innen, Verleger*innen und Konsument*innen eine einfache, zuverlässige Methode zur Bestimmung der Authentizität von Inhalten mit an die Hand geben.

CAI = Content Authenticity Initiative

Santiago Lyon von Adobe ist Leiter der Abteilung Advocacy and Education bei der CAI

Die CAI ist ein Zusammenschluss von großen Medien- und Technologieunternehmen, Nichtregierungsorganisationen, Akademikern und anderen Stakeholdern, die sich für die Förderung und Durchsetzung eines offenen Industriestandards für die Authentizität und Herkunft von digitalen Inhalten einsetzen (ein Standard, der die Provenienz, also die Herkunft sowie den Bearbeitungsverlauf von Inhalten detailliert beschreibt). Damit soll erreicht werden, dass Creator*innen eine verlässliche Möglichkeit erhalten, die Urheberschaft ihrer Arbeiten auszuweisen.

Gleichzeitig werden Konsument*innen mit entsprechenden Mitteln ausgestattet , um beurteilen zu können, welchen  Inhalten sie vertrauen können. Die 2019 von Adobe im Rahmen einer Partnerschaft mit Twitter und der New York Times Company gegründete Initiative hat es sich zur Aufgabe gemacht, das Vertrauen in digitale Medieninhalte (Bilder, Videos usw.) zu stärken, indem es robuste, fälschungssichere Metadaten darüber bereitstellt, wie ein Inhalt produziert, bearbeitet und veröffentlicht wurde.

Seit unserer Gründung konnten wir ein stetiges Wachstum an Mitgliederzahlen verzeichnen. Das CAI-Ökosystem umfasst inzwischen mehr als 650 Mitglieder, die zusammenarbeiten, an Veranstaltungen teilnehmen und sich darüber austauschen, wie man am besten gegen Fehl- und Desinformationen vorgehen kann. Zu unseren Mitgliedern zählen große Medienorganisationen wie dpa Deutsche Presse-Agentur, Stern, The Washington Post, McClatchy, BBC, Agence France-Presse (AFP), Getty Images, VII Photo und andere. Auf der Technologieseite sind unter anderem Arm, CameraBits, Impressions, Metaphysic.ai, Microsoft, Nikon, Qualcomm, Reface, Smartframe, Synthesia, Truepic und Wacom – und viele andere – vertreten. Viele CAI-Mitglieder arbeiten bereits daran, die digitale Provenienz in ihre Lösungen zu implementieren.


>>> For the english version of the article please follow this link


„Der Ansatz der CAI trägt dazu bei, das Vertrauen in Online-Inhalte wiederherzustellen und die Urheber*innen zu unterstützen.“

Santiago Lyon

Als Teil der Coalition for Content Provenance and Authenticity (C2PA), einem Bündnis zur Standardisierung, welches sich aus Medien- und Technologieunternehmen wie Adobe, Arm, BBC, Intel, Microsoft, Truepic und Twitter zusammensetzt, treibt die CAI auch die Einführung des weltweit ersten offen verfügbaren Industriestandards zur Überprüfung der Authentizität von Inhalten in digitalen Medien voran.

Content Credentials

Die CAI schafft eine digitale Dokumentation für Fotos, Videos und andere Dateitypen, von der Erstellung über die Bearbeitung bis zur Veröffentlichung. Bilder und Videos sollen sowohl in traditionellen als auch in sozialen Medien mit öffentlich zugänglichen CAI-Metadaten, den sogenannten „Content Credentials“, veröffentlicht werden, die Betrachter*innen relevante Informationen über Urheberschaft und die Authentizität der Datei liefern.

Vom Moment der Erstellung an werden Bilder (und im Laufe der Zeit auch andere Dateitypen) nicht entfernbare und fälschungssichere CAI-Metadaten enthalten, die Inhalte überallhin begleiten – von der Erstellung über die Bearbeitung bis hin zur Veröffentlichung oder Weitergabe. Sobald die Content Credentials als Inhaltsurhebernachweis eingebettet sind, können diese über die Verify-Website der CAI authentifiziert und eingesehen werden, die anzeigen, was (wenn überhaupt) an einem Inhalt verändert wurde.

Wir haben die CAI Content Credentials im Oktober 2021 als öffentliche Beta-Version in Adobe Photoshop eingeführt, begleitet durch die Unterstützung in anderen Adobe-Tools und Services wie Behance und Adobe Stock. Diese Funktion ist nun in der Beta-Version für alle Photoshop-Benutzer verfügbar und damit ist die CAI-Technologie zum ersten Mal einem breiten Publikum zugänglich.

Fazit

Zwar kann kein einzelnes Unternehmen und keine einzelne Organisation das reale und wachsende Problem gefälschter Inhalte und damit verbundener Des-/Fehlinformationen lösen, doch trägt der Ansatz der CAI dazu bei, das Vertrauen in Online-Inhalte wiederherzustellen und die Urheber*innen zu unterstützen.

Die Bewältigung dieses Problems erfordert eine kontinuierliche Zusammenarbeit zwischen den Urheber*innen von Inhalten, Hochschulen/Forschern, Technologieanbietern, Behörden und Distributor*innen von Inhalten. Digitale Provenienz und transparente Bearbeitungshistorien sind ein wichtiger Schritt für die Zukunft.


„Digitale Provenienz und transparente Bearbeitungshistorien sind ein wichtiger Schritt für die Zukunft.“


In Kürze wird jede interessierte Person, Organisation oder Firma auf die Open-Source-Angebote der CAI zugreifen können, um unseren Code für den Urhebernachweis in verschiedenen Anwendungen zu nutzen – ohne die Notwendigkeit einer Lizenzierung oder anderer nutzungsrechtlicher Belange.  Weitere Informationen gibt es über diesen Link.  Wenn Sie oder Ihr Unternehmen an der Arbeit der CAI interessiert sind, können Sie kostenlos als Mitglied beitreten, um Zugang zu Veranstaltungen und Neuerungen zu erhalten sowie mit unserem Team an Ihren Projekten zusammenzuarbeiten.

https://contentauthenticity.org/

„Wir brauchen eine ganzheitliche Smart-City-Strategie“

Dr. Bernhard Kirchmair setzt als CDO bei Vinci Energies Projekte im Bereich der digitalen Transformation um und erschließt daraus auch ganz neue Anwendungsmöglichkeiten für seine Kunden.

Die Smart City steht für eine Vision. Es geht um  den Lebensraum der Menschheit in Zukunft. Aber auch um ganz konkrete Fragestellungen zum Beispiel um digitale Geschäftsmodelle im urbanen Raum und die Frage, wem die dadurch entstehenden Daten gehören sollten. Wir haben mit Dr. Bernhard Kirchmair, CDO von VINCI Energies für DACH und Osteuropa gesprochen und im folgenden Städten und Gemeinden durch einen Fragenkatalog einen Guide für die digitale Transformation im urbanen Raum geschaffen.

Herr Kirchmair, wie können unsere Städte wirklich smart werden?
Damit unsere Städte smart werden, ist eine ganzheitliche Smart-City-Strategie erforderlich, die sich am individuellen Bedarf orientiert. Dabei sind die Herausforderungen konzeptioneller, ökonomischer, sozialer und technologischer Natur, zu denen die jeweiligen Akteure ihren Beitrag leisten müssen. Angefangen bei den Entscheidungsstrukturen auf kommunaler Ebene, die teilweise noch nicht ausreichend übergreifend und interdisziplinär angelegt sind. Auf der anderen Seite stehen die deutschen Unternehmen, die zwar ideenstark sind, aber mithin noch zu zögerlich agieren. Das Know-how, Technologien wie KI, Cloud und Blockchain, die Finanzierungsmittel genauso wie die Absatzmärkte sind ja vorhanden. Was es braucht, sind agilere Strukturen der Kooperation in Form von digitalen Ökosystemen.

Städte sind keine homogenen Gebilde und können – anders als zum Beispiel Industrieparks – nicht „einfach“ umgestaltet werden. Wie helfen Sie Verwaltungen, Industriebetreibern und anderen Akteuren in der Stadt, die notwendigen Schritte anzugehen? Und wie können Interessen gebündelt werden?
Das Rad muss nicht neu erfunden werden. Vielmehr lässt sich die vorhandene Infrastruktur heranziehen, um sie smart zu machen. Nehmen Sie die rund zehn Millionen Straßenlaternen in Deutschland. Diese lassen sich sehr leicht umrüsten, um sie als Basisstation für Smart-City- und Smart-Mobility-Konzepte zu nutzen – beispielsweise als Ladestation für Elektroautos und zugleich zur Verkehrsflussmessung oder für Open WIFI. Auch die Gebäude können zum Beispiel durch moderne Steuerungssoftware mit KI bei der Gebäudetechnik smart werden. Das eine ist also die Erkenntnis: auf Vorhandenes zurückzugreifen und neu zu denken. Um das zu realisieren, stehen wir im engen Kontakt mit Städten und Kommunen und aktivieren parallel dazu unser digitales Ökosystem. Hier arbeiten wir interdisziplinär mit anderen Unternehmen und Startups an zukunftsweisenden Lösungen.

Inwieweit konnten Sie das Thema Nachhaltigkeit in Ihrer Unternehmenskultur verankern und wie setzen Sie das Thema in Ihren Projekten um?
Bei VINCI Energies und im gesamten Konzernnetzwerk engagieren wir uns seit vielen Jahren aktiv für mehr Nachhaltigkeit. So haben wir uns das Ziel gesetzt, den CO2– Fußabdruck bis 2030 um 40 Prozent zu reduzieren und bis 2050 vollständig klimaneutral zu sein. Dazu haben wir eine ganze Reihe an internen Maßnahmen in Gang gesetzt. So nutzen wir beispielsweise ein Monitoring, um unseren Energieverbrauch genau zu erfassen. Derzeit erarbeiten zwei Gruppen eines von uns initiierten CO2-Hackathons digitale Plattformen dafür. Daneben beziehen wir an unseren Standorten Ökostrom, optimieren interne Prozesse, indem etwa Fahrten mit dem Auto vermieden werden, und setzen auf das große Engagement unserer Mitarbeitenden. An unserem VINCI Umwelttag geben wir ihnen dazu zusätzliche Tipps. Die Themen Energieeffizienz und Nachhaltigkeit sind auch in unseren Kundenprojekten elementare Faktoren und dort fest verankert. Daher haben wir auch den VINCI Umweltpreis ins Leben gerufen, mit dem wir besonders innovative und spannende Projekte auszeichnen.

In welchem Kontext steht dabei die digitale Transformation?
Ohne die digitale Transformation sind weder die Energiewende noch ein nachhaltiger Umgang mit Ressourcen möglich. Digitale Technologien dienen etwa dazu, Energieverbräuche genau zu messen und durch KI automatisch einordnen und optimieren zu können. Das gilt nicht nur für das Energiemonitoring bei Gebäuden oder Industrieanlagen. Auch Umspannwerke und Trafostationen müssen für die zukünftig volatile Versorgung durch grünen Strom smart umgerüstet werden, um Verbräuche besser zu prognostizieren und ihre Leistung dezentral zu regulieren. Zur Optimierung ihres Verbrauchs setzt die Industrie schon länger auf Technologien wie die Cloud oder Data Analytics. Aber auch Wartungsarbeiten lassen sich hier etwa durch Remote Expert Services aus der Ferne durchführen – das spart Anfahrtswege und damit CO2.

Mit welchen Aktionen gehen Sie voran?
Wir haben mit dem Unternehmensbereich VINCI Energies Digital eine eigene Digitaleinheit, die die digitale Transformation konzernübergreifend vorantreibt und koordiniert. Im letzten Jahr wurde diese auch als eine der Top-3 Innovation Units in Deutschland ausgezeichnet. Sie umfasst ein breites Portfolio aus Startup-Programmen, Projekten zur Nutzbarmachung von künstlicher Intelligenz, Weiterbildungs- und Intrapreneurship-Programmen sowie ein eigenes Themen- und Ideenportal. Einzigartig in Deutschland ist unsere Digitalschmiede. Eine Projektwerkstatt, in der etwa Kunden Prototypen entwickeln können und regelmäßig Speed Datings mit Startups veranstaltet werden. All das sind wichtige Bausteine unseres digitalen Ökosystems, über das wir symbiotisch mit Partnern zusammenarbeiten, um durchgehend zukunftsfähige Lösungen zu entwickeln.



Wie können Ihrer Meinung nach die neuen Technologien rund um KI, Blockchain und IoT die Städte resilienter und zukunftsfähiger machen?
Die genannten Technologien und weitere mehr bieten viele verschiedenen Möglichkeiten, um Städte resilienter und zukunftsfähiger zu machen. Von Verbrauchsanalysen und -prognosen zum Energiebedarf über effizientere Verkehrsplanung und das Parkraummanagement bis hin zu digitalen Bürgerservices. Vor allem im Verbund spielen sie ihr volles Potenzial aus. Werden beispielsweise Straßenlaternen mit moderner Messsensorik aufgerüstet und über das IoT vernetzt, lassen sich die so erhobenen Daten mittels KI analysieren, um Verkehrsflüsse deutlich nachhaltiger zu steuern. Die Blockchain-Technologie kann hochsensible personenbezogene Daten schützen, um Behördengänge sicher über das Internet zu ermöglichen. Solche und andere Smart-City-Lösungen erleichtern unser Leben, machen Fahrten überflüssig oder verhindern Stau und verringern so den CO2-Ausstoß.

Was verstehen Sie unter dem Begriff Smart Country? Inwieweit können Ihre Konzepte Kommunen und Gemeinden helfen, den Infrastrukturausbau und die Attraktivität von ländlichen Räumen zu steigern?
Digitale Technologien dürfen sich nicht auf unsere Städte beschränkten. Sie müssen auch den ländlichen Raum miteinbeziehen, damit aus Smart Cities Smart Countries werden. Das hängt sehr vom Ausbau der Infrastruktur ab, gerade was den Breitbandausbau betrifft. Hier ist die Politik gefragt. Estland, das über eine nahezu vollständige W-LAN-Abdeckung verfügt, zeigt, dass das möglich ist. Anschließend spielen Synergien zwischen Wirtschaft, Wissenschaft und Kommunen eine entscheidende Rolle – ebenso wie Bürgerbeteiligungen und öffentlich-private Partnerschaften. Ideen, Know-how und Mittel müssen darüber gebündelt werden, um gemeinsame Ziele zu definieren und zu realisieren. In der Wirtschaft sind dazu sogenannte digitale Ökosysteme ein Konzept, um die Zusammenarbeit effizienter zu gestalten.

Welche Rolle spielt in Zukunft das Thema Open Data für Städte, Kommunen und Gemeinden?
Damit die Vision von Smart Countries erfolgreich gelingt, braucht es die aktive Bürgerbeteiligung. Die Menschen müssen mitgenommen werden, indem man ihre Ideen und Wünsche miteinfließen lässt. Nur so können wir das eigentliche Ziel, das Leben der Menschen zu verbessern, erreichen. Daher ist auch das Thema Open Data wichtig, um der Bevölkerung den Zugang zu den Daten zu ermöglichen und sie in die Weiterentwicklung miteinzubeziehen. Natürlich spielt hier auch der Datenschutz eine wichtige Rolle. Deshalb ist es entscheidend, das Thema Datentransparenz und die Anonymisierung bestimmter Daten in Einklang zu bringen. Die „Digitalstadt Darmstadt“ betreibt beispielsweise eine zentrale Datenplattform, die Messungen zum Verkehrswesen bereitstellt. Auf diese Plattform kann jeder zugreifen.

Weitere Informationen unter:
https://digitalschmiede.vinci-energies.de/bernhard-kirchmair/

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Medien und Kommunikation in der vernetzten Gesellschaft

Prof. Dr. Martin Emmer Gründungsdirektor am Weizenbaum-Institut für die vernetzte Gesellschaft, und Principal Investigator der Forschungsgruppe „Digital Citizenship“, erörtert mit der Redaktion aktuelle Entwicklungen zu Fake News, Metaverse und Blockchain-Technologien sowie deren Auswirkungen auf unsere vernetzte Gesellschaft im Kontext von Kommunikation und Medien.

Herr Prof. Emmer, Sie beschäftigen sich schon lange mit den Auswirkungen digitaler Technologien im Hinblick auf unsere Gesellschaft. Welche Forschungsschwerpunkte verfolgen Sie?

Als Mediennutzungsforscher interessiere ich mich dafür, warum, wie und wofür Menschen Medien nutzen und was das für unsere Gesellschaft bedeutet. Heute geht es dabei natürlich vor allem um den digitalen Medienwandel, und mir insbesondere um die politische Dimension der Nutzung: Wo können neue digitale Medien und vor allem die zunehmende Rolle von KI die demokratische Mitbestimmung der Bürgerinnen und Bürger stärken oder gefährden? Welche Probleme bringen soziale Medien – etwa durch die massenhafte Verbreitung von Propaganda, Fake News und Hatespeech – für das soziale Miteinander und die politische Willensbildung mit sich?

Welche Erkenntnisse konnten Sie bisher aus Ihrer aktuellen Studie gewinnen?

Ein sicher wichtiger Befund ist, dass man – bei unserem Blick auf die gesamte Gesellschaft, gewissermaßen aus der Vogelperspektive – keine dramatischen Phänomene wie eine allgemeine „Verrohung“ der Gesellschaft oder einen generellen Vertrauensverlust in Demokratie, Medien oder politische Institutionen feststellen kann. Es zeigt sich hingegen, dass zunehmend mehr Menschen die Probleme in den Debatten im Internet und auf sozialen Medien wahrnehmen und sehen, dass sie hier selbst Verantwortung übernehmen können und sollten.

Das heißt aber nicht, dass es keine Probleme gibt, im Gegenteil: Gefährlich ist vor allem, dass sich in Foren auf Messenger-Diensten wie Telegram oder auf Facebook Menschen mit extremistischen Einstellungen zusammenfinden, sich dort immer weiter radikalisieren und Drohungen, Gewalttaten sowie Terrorismus die Folge sein können. Quantitativ sind diese Gruppen nicht sehr groß, sie stellen aber durch ihre Aggressivität ein reales und wachsendes Problem dar.

Wie können wir uns noch gegen „Fake News“ wehren?

Einerseits ist sicher eine stärkere Kompetenz und Eigenverantwortung von Bürger:innen nötig: Die digitale Medienwelt ist unendlich vielfältiger als die alte Massenmedienwelt, mit vielen Vorteilen, aber eben auch mit der Herausforderung, mit dieser riesigen Fülle an Informationen umzugehen. Wenn möglichst viele Menschen wissen, wie man Fake News erkennt, verlässliche Informationen findet und sich ein ausgewogenes Informationsmenü zusammenstellt, wäre schon viel gewonnen.

Allerdings ist es nicht fair, die Verantwortung einfach auf uns einzelne Nutzende abzuschieben, während uns Multimilliarden-Konzerne weiterhin aus reinen Profitgründen hemmungslos mit Informationsmüll überschütten. Nötig ist sicher auch, politischen Druck auf die Plattformen auszuüben, ihre Algorithmen stärker an Gemeinwohlkriterien auszurichten. Darüber hinaus wären auch eine fundierte Strategie und mit entsprechenden Ressourcen ausgestattete Strafverfolgungsbehörden sinnvoll, um effektiver gegen koordinierte Desinformations- und  Hasskampagnen vorzugehen, die unsere freiheitlich-demokratische Gesellschaftsordnung angreifen, indem sie z. B. Gewalttaten befeuern.

© Kay Herschelmann

„Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.”


Prof. Dr. Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft. Als Gründungsdirektor und Principal Investigator führt er die Forschungsgruppe „Digital Citizenship


Wie und woran kann ich dann „Fake News“ erkennen?

Dazu gibt es ja mittlerweile im Internet eine Menge Ratgeber, etwa von der Bundeszentrale für Politische Bildung, dem Goethe-Institut oder vertrauenswürdigen Medien wie tagesschau.de. Denen kann man wichtige Regeln wie „Seriosität der Quelle prüfen“ oder „Inhalte mit anderen Meldungen vergleichen“ entnehmen.

In unserem Alltag ist das aber natürlich nicht immer machbar, deswegen sind auch sehr grundlegende Kompetenzen hilfreich, wie Reflexionsfähigkeit und Impulskontrolle: Klicke ich zu schnell auf einen sogenannten „Clickbait“, werde ich durch eine Nachricht so emotional angesprochen, dass ich diese ohne nachzudenken like oder weiterleite?

Viele Desinformationskampagnen verbergen sich z. B. hinter emotionalen Hilfeaufrufen oder Warnmeldungen, durch die fremdenfeindliche Narrative verbreitet werden („Habe gerade beobachtet, wie vor dem Supermarkt X in Y ein Asylbewerber ein Kind entführen wollte, verbreitet die Nachricht schnell, um alle Eltern zu warnen!“).

>>>„Meta schafft Arbeitsplätze im deutschen Journalismus. Die Deutsche Presse-Agentur (dpa) beschäftigt von April an ein 15-Leute-Team, das für den Facebook-Konzern deutsche Nachrichten kuratieren soll.“
(https://netzpolitik.org/2022/facebook-news-fuer-dpa-wird-das-desinformationsproblem-von-meta-zum-geschaeftszweig/?xing_share=news) <<<

Wird das helfen?…und das Modell..?

Das ist sicher ein gutes PR-Projekt für Facebook, das ja dringend positive Schlagzeilen braucht und die schon lange schwelenden Konflikte mit den deutschen Verlegern abkühlen will.
Eine ganze Reihe von Gründen sprechen aber dagegen, dass sich dadurch Probleme substanziell lösen lassen.

Insbesondere wird das strukturelle Grundproblem von Social-Media-Plattformen wie Facebook nicht angegangen: Diese sind letztlich automatisierte Maschinen, die wie riesige Turbinen alle Arten von Inhalten ansaugen (Bilder, Videos, Likes, Kommentare etc.) und diese auf der anderen Seite, nach undurchsichtigen Sortierungskriterien, mit Hochdruck in die Timelines der Nutzerinnen und Nutzer pressen.

Angesichts der gewaltigen Mengen an Material sind alle Versuche, das auch nur annähernd inhaltlich durch Menschen (oder bislang unzureichend entwickelte KIs) prüfen und sortieren zu lassen, von vorneherein aussichtslos. Die aktuelle Umsetzung als begleitendes Zusatzangebot zeigt ja auch, dass sowas mit diesem Projekt gar nicht erst versucht wird

Der einzige Fortschritt im Verfahren ist, dass es nicht mehr eine Firma des Springer-Verlags ist, der an der Kuratierung der Facebook-Nachrichten mitwirkt, sondern eine Tochterfirma der dpa, die zwar auch ein einzelnes Unternehmen ist, das aber eine auf Vielfalt ausgerichtete Besitzstruktur hat.

Könnten neue z.B. auf der Blockchain basierende Technologien wie NFTs (Non-Fungible Tokens), ich nenne es einmal eine „Datenbank der Wahrheit“, helfen?

Nein, denn Blockchain-Technologien können nur innerhalb ihres eigenen Systems „Wahrheit“ garantieren, also eine Sicherheit vor Fälschung oder Manipulation der in der Blockchain codierten Information sicherstellen.

Wenn Sie solche NFTs mit einer „Wahrheit“ außerhalb der Blockchain verknüpfen wollen, brauchen Sie wie bisher auch vertrauenswürdige Verfahren, die sicherstellen, dass nur geprüfte „Wahrheiten“ überhaupt in die Blockchain kommen – und damit kommen wir um die grundsätzlichen philosophischen, sozialen und politischen Fragen nicht herum, die mit der Frage verknüpft sind, wie unsere Gesellschaft „Wahrheit“ und die Geltungsansprüche von Aussagen definiert.

Welche Zielgruppen sprechen Sie mit Ihrem neuen „Weizenbaum Journal of the Digital Society“ an?

Das Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen. Denn interdisziplinäre Arbeiten haben es in unserer wachsenden, aber zunehmend spezialisierten wissenschaftlichen Publikationswelt immer noch schwer.

Wenn in der Peer-Review-Begutachtung eines Journals vor allem Expert:innen aus einem bestimmten Fach einen Forschungsbeitrag bewerten, sind Bezüge auf andere Fachkontexte oft eher Störfaktoren, die dazu führen, dass ein Manuskript schlechter bewertet wird und weniger Publikationschancen hat. Das kann dazu führen, dass interdisziplinäre Themen, für die eine Kombination aus verschiedenen Fachperspektiven sinnvoll wäre, in der Forschung wenig sichtbar sind und auch weniger verfolgt werden.

Das Weizenbaum Journal will deshalb genau für solche Forschung im Bereich der Digitalisierung unserer Gesellschaft einen Raum bieten für Autor:innen und Teams aus Sozial-, Rechts- und Technikwissenschaften und allen anderen Feldern, die zum Thema substanzielles beitragen können.

„Das Weizenbaum Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen.”

Hier geht es zum Weizenbaum Journal

Warum haben Sie sich für eine Open-Content-Strategie im Kontext der Inhalte und Forschungsbeiträge entschieden?

Wissenschaft will das von ihr produzierte Wissen so weit wie möglich verbreiten – nicht umsonst ist etwa die Zitationshäufigkeit der Publikationen eine der wichtigsten wissenschaftlichen Währungen. Deshalb haben wir uns für eine Lizenz entschieden, die der Verbreitung möglichst wenige Hürden in den Weg stellt: So lange die Autor:innen genannt werden, darf die Publikation in allen Formen weiterverbreitet werden – sogar kommerziell: Wenn ein Verlag meinen Artikel auf Büttenpapier mit Goldschnitt und Lederbindung teuer verkaufen will, darf er das jederzeit machen, wenn er glaubt, dafür Käufer zu finden. Denn auch das führt zu einer weiteren Verbreitung, während die kostenlose Version gleichzeitig immer für alle zugänglich bleibt.

Inwieweit kann das Internet durch innovative Technologien, wie z. B. die Blockchain mit ihren Smart Contracts, mehr Ausgewogenheit in unserer Gesellschaft verankern?

Ich bin kein Blockchain-Forscher, bin aber im Moment eher skeptisch, wie gerade ja schon deutlich geworden ist. Man kann mit diesen Technologien sicherlich bestimmte Sicherheitsprobleme lösen, mit NFTs viel Geld verdienen und mit Smart Contracts konkrete Interaktionen von unnötigen Verwaltungsprozessen und Fehlerquellen befreien.

Der Glaube daran, man könne mit einer neuen Technologie auf einen Schlag ganz viele (soziale) Probleme lösen, ist praktisch immer eine Illusion: Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.

Tatsächlich gibt es unter den Vertretern der Silicon-Valley-Ideologie einige, die das Gegenteil behaupten, zum Teil eine gefährliche Nähe zu extrem anarcho-libertären Bewegungen und Akteuren haben, die mit Hilfe von Blockchain-Technologien nicht nur Datensicherheit stärken wollen, sondern jede Form staatlicher Autorität und damit auch gesellschaftlicher Normen delegitimieren und überflüssig machen wollen.

Gibt es schon Denkansätze oder wichtige Fragen Ihrerseits, welche Auswirkungen das „Metaverse“ auf unsere Gesellschaft haben könnte?

„Das sogenannte „Metaverse“ ist im Moment ja nur eine Vision, die sehr stark von Akteuren aus der digitalen Ökonomie befördert wird. Als Mediennutzungsforscher bin ich im Moment eher skeptisch, ob das wirklich eine realistische Zukunft für die nächsten fünf Jahre sein kann. Marc Zuckerberg hatte schließlich schon mit dem herkömmlichen Facebook den Plan, die Plattform zu einer Catch-All-Welt zu machen, in der wir als Nutzende möglichst unser ganzes digitales Leben abwickeln sollten.“

Bekanntermaßen war das für viele, besonders für die jeweils jüngsten Generationen, nicht attraktiv; sie suchen nicht nach einer allumfassenden Umgebung, in der man all das wiederfindet, was anderswo und in der realen Welt auch vorhanden ist, inklusive Eltern und Lehrer.

Sondern sie suchen sich eher kleinere Nischenanwendungen für verschiedene Zwecke, die jeweils spezifische Interaktionsformen und identitätsstiftende Codes bieten, die anderswo nicht vorhanden sind. Apps wie Snapchat, TikTok, Clubhouse etc. können Identitätsangebote machen, die ein Marktführer, der immer auch einem gesellschaftlichen Mainstream verpflichtet sein muss, nicht bieten kann.

Abgesehen davon gibt es die technischen Voraussetzungen für Cyberspace-Welten, die wir als Ideen aus literarischen Produkten wie „Tron“ oder „Matrix“ schon seit Jahrzehnten kennen, trotz aller technologischen Fortschritte noch nicht so wirklich, soweit ich das beurteilen kann.

Was bedeutet das für die deutsche Politik und die Demokratie?

Da wir die konkrete Form dieser Welten noch nicht kennen, wäre das sehr spekulativ – im Prinzip würden sich natürlich auch in einem solchen Metaverse demokratische und pluralistische Strukturen aufbauen lassen. Allerdings ist das wenig wahrscheinlich, es ist eher anzunehmen, dass die Probleme, die uns diese Plattformen heute schon verursachen, dort einfach reproduziert und evtl. noch verstärkt werden.

Genau deshalb müssen wir uns mit diesen grundsätzlichen Problemen so schnell wie möglich befassen: mit den monopolartigen Strukturen der Plattformwelt, der Undurchsichtigkeit der inhaltlichen Prozesse und den undemokratischen Organisationsstrukturen, die eine Bedrohung für Menschen- und Bürgerrechte darstellen können.

https://www.weizenbaum-institut.de/

Aufmacherbild / Quelle / Lizenz

https://pixabay.com/users/geralt-9301/
https://pixabay.com/illustrations/social-media-media-board-networking-1989152/

Pixabay License

Wohin mit dem Geld?

Das Thema Kapitalanlage ist komplexer denn je, doch es gibt auch Chancen am Beginn einer neuen Wirtschaftsära.

Seit dem Angriffskrieg Russlands gegen die Ukraine ist die Welt in Aufruhr. Nie dagewesene Sanktionen sollen die russische Wirtschaft zum Zusammenbruch führen, sorgen aber durch das wirtschaftliche Geflecht gegenseitiger Abhängigkeiten auch für Panik an den Märkten. Kurse purzeln, Preise steigen und Anleger haben es immer schwerer, einen kühlen Kopf zu bewahren. Die Frage, „Wohin mit dem Geld?“ scheint daher drängender als jemals zuvor.

Gold, als klassische Krisenwährung, erreichte bereits zu Beginn des Krieges ein neues Allzeithoch und gilt weiterhin als sicherer Hafen. Medial im Fokus stehen vor allem die Energieträger Öl und Gas, während andere Rohstoffe im Mainstream weniger diskutiert werden. Dabei ist dieser Markt besonders volatil. Am 8. März setzte die Londoner Metallbörse den Nickelhandel aus. Nachdem sich der Preis in der Vorwoche durch befürchtete Sanktionen mehr als vervierfachte und sich allein am 8. März nochmals verdoppelte, sah sich die Börse zu diesem Schritt gezwungen, um Ruhe in den Markt zu bringen. Zehn Prozent des weltweiten Nickelbedarfs kommen aus Russland und für 15 bis 20 Prozent des Nickel­angebots in Batteriequalität ist allein das russische Unternehmen Nornickel verantwortlich.

Die Fondsboutique Commodity Capital nimmt durch ihre Anlagephilosophie möglichst viel Risiko aus dem an sich volatilen Rohstoffsektor. „Als einfaches Beispiel kann hier sicherlich genannt werden, dass wir bereits seit Jahren politische Risiken minimieren“, führt Dana Kallasch aus. „So investieren wir weder in Afrika, noch in China oder Russland und auch in Südamerika haben wir aufgrund der politischen Entwicklungen unsere Positionen beispielsweise in Peru oder Chile auf ein Minimum reduziert.“ Eine besondere Rolle spielt für das Unternehmen auch das Thema Nachhaltigkeit. „Wir schauen uns in der Regel all unsere Kernpositionen vor Ort an und führen teilweise mehrmals site visits durch“, erläutert die Mitgründerin. Neben der Geologie und der Infrastruktur steht hierbei insbesondere auch die Beziehung der lokalen Bevölkerung zum Unternehmen für uns im Vordergrund.“ Schließlich ist ein gutes soziales Miteinander wichtig für den langfristigen Erfolg eines Unternehmens.


„Kaum sind Kryptowährungen im Mainstream angekommen, sind mit NFTs (Non-fungible Token) ganz neue Anlagemöglichkeiten im Krypto­kosmos entstanden.“


Am Rande notiert

Kryptowährungen
Bitcoin, Ethereum, IOTA, Litecoin, Ripple, Dash, Tether, Cardano, Monero, Dogecoin: Kryptowährungen bieten vielfältige Möglichkeiten weit über ihre Funktion als reine Zahlungsmittel hinaus. Welche Funktionen und Organisationen sich hinter den bekanntesten Token verbergen und warum das Proof-of-Stake-Verfahren eine echte Alternative zum energieintensiven Proof-of-Work ist, welches beispielsweise dem Bitcoin zugrunde liegt, erfahren Sie auf:

https://trendreport.de/digitales-geld/

In unserer vernetzten Welt geraten aber nicht nur physische, sondern immer häufiger auch digitale Güter in das Visier der Anleger. Eine Sonderrolle nehmen Kryptowährungen seit Beginn des Krieges ein. Denn während Russland durch Sanktionen weitgehend vom globalen Finanzsystem ausgeschlossen ist und der Rubel sich im freien Fall befindet, könnten Kryptowährungen die Lage im Land stabilisieren. Wo Zahlungsdienstleister wie Visa, Mastercard, American Express, Apple Pay, Google Pay und PayPal ihre Geschäftsbeziehungen gekappt haben, können die meisten Russen ihre Geldgeschäfte über Krypto-Börsen durchführen. Gesetzlich angeord­nete Sanktionen sorgen dafür, dass wenigstens einige Oligarchen keinen Zu­gang mehr zu ihren digitalen Devisen haben.

Lesen Sie den ausführlichen Beitrag von Dana Kallasch
Rohstoffinvestment mit Rendite und Sicherheit

Welche Auswirkungen eine Hyperinflation auf den Kryptomarkt haben könnte, zeigt ein Blick auf die jüngere Geschichte Venezuelas. Dash – so etwas wie eine schnellere Version des Bitcoins – wurde in kürzester Zeit zu einem der beliebtesten Zahlungsmittel im Land. Am 1. November 2017, am Vorabend der Wirtschaftskrise, war ein Dash noch 271,56 US-Dollar wert. Bis zum 20. Dezember 2017 wuchs der Wechselkurs auf 1550,85 US-Dollar an, was einem Wertzuwachs von 571 Prozent in weniger als zwei Monaten entspricht. Wird sich die Geschichte jetzt wiederholen oder verhindern weitere im Raum stehende Sanktionen eine solche Entwicklung?

Nahezu sicher scheint der Bullenmarkt bei der zweitgrößten Kryptowährung Ethereum. Nach Angaben der Ethereum Foundation soll im zweiten Halbjahr die Umstellung der Währung auf das Proof-of-Stake-Verfahren erfolgen. Anders als bei der bisher genutzten Proof-of-Work-Methode ist dann kein hoher Energieaufwand mehr nötig, um neue Coins zu kreieren und die Sicherheit der Blockchain zu gewährleisten. In Anbetracht der sich zuspitzenden Energiekrise und des Trends zur nachhaltigen Kapitalanlage dürfte der Ethereum-Kurs in die Höhe schießen.

Kaum sind Kryptowährungen im Mainstream angekommen, sind mit NFTs (Non-fungible Token) ganz neue Anlagemöglichkeiten im Krypto­kosmos entstanden. Die Token werden dabei verwendet, um das Eigentum an digitalen Vermögenswerten zu repräsentieren und können nur durch Kryptowährungen erworben werden. Betrug der durchschnittliche tägliche Gesamtumsatz des Marktes 2020 noch etwa 183 121 US-Dollar, stieg er bereits 2021 auf 28 Millionen an. Besonders begehrt waren dabei digitale Kunst­werke. Mike Winkelmann, der unter seinem Pseudonym Beeple besser bekannt ist, stieg mit einem Paukenschlag in die Top Drei der noch lebenden Künstler auf. Sein Werk „Everydays – The First 5000 Days“ versteigerte er als NFT bei Christie’s für einen Gegenwert von 69 Millionen US-Dollar.

NFTs bieten durch eingebaute Smart Contracts die Möglichkeit, dass die Künstler automatisch auch bei jedem Wiederverkauf des Werks am Gewinn beteiligt werden. Das macht NFTs auch für Spendenaktionen interessant, da die Organisationen, denen das Geld zugutekommt, so ebenfalls mehrfach pro­fitiert. Pussy-Riot-Mitglied Nadeschda Tolokonnikowa initiierte basierend auf dieser Idee eine NFT-Kollektion, durch dessen Erlöse bereits mehrere Millionen Dollar für ukrainische NGOs gesammelt werden konnten.

von Andreas Fuhrich
a.fuhrich@trendreport.de

Attacken durch die Lieferketten

Gastbeitrag von Ingo Schäfer, Director, Channel DACH & Eastern Europe bei Proofpoint

Einer der Trends in den Bereichen Industrie 4.0 und digitale Transformation ist die Integration von Lieferanten und Kunden in Produktions- und Administrationsprozesse. Diese Vernetzung verspricht deutliche Produktivitätsvorteile und zusätzliche Agilität für alle Beteiligten.
Auf diese Weise entsteht jedoch ein neuer Angriffsvektor, den sich Cyberkriminelle immer stärker zunutze machen: die Lieferkette. Das tatsächliche Ziel der Angreifer ist dabei immer häufiger nicht das ursprünglich attackierte Unternehmen, sondern dessen Kunden oder Lieferanten. Dieses Phänomen ist branchenübergreifend zu beobachten. Denn für den Erfolg der Kriminellen ist es bereits ausreichend, lediglich einen einzigen E-Mail-Account in einer weniger gut geschützten Firma zu kompromittieren und dort vielleicht nur eine legitime Identität zu übernehmen. Mittels dieses Accounts haben die Angreifer dann beste Chancen, dass Mitarbeiter im eigentlichen Zielunternehmen auf Betrugsversuche via E-Mail hereinfallen.
Häufig erfolgt nach der Kompromittierung zunächst nur ein vorsichtiges Erkunden der Umgebung und Prozesse, in die das Opfer eingebunden ist. Daher bleiben viele erfolgreiche Kompromittierungen auch lange unentdeckt. Diese lange Zeitspanne bis zur Entdeckung bietet den Kriminellen die Chance, über einen längeren Zeitraum Daten zu sammeln, sich in Ruhe in den Systemen einzunisten und die Möglichkeiten zur Monetarisierung des Angriffs vollständig auszuschöpfen.

Hohe Erfolgschance der Kriminellen

Attacken über die Lieferketten sind für die Kriminellen häufig von Erfolg gekrönt. Denn erhält ein Anwender eine E-Mail von einem legitimen Account eines Lieferanten mit einer Word-, Excel- oder PDF-Datei, wird er diese sicherlich weitaus weniger misstrauisch behandeln, als wenn dieselbe Mail mit derselben Datei von einem unbekannten Absender stammt.

Das Spektrum der späteren Angriffe kann vielfältig sein, angefangen von reinen Textnachrichten, um beispielsweise Zahlungen auf angeblich neue Bankverbindungen umzuleiten, bis hin zu Ransomware, die sich beispielsweise in einer Bestellbestätigung versteckt.
Wie real diese Bedrohung durch Angriffe in der Lieferkette ist, zeigte 2021 eine Untersuchung von Proofpoint. Dabei stellten die Experten des Cybersecurity-Spezialisten bei der Analyse von 3 000 Unternehmen fest, dass 98 Prozent von ihnen mit Cyberbedrohungen konfrontiert waren, die von der Domain eines ihrer Lieferanten stammten.

Das heißt, es reicht bei weitem nicht, nur die eigene Organisation durch technische Maßnahmen und regelmäßige, praxisorientierte Trainings auf aktuelle Bedrohungen vorzubereiten. Vielmehr müssen die Unternehmen weiterdenken und auch Lieferanten und Kunden in ihren Sicherheitsstrategien berücksichtigen.


3 Fragen an…

…Ingo Schäfer, Director, Channel DACH & Eastern Europe bei Proofpoint

Herr Heuer, welche aktuellen Erkenntnisse förderte Ihr State of The Phish-Bericht 2022 zu Tage?
Unser Report zeigt, dass Cyberkriminelle 2021 nicht nur aktiver waren als im Jahr zuvor, sie waren auch erfolgreicher. Weltweit gaben 83 Prozent der Umfrageteilnehmer an, dass ihr Unternehmen im Jahr 2021 mindestens einen erfolgreichen Phishing-Angriff per E-Mail erlebt hat – ein deutlicher Anstieg um 46 Prozent gegenüber dem Vorjahreszeitraum.
BEC-Angriffe (Business Email Compromise, auch CEO-Betrug genannt) verzeichneten ebenfalls einen starken Anstieg: 77 Prozent der Unternehmen waren weltweit 2021 mit derlei Angriffen konfrontiert. Dies entspricht einem Anstieg von 18 Prozent gegenüber 2020.
In Deutschland gaben 80 Prozent der Befragten an, dass ihr Unternehmen 2021 mindestens einen erfolgreichen Phishing-Angriff per E-Mail erlebt hat. Im Jahr zuvor sagten dies lediglich 47 Prozent. Dieser Anstieg liefert einen erneuten Beleg für die wachsende Bedeutung von E-Mail-Sicherheit und die Notwendigkeit, sich beim Thema Cybersecurity auf den Menschen als Ziel der Angriffe zu konzentrieren.

Welche Hilfen und Tools sollten Führungskräfte Ihren Kollegen / innen mit an die Hand geben?
Ein mehrschichtiger Sicherheitsansatz ist die beste Strategie, um insbesondere gegenüber Phishing-E-Mails gewappnet zu sein. Dabei besteht der wichtigste Grundsatz darin, den Menschen in den Mittelpunkt dieser Sicherheitsstrategie zu stellen und Technologie, Prozesse und Schulungen effektiv zu kombinieren. In diesem Zusammenhang ist es wichtig herauszufinden, welche Benutzer am häufigsten attackiert werden und welche von ihnen am ehesten auf Social Engineering hereinfallen. Wenn man weiß, welcher Mitarbeiter mit welchen Bedrohungen angegriffen wird, können die Schulungsmaßnahmen entsprechend zugeschnitten werden.
Neben Security-Awareness-Trainings gehört auch der Schutz am E-Mail-Gateway, in der Cloud und am Endgerät sowie die Implementierung von E-Mail-Autorisierungsprotokollen wie DMARC und SPF zu einem umfassenden und mehrschichtigen Sicherheitsansatz.

Warum sollten Unternehmen bei Ihren Cybersicherheitsstrategien zuerst bei Ihren Mitarbeitenden ansetzen?
Mehr als 90 Prozent aller erfolgreichen Cyberangriffe erfordern eine menschliche Interaktion. Daher ist die Sensibilisierung der Mitarbeiter für Cyberbedrohungen, mit denen sie in ihrem Arbeitsalltag konfrontiert werden können, ein entscheidender Faktor. Cyberkriminelle haben immer wieder unter Beweis gestellt, dass sie auf Menschen und nicht auf die technische Infrastruktur abzielen. Hierzu nutzen sie perfide Social-Engineering-Techniken, um sensible Unternehmensdaten zu stehlen, Accounts zu übernehmen und vieles mehr.
Schulungen in Sachen Cybersicherheit sind zwar wichtig, um ein Bewusstsein zu schaffen, aber das ist nur ein erster Schritt. Langfristig ist der Schlüssel zur Minimierung des Risikos eine Änderung des Benutzerverhaltens in Bezug auf Cybersecurity sowie die Etablierung einer Sicherheitskultur im Unternehmen. Um diese zu schaffen, ist es wichtig, alle Mitarbeiter miteinzubeziehen. Denn nur wenn sich alle ihrer Verantwortung in dieser Hinsicht bewusst sind, kann ein bestmöglicher Schutz gewährleistet werden.

Weitere Informationen unter:
www.proofpoint.de


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Lieferketten und Menschenrechte

Das neue Lieferkettensorgfaltspflichtengesetz (LkSG) ruft die Unternehmen auf den Plan. Was müssen sie tun, um den menschenrechtlichen Sorgfaltspflichten innerhalb ihrer Lieferketten zu genügen? Matthias Schneider und Marc Osswald von der apsolut Group räumen mit Missverständnissen auf.


Wie ein Damoklesschwert scheint der 1. Januar 2023 – der Tag des Inkrafttretens des LkSG – über den Unternehmen in Deutschland zu schweben. Doch haben sie noch ein wenig Zeit, um sich auf die neuen Anforderungen einzustellen, wie Matthias Schneider, Principal beim SAP Gold Partner apsolut, betont: „Die jährlichen Unternehmensberichte zur LkSG-Umsetzung müssen dem Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA) erst spätestens im April 2024 vorgelegt werden.“

Unternehmen sollten handeln

Unternehmen sollten jetzt handeln und die verbleibende Zeit gut nutzen, um die organisatorischen und technologischen Weichen für ein wirksames Lieferantenrisikomanagement zu stellen. Ein erster Schritt liegt in der Schaffung von Transparenz über die Menschenrechtskonformität der Lieferanten und Vorlieferanten: ob Schutz vor Kinder- und Zwangsarbeit, Antikorruptionsrichtlinien oder Zahlung von Mindestlohn, aber auch ausgewählte Umweltaspekte.   

„Zur Vereinfachung der Informationssrecherchen können spezialisierte Dienstleister hinzugezogen werden, die neben Fragebögen zur Selbstauskunft der Lieferanten auf Adverse-Media-Suchen setzen“, erläutert Marc Osswald, Partner bei apsolut. „Dabei werden täglich Milliarden Online-Quellen nach Nachrichten über die Lieferanten durchforstet und die entsprechenden Risikoparameter in einer zentralen Plattform zusammengeführt.“ Ergänzend kann ein Unternehmen individuelle Lieferantenfragebögen nutzen.    


„…die Reports müssen alle Maßnahmen enthalten, die sie zur Beseitigung von Menschenrechtsrisiken in ihren Lieferketten ergriffen haben.“   

Matthias Schneider

Spezielle Lösung ermittelt Risiken

Dreh- und Angelpunkt für eine erfolgreiche LkSG-Umsetzung ist eine unternehmenseigene Risikomanagement-Lösung, in die sämtliche menschenrechtsrelevanten Informationen über den Lieferantenstamm einfließen. Das Tool ermittelt etwaige Risiken und informiert die Anwender über kritische Zulieferer. Mit diesen Geschäftspartnern sollte das Unternehmen direkt in kollaborative Verhandlungen treten, um die angezeigten Missstände möglichst effektiv zu beseitigen.

Zudem bietet die Lösung umfangreiche Reporting-Funktionen, mit denen die vorgeschriebenen Jahresberichte auf Knopfdruck erstellt und an das BAFA übermittelt werden können. „Mit diesen Berichten dokumentieren die Unternehmen, dass sie den gesetzlichen Sorgfaltspflichten genügen“, erklärt Matthias Schneider. „So müssen die Reports alle Maßnahmen enthalten, die sie zur Beseitigung von Menschenrechtsrisiken in ihren Lieferketten ergriffen haben.“   

SAP-Kunden können wählen

Im SAP-Umfeld bieten sich mehrere Lösungen für ein Lieferantenrisikomanagement nach LkSG-Vorschrift an. Da ist zum einen die Beschaffungsplattform SAP Ariba, die vor allem im gehobenen Mittelstand und in Großkonzernen im Einsatz ist. Ariba enthält bereits die meisten Funktionen, um die notwendigen LkSG-Prozesse abzubilden, und kann entsprechend ausgeprägt werden. Für SAP-Kunden, die kein Ariba, aber andere SAP-basierte Einkaufslösungen nutzen, empfiehlt sich ein Add-on, das in enger Zusammenarbeit von SAP und apsolut entsteht. Diese neue smarte Lösung lässt sich leicht in die vorhandene Systemumgebung integrieren und ermöglicht auch kleineren SAP-Kunden ein verantwortliches Lieferkettenmanagement. Sie soll sich im ersten Schritt ausschließlich auf die Belange des LkSG fokussieren.


„Gerade die jüngere Generation von Bewerberinnen und Bewerbern entscheidet sich bei ihrer Jobauswahl für Arbeitgeber, die sich einer sozialen und ökologischen Unternehmensführung verschrieben haben.“

Marc Osswald

Erfahrener Beratungspartner 

Als Spezialist für die SAP-basierte Beschaffung kombiniert apsolut langjährige Projekterfahrung mit Technologie- und Prozess-Know-how, um Unternehmen gezielt bei der LkSG-Umsetzung zu unterstützen. „Dies reicht von einer initialen Risikoanalyse auf Warengruppen- und Lieferantenebene bis hin zur Ableitung konkreter Risikomanagement-Maßnahmen“, so Marc Osswald. „Zudem beraten und begleiten wir die Kunden in allen Phasen des Implementierungsprojekts und sorgen auch für eine nahtlose Einbindung möglicher Drittanbieter.“ Auch Unternehmen ohne dezidierte SAP-Strategie werden – sowohl organisatorisch als auch technologisch – fit für die Umsetzung des neuen Lieferkettengesetzes gemacht.

Nachgehakt bei unseren Experten

Matthias Schneider, Principal beim SAP Gold Partner apsolut

Herr Schneider, zum Thema menschenrechtskonforme Produktionsverfahren und Arbeitsbedingungen scheint ja gerade in den westlichen Ländern ein breiter Konsens zu bestehen. Was bringt das LkSG in diesem Zusammenhang?

„Das neue Gesetz hat nur verschriftlicht, was in den Köpfen vieler Menschen ohnehin schon länger existiert. Das reicht von den Vorstandsetagen und Mitarbeitern in den Unternehmen bis hin zu den Konsumenten. Die meisten haben konkrete Werte und Vorstellungen, welche Arbeitsbedingungen global herrschen sollten, um die Menschenrechte nicht zu verletzen.

Viele Unternehmen sind diesem Trend gefolgt und haben bereits entsprechende Richtlinien in ihren Lieferantenkontrakten festgelegt. Möglichst viel Qualität für möglichst wenig Geld zu erhalten – dieses klassische Einkaufsparadigma gehört immer mehr der Vergangenheit an. Stattdessen versuchen die Unternehmen, mit ihren Lieferanten langfristige Partnerschaften aufzubauen und über Netzwerke zu kollaborieren.

Das LkSG bietet ihnen nun eine zusätzliche Planungssicherheit. Es schafft einen verlässlichen Rahmen, welche Risikoparameter in der Zusammenarbeit mit den Lieferanten unverzichtbar sind und vertraglich vereinbart werden müssen.“

Können Sie uns Näheres über die Risikoparameter sagen, die für die Einhaltung der Sorgfaltspflichten eines Unternehmens relevant sind?

„Die Sorgfaltspflichten beziehen sich auf die weltweit anerkannten Menschenrechte, zu denen der Schutz vor Kinderarbeit, Diskriminierung und Zwangsarbeit, die Antikorruptionsrichtlinien, Vereinigungs- und Koalitionsfreiheit, die Zahlung angemessener Löhne sowie einzelne Umweltaspekte zählen.

Viele Lieferanten sind in dieser Hinsicht schon tätig geworden und können mit  entsprechenden Zertifikaten nachweisen, dass ihre Produktionsverfahren und Arbeitsbedingungen menschenrechts- und umweltschutzkonform sind. Ein Beispiel dafür ist der internationale Zertifizierungsstandard SA 8000, der sozial akzeptable Praktiken am Arbeitsplatz bescheinigt. Verschiedene ISO-Zertifizierungen decken unter anderem die Themen Antikorruptionsrichtlinien, Mindestlöhne, Gesundheit und Sicherheit ab.

Verfügt ein Lieferant nicht über solche Zertifizierungen, muss er dem einkaufenden Unternehmen durch Selbstauskunft oder Audits bestätigen, dass er gemäß bestimmten Konventionen handelt.“ 

Marc Osswald, Partner bei apsolut

Herr Osswald, welche Unternehmen sind von dem neuen Lieferkettensorgfaltspflichtengesetz (LkSG) betroffen?

„Das neue Gesetz gilt für alle Unternehmen mit Sitz oder Zweigniederlassung in Deutschland und mindestens 3.000 Mitarbeitern im Inland. Ab 1. Januar 2024 findet es auch für Unternehmen ab 1.000 Mitarbeitern Anwendung. Die EU-weite Richtlinie wird hier sogar noch weiter gehen und auch Unternehmen ab 500 oder 250 Mitarbeiter (je nach Branche) einbeziehen.

Allerdings unterscheiden sich die einzelnen Branchen zum Teil gewaltig, was den erforderlichen Aufwand für die LkSG-Umsetzung betrifft. Das hängt von den jeweiligen Marktgegebenheiten und der Wettbewerbssituation ab. Da ist zum Beispiel die Automobilindustrie, die sich schon früh mit dem Thema Digitalisierung im Einkauf und Lieferantenmanagement-Systemen auseinandersetzen musste, um der Konkurrenz gewachsen zu sein.

Diese Branche ist für die neuen Anforderungen durch das LkSG weitaus besser gerüstet als etwa die Finanzwirtschaft, die einen historischen Rückstand in puncto Digitalisierung aufweist. Viele Banken und Versicherungen müssen erst einmal die grundlegende IT-Infrastruktur bereitstellen, um die neuen Prozesse und Funktionen abbilden zu können.“  

Mit welchen Nachteilen und Strafen müssen einkaufende Unternehmen bei Verstößen gegen das LkSG rechnen?

„Bei Zuwiderhandlung können Unternehmen mit einem weltweiten Jahresumsatz über 400 Millionen Euro mit einem Bußgeld von bis zu zwei Prozent des Umsatzes belegt werden. Als weitere Möglichkeit sieht das Gesetz vor, Unternehmen, die die LkSG-Vorgaben nicht angemessen umsetzen, für bis zu drei Jahre von öffentlichen Aufträgen auszuschließen.   

Was sich finanziell allerdings noch schlimmer auswirken kann, ist der Reputationsschaden, der mit publik gewordenen Verstößen einhergeht. So wenden sich die Kunden zunehmend von Unternehmen ab, die mit sozial unverantwortlich handelnden Zulieferern zusammenarbeiten.

Darüber hinaus leidet die Arbeitgebermarke des Unternehmens, was sich bei steigendem Fachkräftemangel als starke Erfolgsbremse auswirken kann. Gerade die jüngere Generation von Bewerberinnen und Bewerbern entscheidet sich bei ihrer Jobauswahl für Arbeitgeber, die sich einer sozialen und ökologischen Unternehmensführung verschrieben haben.“  

http://www.ap-solut.com/lksg

Aufmacherbild / Quelle / Lizenz
Photo by oto von Lan Johnson auf Unsplash

Ganz einfach verschlüsseln!

Jürgen Vog­ler, Geschäftsführer der procilon GmbH, veranschaulicht unseren Lesern, wie mithilfe von DTM-Lösungen und Cloud-Verschlüsselung die Echtheit von Daten vertraulich garantiert werden kann.

Herr Vogler, was ist DTM?

Einfach erklärt, beschreibt das Digital Transaction Management (DTM) die Digitalisierung von Dokumentenprozessen. Hinter dieser Aussage verbirgt sich jedoch mehr, als einfach Papierprozesse in die digitale Welt zu übertragen. DTM eröffnet vielfältige technologische Möglichkeiten, von der Erzeugung elektronischer Signaturen bis hin zur sicheren Automatisierung der Dokumentenverarbeitung.


„Dank digitaler Dokumente und elektronischer Signaturen reduziert sich die Durchlaufzeit für Unterschriftsprozesse jeglicher Art deutlich.“

Jürgen Vogler

Mit der proTECTr Cloud Plattform können Dokumente ohne großen Aufwand signiert und Dateien kostenlos verschlüsselt werden.


Welchen Nutzen erzeugt DTM?

Der Nutzen von DTM ergibt sich aus den Hauptfaktoren Compliance und Geschwindigkeit. Dank digitaler Dokumente und elektronischer Signaturen reduziert sich die Durchlaufzeit für Unterschriftsprozesse jeglicher Art deutlich. Dabei ist es in der digitalen Welt immens wichtig, auch die jeweils notwendige rechtliche Verbindlichkeit herzustellen. Zusätzlich kommt bei verteilten Arbeitswelten der Aspekt der vertraulichen Kommunikation hinzu. Sind diese Faktoren vorhanden, spart dies viel Zeit und Geld.

Wie kann man starten?

Einen schnellen Weg zum Erfolg verspricht die Digitalisierung einfacher Papierprozesse. Hierfür stehen zwei Modelle zur Verfügung. So kann auf der einen Seite die Integration von DTM mit Content-Management-Systemen der rich­tige Weg sein. Auf der anderen Seite gehört die Nutzung verschiedener Cloud-Services zu den wichtigsten Aspekten des DTM. Beispielsweise können mit der Web-Anwendung proTECTr.com Dateien in einem Arbeitsgang elektronisch signiert, verschlüsselt und anschließend lokal gespeichert oder via E-Mail versendet werden. Die DTM-Lösung ist in kürzester Zeit ohne aufwendige Implementierung nutzbar.

www.protectr.com

New Work im Next Normal

Gerade in Zeiten der Krise zeigt sich, welchen Stellenwert eine offene und digitale Unternehmens­kultur einnimmt

Noch nie war die Identifikation mit dem Unternehmen so wichtig wie heute, gerade im Hinblick auf Vertrauensarbeitszeit und Remote Work. Viele Unternehmen erkennen jetzt, dass die Digitalisierung die lernende Organisation wirklich möglich macht. Dies zeigt sich besonders im Umgang mit neuen Kommunikationstechnologien und -tools und der Art und Weise wie wir diese nutzen. Aber wie nachhaltig verändert Corona die Organisation und Struktur von Unternehmen? Mehr Zentralisierung oder mehr Dezentralisierung und welche Art von Führung wird dominieren?

Viele Unternehmen wagen sich derzeit auf neue Wege. Sie experimentieren mit ihren Organisations- und Führungsstrukturen und gehen dabei viel weiter als in der Vergangenheit. Eines ändert sich jedoch nicht – die Wertschätzung für Mitarbeitende und das ganz wichtige Vertrauen in die eigenen Leute.

Diese beiden Faktoren sind immer noch die Grundlagen für eine stabile und nachhaltige Organisation. Und genau das sind die Pfeiler, auf denen heute agile Methoden aufsetzen und Unternehmen innovativer und flexibler machen. Konzerne probieren sich just weltweit an der Gestaltung neuer Arbeitswelten und realisieren die Vertrauensarbeitszeit und den Vertrauensarbeitsplatz. Die Mitarbeiter können arbeiten, wann und wo sie wollen. Durch die digitale Transformation ändert sich unsere Kommunikation und neue Fähigkeiten sind gefragt. Selbstbestimmung und Eigenverantwortung der Mitarbeitenden werden immer wichtiger. Aber Kollaborationstools und Smartphones kennen keinen Feierabend mehr und die Arbeit gehört immer mehr zum Privatleben und umgekehrt. Die Vermischung von Arbeit und Privatleben wird eindeutig noch zunehmen.

„Neben neuen Tech­nologien werden wir uns vor allem auf andere Arbeitsbedingungen ein­stellen müssen.“

betont Prof. Deml
Prof. Dr.-Ing. Barbara Deml leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT
Prof. Dr.-Ing. Barbara Deml leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT

Viele Arbeitnehmer sind heute schon mit dem Tablet oder Computer am Wochenende und auch abends für die Firma am Start. Die Aufgabenprofile wandeln sich durch künstliche Intelligenz und die Automatisierung im Büro. Smarte Assistenten helfen uns, stupides Arbeiten zu vermeiden. Mensch und Maschine sollten sich ergänzen.

Frau Prof. Deml, die den Bereich „Arbeit und Menschen“ erforscht, beschreibt das so: „Neben neuen Technologien werden wir uns vor allem auf andere Arbeitsbedingungen einstellen müssen: Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war.“ Die Professorin leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT und fährt fort:

„Für Unternehmen bedeutet das, dass sie flexibler und schlanker werden müssen. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören. Sie werden zum Teil ihre Dienstleistung auf Plattformen anbieten und zeitlich befristet für den ein oder anderen Auftraggeber tätig sein. Das kann unsere Arbeitszeiten massiv beeinflussen, unser Verständnis von Unternehmenskultur obsolet machen, und es verlangt von Führungskräften ganz andere Managementkompetenzen. Diese Punkte müssen auch gesellschaftspolitisch adressiert werden und wir müssen zum Beispiel Arbeitsschutz neu denken.“

Die digitale Transformation verändert unsere Arbeit nicht nur im Büro, sondern auch im Produktionsumfeld.

Agilität am Arbeitsplatz und an der Maschine sind gefragt wie nie. Aber warum sollten Unternehmen in der Produktion auch auf New Work setzen und warum ist Agilität auch im Produktionsumfeld so wichtig? Im Gespräch mit unserer Redaktion erklärt uns Benjamin Brockmann von Operations1: „Die Umsetzung agiler Arbeitsweisen ist für viele produzierende Unternehmen eine Herausforderung. Unternehmen kämpfen heute immer noch mit Datensilos und Systembrüchen und arbeiten teilweise noch papierbasiert.“ Laut Benjamin Brockmann ist die Konsequenz daraus, eine geringe Transparenz sowie eine aufwendige Anpassung von Prozessen. Unternehmen laufen, nach dem CEO, somit Gefahr abgehängt zu werden, wenn sie sich nicht kontinuierlich neu erfinden würden. „Das Potenzial von agilen Arbeitsweisen wurde bereits erkannt und immer mehr Unternehmen testen neue Technologien, anstelle von langwierig geplanten Transformationsprojekten. Agilität ist eine grundsätzliche Frage des Mindsets sowie der Unternehmenskultur und lässt sich nicht über Nacht erreichen.“, fügt Brockmann hinzu.

Das Zusammenspiel von Big Data, künstlicher Intelligenz und Vernetzung bewirkt, dass maschinelle Prozesse in das menschliche Hoheitsgebiet kognitiver Aufgaben vordringen.

Das Zusammenspiel von Big Data, künstlicher Intelligenz und Vernetzung bewirkt, dass maschinelle Prozesse in das menschliche Hoheitsgebiet kognitiver Aufgaben vordringen. Warum Zukunftsangst dennoch nicht nötig ist und welche neuen Anforderungen an Mitarbeitende entstehen, berichtet Lorenz Berg, von Aon Assess­ment Solutions. „Die Fähigkeit, sich an neue Umgebungen anzupassen, wird dabei auf dem Arbeitsmarkt der Zukunft immer wichtiger.“ Der Grund für ihn ist dabei vor allem die Geschwindigkeit des technologischen Fortschritts, wodurch immer mehr Arbeit durch Maschinen verrichtet wird und berufliche Rollen nicht länger ein ganzes Leben, sondern nur noch wenige Jahre besetzt werden. „Was durch Studien belegt ist“, so führt Berg aus, „ist tatsächlich, dass die Halbwertszeit von Wissen und Skills durch die Beschleunigung massiv abnimmt.“ Statt Wissen, Skills und Bildungsbiografie sind „Metakompetenzen wie Neugier, Lernfähigkeit und Agilität also Anpassungsfähigkeit wichtiger. Kompetenzen, die in einem modernen Assessment – in Präsenz oder virtuell – überprüft werden können.“

Zukunftsfähigkeit für produzierende Unternehmen verbessern Metakompetenzen für die digitale Welt
Lesen Sie den ausführlichen Beitrag von Benjamin Brockmann. Lesen Sie den ausführlichen Beitrag von Lorenz Berg.

New Work ist ein älteres Konzept, welches von Frithjof Bergmann eingeführt wurde. Das Maß der Arbeit und die Sinnerfüllung in der Tätigkeit stehen dabei im Fokus. Das „Wie der Arbeit“ spielte dabei zwar auch immer eine Rolle, rückt aber beim Begriff „Smart Work“ deutlicher in den Vordergrund. Gerade jetzt in der Corona-Krise geht es viel stärker um das „Wie“.

Wie wollen wir in Zukunft arbeiten? Welche Arbeitskonzepte setzen sich in einer post-corona Zeit durch? Sind es Hybridformate? Ist es doch wieder ein „Return to Workplace?“ Welche Formen der Zusammenarbeit werden sich durchsetzen, wenn wir mehr Meetings im virtuellen Raum haben? Wie müssen sich Führungskonzepte weiterentwickeln?

Stichwort: Führung aus Distanz oder virtuelle Führung. Wie sehen die Bürokonzepte der Zukunft aus, wenn man davon ausgeht, dass Menschen nur noch 50 Prozent ihrer Arbeitszeit im Büro sind und das Konzept des einzelnen Büros oder des festgelegten Schreibtisches obsolet wird? Wir brauchen mehr kollaborative Spaces, also Flächen, wo Menschen spontan oder geplant zusammenkommen können, um an gemeinsamen Ideen und Projekten zu arbeiten.

Mit RPA (Robotic-Prozess-Automa­tion) erreichen wir zum Beispiel, dass sich Maschinen vernetzen und durch diese Vernetzung zusammen mit den Entwicklungen in den Bereichen Datenanalyse, Mustererkennung und künstlicher Intelligenz nun in der Lage sind, bisher typischerweise von Menschen ausgeführte, also kognitive, Aufgaben zu übernehmen. Das hat massive Folgen für die Arbeit, und zwar nicht nur für manuelle Tätigkeiten. Die Dystopen sagen, menschliche Arbeit wird durch Maschinen ersetzt.

Wir glauben, dass es mehr Zeit für neue Aufgaben geben wird, die entstehen werden. Neue Rollen entstehen dabei viel schneller als das früher der Fall war. Die Geschwindigkeit des technologischen Fortschritts hat einfach massiv zugenommen. Früher hielt eine berufsbezogene Rolle ein ganzes Leben, zukünftig vielleicht nur noch zwei oder drei Jahre. Abschließend merkte Lorenz Berg noch an: „Man muss also immer schon überlegen, was ist der nächste Schritt und wie komme ich dahin? Wie muss ich mich weiterqualifizieren für meine nächste Rolle oder die Veränderungen in meinem jetzigen Job, um employable zu bleiben. Die Themen Re- und Up-skilling sowie lebenslanges Lernen werden dabei immer wichtiger.“

von Bernhard Haselbauer

Rendite und Sicherheit bei Rohstoffinvestment

Wie sich Rendite und geringes Risiko im Bereich der Minenaktien verbinden lassen, verrät Dana Kallasch, Mitgründerin von Commodity Capital AG im Hintergrundgespräch mit der TREND REPORT Redaktion.


Frau Kallasch, Ihre Goldminenaktienfonds sind regelmäßig bei Awards auf den vorderen Rängen zu finden. Was steckt hinter Ihrer Anlagestrategie- und Philosophie?

Unsere Philosophie basiert zum Einen auf dem Minenlebenszyklus von Minenunternehmen und zum anderen darauf das Verhältnis von Risiko zu Rendite genau zu bewerten und entsprechend zu versuchen möglichst viel Risiko aus dem an sich volatilen Rohstoffsektor zu nehmen. Als einfaches Beispiel kann hier sicherlich genannt werden, dass wir bereits seit Jahren politische Risiken minimieren.

So investieren wir weder in Afrika, noch in China oder Russland und auch in Südamerika haben wir aufgrund der politischen Entwicklungen unsere Positionen beispielsweise in Peru oder Chile auf ein Minimum reduziert.

Der wichtigste Punkt um Risiken zu minimieren und gleichzeitig seine Rendite zu maximieren ist ein sehr einfacher. Wir setzen auf ausgezeichnetes Management mit einem langen Track record, das wir persönlich meist seit vielen Jahren kennen und einschätzen können.

Diese Unternehmen besitzen nicht nur ein geringes Risiko, sondern auch weiterhin enorme Chancen, da die großen Major händeringend nach eben jenen Juniorunternehmen suchen, welche in politisch stabilen Regionen über Jahre erfolgreich arbeiten können. Die Major selbst meiden wir größtenteils, da sie in erster Linie ihre Ressourcen verbrauchen und bei Akquisitionen in der Vergangenheit stets ein schlechtes Timing hatten und zu viel für die Akquisitionen bezahlt haben.

Wir sehen unseren Mehrwert als Portfoliomanager auch in erster Linie darin in unseren Investoren unbekannte hoch qualitative Unternehmen zu investieren, als ihnen ein weiteres Mal Barrick oder Newmont ins Portfolio zu legen.   

Welche Werte sind Ihnen dabei wichtig und welche Rolle spielt das Thema Nachhaltigkeit bei Rohstoffinvestments?

Das Thema Nachhaltigkeit spielt bei uns eine entscheidende Rolle und das nicht erst seit einigen Jahren, oder weil es Investoren gerne hören wollen. Bereits mit Auflage der Fonds haben wir uns darum bemüht die Vernunft bei unseren Entscheidungen walten zu lassen. Wir schauen uns in der Regel all unsere Kernpositionen vor Ort an und führen teilweise mehrmals site visits vor Ort durch. Auch wenn uns dies aufgrund von Corona in den vergangenen beiden Jahren kaum möglich war, sehe ich dies als  essenziell an.


„Der wichtigste Punkt um Risiken zu minimieren und gleichzeitig seine Rendite zu maximieren ist ein sehr einfacher. Wir setzen auf ausgezeichnetes Management mit einem langen Track record, das wir persönlich meist seit vielen Jahren kennen und einschätzen können.“


Neben der Geologie oder der Infrastruktur steht hierbei insbesondere auch die Beziehung der lokalen Bevölkerung zum Unternehmen im Vordergrund für uns. Erstens ist die lokale Bevölkerung die erste, die Probleme oder Missstände erkennt und zweitens ist es letztendlich die Beziehung zur lokalen Bevölkerung welche langfristig einen erheblichen Anteil am langfristigen Erfolg eines Minenprojektes hat. Sie müssen sich vorstellen, dass alle Kosten für ein neues Minenprojekt anfallen, bevor die erste Unze aus dem Boden gefördert werden kann.

Anschließend allerdings erwirtschaftet die Mine über viele Jahre bzw. Jahrzehnte Gewinne. Der Reibungslose Ablauf über viel Jahre ist also ein entscheidender Renditefaktor und wird in unseren Augen viel zu wenig beachtet. Für uns ist Einbeziehung der lokalen Bevölkerung allerdings ein entscheidendes Kriterium für eine Investitionsentscheidung. Und hier geht es uns nicht darum, dass das Unternehmen eine Schule oder einen Fußballplatz bauen lässt, sondern in erster  Linie darum, wie die Kommunikation zur lokalen Bevölkerung ist und dass dieser entsprechend Respekt entgegengebracht wird und man sich derer Sorgen annimmt.

Und ich kann aus meiner bisherigen Erfahrung sagen, dass unter diesen Umständen die lokale Bevölkerung immer pro Mining ist, da Mining stabile, gut bezahlte Jobs mit sich bringt und die Infrastruktur um Jahrzehnte in meist strukturschwachen Regionen voranbringt. Und die typischen Umweltproblematiken aus den 80ern oder 90ers sind in Nordamerika oder Australien sowieso heutzutage nicht mehr vorstellbar. Ein weiterer Grund für uns mit Investitionen in Afrika oder anderen Ländern sehr vorsichtig zu sein, da die Regularien sich doch sehr deutlich unterscheiden.    


Warum könnte 2022 das Jahr für die Edelmetallmärkte werden

An sich hätte man ja erwarten können, dass bereits 2021 das Jahr für Gold hätte sein sollen. Steigende Inflationsraten, eine weiter ausufernde Überflutung der Märkte mit Geld durch die Notenbanken und ein weiterhin negativer Realzins. In unseren Augen gab es 3 Gründe dafür, dass die Goldhausse nochnicht eingetreten, bzw. noch etwas verschoben ist. Erstens wurde von Seiten der Notenbanken sehr lange die Karte gespielt, dass die Inflation nur vorrübergehend sei und man sich keine Sorgen machen solle.

Dass die Inflation ein Thema sein wird, welches uns noch sehr lange begleiten wird, setzt sich erst langsam durch und die Notenbanken rudern so langsam wie irgendwie möglich zurück. Sollte die Inflation sich in den kommenden Monaten nicht wie von den Notenbanken erwartet wieder abflachen dürfte dies zu einem deutlichen Nachfrageanstieg nach Gold führen. Zweitens hat sicherlich auch der Erfolgszug von Bitcoin einen gewissen Anteil an Mittelzuflüssen insbesondere von jüngeren Investoren angezogen, welcher somit Gold enthalten bliebt. Und als letzten Punkt war es sicherlich die allgemeine „risk on“ Mentalität an der Börse, welche auf den Goldpreis drückte.

Warum sollen Investoren in Gold investieren, wenn sie doch mit risikoreicheren Anlagen wie Technologieaktien oder Bitcoin massive Gewinne erwirtschaften können. Wir erwarten, dass alle drei negativen Einflussfaktoren aus 2021 sich umkehren werden in positive Einflussfaktoren für Gold in 2022 oder zumindest keinen massiven negativen Einfluss mehr auf Gold haben werden wie noch im vergangenen Jahr. Und zu allerletzt muss angeführt werden, dass der Goldpreis selbst auf dem aktuellen Niveau für historisch einmalige Gewinne bei den Minenwerten sorgt. Die Minen befinden sich bewertungstechnisch auf einem Krisenniveau und das trotz historisch einmaliger Gewinne. Wir sehen daher selbst bei einem lediglich stabilen Goldpreis um 1800 USD je Unze erhebliches Potential bei den Minenaktien.

Auf was müssen sich Investoren und Anleger in den nächsten Monaten einstellen?

Wir glauben, dass die Märkte in den kommenden Monaten äußerst volatil sein werden. Die Bewertungen sind an vielen Stellen historisch extrem hoch und eine deutliche Korrektur könnte sicherlich niemanden verwundern. Dabei spielt es aktuell kaum eine Rolle ob sie sich nun Aktien oder Anleihen oder den Immobiliensektor  heraussuchen. Gemessen an historischen Kennzahlen sind alle Segmente sehr teuer – mit einer Ausnahme. Dem Rohstoffsektor und hier insbesondere Gold und Silber. In der Vergangenheit war sehr oft zu beobachten, dass insbesondere Gold im Vorfeld einer Zinswende nachgibt, danach allerdings mit der ersten Zinserhöhung den Turnaround einleitet und in den anschließenden 12 Monaten deutlich zulegen kann. Wir erwarten eine erste Zinserhöhung der amerikanischen Notenbank im März und sehen daher auch den März als Wendepunkt für den Edelmetallsektor. Die Entwicklung der Minenwerte sehen wir ebenfalls ab März positiv, allerdings muss hier immer noch in Betracht gezogen werden, dass sollte es zu einer Korrektur an den internationalen Märkten kommen, auch die Minenaktien in einem ersten Schritt immer zu den Verlieren gehören. Meist werden in diesen Situationen Gelder über alle Sektoren hinweg abgezogen und es dauert ein paar Wochen, ehe sich der Sturm gelegt hat und die Minenwerte anschließend die Schere zu Gold wieder schließen.


Was raten Sie Anlegern und Investoren?

Ich rate Anlegern zu diversifizieren und zwar über verschiedene Sektoren hinweg. Aus antizyklischer Sicht sollte man sich hierbei dann auch den Rohstoffsektor etwas genauer anschauen. Die Gewinne der Unternehmen sind auf Rekordlevel, die Produktion geht dennoch weltweit zurück, da es kaum Neuentdeckungen gibt und die Bewertungen der Aktien sind vergleichsweise extrem günstig. Im aktuellen Marktumfeld mit hohen Inflationsraten, einer bevorstehenden Zinswende, dem Konflikt zwischen der Ukraine und Russland, welcher einen zusätzlichen Marktschock auslösen könnte, könnte aus dem nichtbeachteten schwarzen Entlein „Gold“ in 2022 der weiße Schwan werden und in unseren Augen sollte jeder Anleger eine kleine Portion Gold und Minenaktien im Portfolio besitzen. Innerhalb des Minensektors setzen wir auch in diesem Jahr wieder ausschließlich auf politisch stabile Länder, Juniorunternehmen mit exzellenten Managementteams und schauen uns die Entwicklung der Kosten genau an, um sciherzustellen, dass die Gewinne auch in diesem Jahr wieder das Niveau von 2021 erreichen können.

www.commodity-capital.com

Aufmacherbild / Quelle / Lizenz
Photo by olieman.eth on Unsplash

Rohstoffinvestment mit Rendite und Sicherheit

Ein Investment in Rohstoffe schreckt viele Anleger aufgrund der hohen Volatilität ab. Mit dem Structured Solutions Resource Income Fund hat die Commodity Capital AG ein Produkt lanciert, welches auch risikoscheuen Anlegern den Zugang zum Rohstoffmarkt ermöglicht. Wie sich Rendite und geringes Risiko im Bereich der Minenaktien verbinden lassen, verrät die Mitgründerin Dana Kallasch.


„Wir ermöglichen auch risikoscheuen Anlegern den Zugang zum Rohstoff­markt.“

Dana Kallasch

Commodity Capital hat sich auf den Rohstoffsektor spezialisiert und hier in den letzten Jahren zwei Aktienfonds, die mit mehreren Awards ausgezeichnet wurden, aufgelegt. Im Gegensatz zu vielen anderen Fondsanbietern überzeugt sich das Schweizer Unternehmen vor Ort von den Minenbetreibern.

Im Fokus dieser Mining-Trips stehen die Themen der Nachhaltigkeit und der Akzeptanz in der lokalen Bevölkerung. Denn nur wenn beide Aspekte gewährleistet sind, können Minenunternehmen erfolgreich arbeiten.

Mit dem Structured Solutions Resource Income Fund erhalten nun auch ri­sikoscheue Anleger die Möglichkeit eines nachhaltigen Investments in zukunftsfähige Rohstoffunternehmen. Dabei nutzt Commodity Capital die über die Jahre aufgebaute Expertise, die man vor allem im Hinblick auf die mittelgroßen Unternehmen der Branche erworben hat.

„Wir kennen diese Unternehmen seit Jahren, sind mit dem Management vertraut und wissen, wie sich diese in der Vergangenheit entwickelt haben“, führt Dana Kallasch aus.


„Diese Anleihen bieten nicht nur höhere Zinssätze sowie oft auch Gratisaktien und Optionen, sondern auch eine volle Besicherung des Betriebs.“

Lesen Sie das ausführliche Interview mit der Expertin:

Rendite und Sicherheit bei Rohstoffinvestment


Der Income Fund ist spezialisiert auf Anleihen, wobei das Prospekt auch andere festverzinsliche Wertpapiere mit einer Verbindung zu Rohstoffunterneh­men wie Renten, Wandelanleihen und Schuldverschreibungen, ermöglicht. „Eine Besonderheit des Fonds ist“, ergänzt Kallasch, „dass wir mit einem Pool von Investoren eigene An­leihen für mittelgroße Minengesellschaften initiieren können, die normalerweise keinen Zugang zum Ka­pitalmarkt haben.“ Im Gegenzug bieten diese Anleihen nicht nur höhere Zinssätze sowie oft auch Gratisaktien und Optionen, sondern auch eine volle Besicherung des Betriebs. Konkret heißt das: Obwohl nur maximal 20 Prozent der Markt­kapitalisierung in den Minenbetreiber investiert werden, erhält Commodity Capital im Konkursfall das komplette Unternehmen inklusive aller Maschinen, Schürfrechte und sonstigen Anlagevermögen.

Der Fond ist in Luxemburg, Österreich und Deutschland zugelassen und auf allen Standardplattformen sowie an der Börse Hamburg handelbar. Dabei soll er eine Rendite von sechs Prozent pro Jahr bei einer Volatilität von sechs bis acht Prozent bieten. Die Preisstruktur zeigt, wie überzeugt die Fondsboutique von ihrem Produkt ist. Für das aktive Management fällt eine kleine Management-Fee von lediglich einem Prozent an. Dafür ist eine High-Watermark-Fee fällig, sollte der letzte historische Höchstwert um mehr als acht Prozent überschritten werden.

www.commodity-capital.com

Smart City, Smart Country

Digitalisierung und Nachhaltigkeit: Unsere vernetzte Gesellschaft und die neuen Technologien machen unsere Städte sowie den ländlichen Raum zu Versuchslaboren.

Die digitale Transformation ist allgegenwärtig und verändert unsere Städte und Regionen nachhaltig. Smart-City- und Smart-Country-Strategien haben das Potenzial, einen wesentlichen Beitrag zur Nach­haltigkeit zu leisten, indem sie die digitale Vernetzung nutzen, um Daten zu analysieren. Daraus ergeben sich neue Erkenntnisse im Hinblick auf effizientere städtische Prozesse.

Die Bandbreite an Smart-City-Lösungen für Städte, Kreise und Gemeinden ist vielseitig und reicht von Smart Buildings bis zur Verkehrssteuerung, von der Energieversorgung bis zur Wasserversorgung. Doch die Um­setzung von Smart-City-Projekten ist zumeist technisch komplex und vielseitig. Vor allem kleine und mittlere Kom­munen stoßen hier schnell an ihre Gren­zen.

In diesem Kontext bringt das Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen einen Wissenstransfer zwischen den Modellprojekten Smart Cities (MPSC) und den Kommunen an den Start. Ziel ist es, die in den Modellprojekten gewonnenen Erkenntnisse allen Kommunen zugäng­lich zu machen, indem unter anderem regionale Lernnetzwerke aufgebaut wer­den. Der Wissenstransfer startet mit vier virtuellen Veranstaltungen bereits im Frühjahr 2022. Kommunen sind aufgefordert, sich rege zu beteiligen.

Zum ausführlichen Beitrag von Dr. Bernhard Kirchmair:
Von Smart Cities zu Smart Countries

Die Block­chain-Technologie kann hochsensible personenbezogene Daten schützen, um Behördengänge sicher über das Internet zu ermöglichen. Solche und andere Smart-City-Lösungen erleichtern unser Leben, machen Fahrten überflüssig oder verhindern Stau und verringern so den CO2-Ausstoß“, erklärt Dr. Bernhard Kirchmair von Vinci Energies im Gespräch mit unserer Redaktion.

In intelligenten Städten ist Vernetzung das A und O. Das Internet der Dinge (IoT) und die Konvergenz der Daten- und Kommunikationsnetze schaffen die Voraussetzungen dafür, um die Lebensqualität zu verbessern. Über 20 000 mobile und stationäre Sensoren zur Erfassung unterschiedlicher Parameter wie Lärm, Licht, Umweltbelastung oder Verkehrsaufkommen wurden zum Beispiel beim damaligen EU-Projekt „Smart Santander“ in die Stadt integriert. Quasi als Basis für die kontinuierliche Digitalisierung von Prozessen und Services in der Stadt.

„Die Kombination der vielfältigen
Technologien unterscheidet
den digitalen Zwilling von
bisherigen Smart-City-Ansätzen.“

Genau aus diesen Daten kann heute ein digitaler Zwilling einer Stadt entstehen. Ziel ist es, möglichst viele Daten aus verschiedenen Quellen zu sammeln. Dazu könnten auch anonymisierte Bewegungsdaten aller Bewohner sowie Daten von Fahrrädern oder Rollern dienen. Wenn dann noch Datensilos aufgebrochen werden, können auf Cloud-Plattformen Simulationen und Planungen vor der eigentlichen Umsetzung ausgeführt werden. Die neuen Technologien rund um maschinelles Lernen und KI machen es möglich. Die Kombination der vielfältigen Technologien unterscheidet den Digitalen Zwilling von bisherigen Smart-City-Ansätzen wie etwa (intelligenten) Informationssystemen, Geoportalen, 3D-Simulationen oder Dashboards.

Lesen Sie den ausführlichen Beitrag von Malte Gloth:
Dekarbonisierung als Herausforderung

In Verbindung mit modernen Ge­bäudedatenmodellierungs-Lösungen (Building Information Modeling, BIM) und dem „Digitalen Zwilling“ werden Gebäude in einer Smart City zur Basis für viele neue Services. Gebäude werden quasi zu einem digitalen Betriebssystem, das mit diversen Sensoren Daten sammelt, sich mit anderen Immobilien vernetzt und so den optimalen Betrieb gewährleistet. Heutzutage sind Gebäude weltweit für rund 40 Prozent aller Emissionen verantwortlich. Es besteht also Handlungsbedarf, um die Klimawende zu erreichen.

In Zusammenarbeit mit For­rester Consulting hat Johnson Controls erst kürzlich 2 348 Führungskräfte aus 25 Ländern zum Thema Nachhaltigkeit befragt und das Ergebnis zeigt deutlich, wohin die Reise geht: Die Mehrheit verfolgt bereits Klimaziele und investiert in sichere und energieeffizientere Gebäude.

In diesem Kontext hilft auch Malte Gloth von Johnson Controls mit, die Welt nachhaltiger zu gestalten. „Unter OpenBlue Net Zero Buildings treffen fortschrittliche Gebäudelösungen zusammen, die speziell auf Energieeinsparungen bei einem entsprechenden Rückgang der CO2-Emissionen abzielen und den Einsatz erneuerbarer Energien besser ermöglichen. So umfasst unsere Plattform ein umfassendes Lösungsportfolio für ein proaktives Gebäu­demanagement. Mithilfe KI-gestützter Dashboards werden hierbei der Energiebedarf und der Energieverbrauch rund um die Uhr überwacht und optimiert.“

Am Rande notiert:
Regionalkonferenzen Smart City
Startschuss für den Wissenstransferzwischen den Modellprojekten Smart
Cities und den Kommunen in Deutschland. Los geht es im Frühjahr 2022
mit der Regionalkonferenz „Smart-City-Strategien gemeinsam entwickeln
und Chancen nutzen in meiner Region“ im März 2022 in Mayen-Koblenz.
Die Termine finden Sie unter: https://www.trendreport.de/regionalkonferenz-smart-city/

In Zukunft wird es auf den Umgang mit Daten ankommen. Die Frage, wem die Daten einer Smart City gehören, sollte in diesem Kontext geklärt werden. Bereits heute gehen einige deutsche Städte dazu über, ihre öffentlichen Verwaltungsdaten in die Cloud zu verlagern und diese nach dem Open-Data-Prinzip frei zugänglich zu machen.

Gerade im Bereich der öffentlichen Haushaltsführung bestehen Potentiale, um mehr Transparenz und gesellschaftliche Kontrollmöglichkeiten zu schaffen und mancherorts wird der Einfluss der Bürger:innen schon durch ihre Einbeziehung in partizipative Bürgerhaushalte erweitert.

von Bernhard Haselbauer

Die vernetzte Gesellschaft

Im Spannungszustand zwischen Sicherheit und Innovation

Mittlerweile sind wir weltweit schon 4,9 Milliarden Menschen, die das Internet regelmäßig nutzen. Bis zum Jahr 2030 hängen laut aktuellen Prognosen ca. 50 Milliarden IoT-Geräte im Netz. In diesem Kontext steht die Menschheit vor einer Datenexplosion und die weltweite Datenmenge wächst auf über 2 100 Zettabyte bis 2035 an. Die Digitalisierung ist auf dem Vormarsch und dringt immer tiefer in alle Lebensbereiche ein. Sie verändert unsere Gesellschaft nachhaltig und schnell.

Fake News regieren gerade in Kriegszeiten das Netz.

B. Haselbauer

Doch welche Rolle spielt die zunehmende Vernetzung bei den Prozessen und Entwicklungen unserer Demokratie und wie verändern uns die neuen Informations- und Kommunikationsmöglichkeiten?
Sicher ist eins: die Vorteile der digitalen Vernetzung bringen auch diverse Gefahren und schnelle Veränderungen für unsere Gesellschaft mit sich. Das Metaversum lässt grüßen. Ein negatives, aber trotzdem passendes Beispiel ist der aktuelle Informationskrieg rund um den Ukraine-Russland-Konflikt. Die Welt nimmt über das Internet am Krieg teil und so verlagert und verteilt sich der Konflikt über die ganze Welt. Fake News regieren gerade in Kriegszeiten das Netz.

Zahl der Internetnutzer weltweit

Die ca. 4,9 Milliarden Internetnutzer brauchen mehr digitale Bildung, um Vertrauen in neue Technologien zu setzen, damit die Evolution im Netz nicht endet.


In diesem Kontext sprach unsere Redaktion mit Prof. Dr. Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft. Als Gründungsdirektor und Principal Investigator führt er die Forschungsgruppe „Digital Citizenship“. Laut Prof. Emmer ist eine stärkere Kompetenz und Eigenverantwortung von Bürger:innen nötig. „Wenn möglichst viele Menschen wissen, wie man Fake News erkennt, verlässliche Informationen findet und sich ein ausgewogenes Informationsmenü zusammenstellt, wäre schon viel gewonnen. Allerdings ist es nicht fair, die Verantwortung einfach auf uns einzelne Nutzende abzuschieben, während Multimilliarden-Konzerne aus reinen Profitgründen uns weiterhin hemmungslos mit Informationsmüll überschütten.“ Nötig sei es nach dem Vordenker, auch politischen Druck auf die Plattformen auszuüben, damit sie ihre Algorithmen stärker an Gemeinwohlkriterien ausrichten.

Das Experteninterview:
Prof. Dr. Martin Emmer vom Weizenbaum-Institut
https://www.trendreport.de/mediennutzung

In diesem Zusammenhang schafft momentan Meta (Facebook) neue Arbeitsplätze im deutschen Journalismus. Die Deutsche Presse-Agentur (dpa) beschäftigt von April 2022 an ein 15-Leute-Team, das für den Facebook-Konzern deutsche Nachrichten kuratieren soll. Ob das reichen wird und ein Zeichen ist? Laut Prof. Emmer sprechen eine Reihe von Gründen dagegen: So ließen sich die substanziellen Probleme nicht lösen.

„Insbesondere wird das strukturelle Grundproblem von Social-Media-Plattformen wie Facebook nicht angegangen: Diese sind letztlich automatisierte Maschinen, die wie riesige Turbinen alle Arten von Inhalten ansaugen (Bilder, Videos, Likes, Kommentare etc.) und diese auf der anderen Seite, nach undurchsichtigen Sortierungskriterien, mit Hochdruck in die Timelines der Nutzerinnen und Nutzer pressen.

Angesichts der gewaltigen Mengen an Material sind alle Versuche, das auch nur annähernd inhaltlich durch Menschen (oder bislang unzureichend entwickelte KIs) prüfen und sortieren zu lassen, von vorneherein aussichtslos. Die aktuelle Umsetzung als begleitendes Zusatzangebot zeigt ja auch, dass so etwas auch mit diesem Projekt gar nicht erst versucht wird“, konstatiert Emmer.

Wenn Unternehmen und Verbraucher dem Internet und den neuen Technologien nicht mehr vertrauen und die Macht der zwei bis drei Multimediakonzerne nicht begrenzt wird, endet die Evolution im Netz. Gefragt sind also innovative Lösungen für unsere vernetzte Gesellschaft, die das schon teilweise verlorene Vertrauen wiederherstellen. Komplizierte Skripte und Anwendungen sind hier jedoch nicht die richtige Lösung. Die neuen Möglichkeiten und Technologien zum Schutz unserer Daten und zu mehr „Privatheit“, müssen von allen und auf alle Menschen angewendet werden können.

„Wenn möglichst viele Menschen wissen, wie man Fake News erkennt, verlässliche Informationen findet und sich ein ausgewogenes Informationsmenü zusammenstellt, wäre schon viel gewonnen.

Prof. Dr. Emmer

Die EU versucht mit der DSGVO (Datenschutzgrundverordnung) gegenzusteuern und strebt mehr Rechtssicherheit mit neuen Standards und Verordnungen an. Die aktuellen Rahmenbedingungen, die sich zum Beispiel durch die eIDAS-Verordnung ergeben (elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen), geben der Wirtschaft Auftrieb. Denn durch sie lassen sich viele Digital- und Papierprozesse, z.B. durch die digitale Signatur, beschleunigen. Und so halten mit der eIDAS-Verordnung verbindliche und europaweit gültige Regelungen in den Bereichen „elektronische Identifizierung“ und „elek­tronische Vertrauensdienste“ Einzug.

Lesen Sie den ausführlichen Beitrag von Jürgen Vogler:
Ganz einfach verschlüsseln!

„Als Beispiele seien hier Mitzeichnungen in Verwaltungen oder die Unterschriften bei mehreren Vertragspartnern genannt. Schon mit diesen einfachen Beispielen beginnen wir den Weg zum ‚Digitalen Transaktionsmanagement‘ (DTM)“, erklärte uns Jürgen Vogler von procilon in diesem Kontext. „Die Notwendigkeit, digitale Prozesse, insbesondere bei verteilter Arbeit an unterschiedlichen Orten, nicht nur hinsichtlich der ‚klassischen‘ IT-Security abzusichern, sondern zusätzliche Compliance-Elemente nutzen zu können, wird immer stärker. Letztendlich geht es also darum, dass Potential der Digitalisierung durch vertrauenswürdige Transaktionen auszuschöpfen“, be­tont Jürgen Vogler. Sein Unternehmen entwickelt kryptographische Cloud-Dienste und stellt bereits seit einigen Jah­ren eine entsprechende Verschlüsselungs­technologie über die Web-Applikation proTECTr kostenfrei zur Verfügung.

Durch Cyberkriminalität verliert das Internet ständig an Vertrauen. Zum Bei­spiel ist es schwierig geworden, sich vor gezielten Phishing-Attacken und sonstigen Angriffen zu schützen. Stellen Sie sich vor, Sie wollen einen ominösen, Ihnen regelmäßig zugesendeten Newsletter abbestellen. Sie freuen sich zwar noch darüber, dass der Anbieter einen Link zur Abbestellung zur Verfügung stellt. Mit dem nächsten Klick könnten jedoch auch Sie und Ihr Rechner ferngesteuert die schlimmsten Taten im Netz begehen. Die meisten Betroffenen merken zudem noch nicht einmal, was passiert, es sei denn, ihre Identität wird gestohlen und viele neue Rechnungen flattern ins Haus. Das Netz verlangt also täglich Weiterbildung und Sensibilisierung von seinen Usern. Wer das Risiko unterschätzt und sich nicht auf den aktuellen Stand bringt, läuft trotz bester Firewalls und Virenschutzprogramme Gefahr, gekapert zu werden.

Lesen Sie den ausführlichen Beitrag von Ingo Schäfer:
Attacken durch die Lieferketten

Unsere vernetzte Gesellschaft und unsere Unternehmen brauchen mehr digitale Bildung, um zusätzliche Innovationen im Kontext der neuen Technologien zu generieren. Innovationen und neue Geschäftsmodelle auf Basis der digitalen Transformation gehen aber auch mit diversen Gefahren für unsere Gesellschaft und Unternehmen einher. Angreifer setzen heute ihre Attacken bei Mitarbeitern von Unternehmen an, um z. B. Lösegelder zu erpressen. Deshalb sollten auch bei Cybersicherheitsstrategien der Unternehmen Mitarbeitende im Fokus stehen.

„Da E-Mails nach wie vor die bevorzugte Angriffsmethode für Cyberkriminelle sind, ist der Aufbau einer Sicherheitskultur von entscheidender Bedeutung. Angesichts einer sich wandelnden Bedrohungslandschaft sowie der Tatsache, dass das Arbeiten von überall aus zum Alltag geworden ist, müssen Unternehmen dafür Sorge tragen, dass ihre Mitarbeitenden sich neue Fähigkeiten in puncto Cybersicherheit aneignen und diese anwenden. Dies gilt sowohl für den Arbeitsplatz im Büro als auch zu Hause“, betont Ingo Schäfer von Proofpoint im Gespräch mit unserer Redaktion.

Der Trend in Richtung hybrider Arbeitsformen hat sich 2021 beschleunigt. 81 Prozent der Unternehmen geben an, dass mehr als die Hälfte ihrer Mitarbeiter:innen wegen der Pandemie ihrer Arbeit im Homeoffice nachgehen (entweder teilweise oder vollständig). Allerdings schulen nur 37 Prozent ihre Mitarbeiter:innen hinsichtlich bewährter Praktiken für das Homeoffice, meldet die jüngste Ausgabe des Proofpoints State of the Phish Report 2022.

Gefragt sind in­novative Lösungen für unsere vernetzte Gesellschaft.

Durch die Vernetzung vieler einzelner Geräte wie Computer und Mobiltelefon eröffnen neuen Technologien wie der Blockchain, die Möglichkeit, unsere tradierten Angewohnheiten zu verändern. Allein die Art und Weise, wie wir heute mit der Blockchain Finanzgeschäfte und Transaktionen erledigen können, machen zwischengeschaltete Instanzen wie zum Beispiel Banken in Zukunft überflüssig. Unsere vernetzte Gesellschaft hätte z.B. auch mit Smart Contracts die Möglichkeit, die Vermögenswerte und Kapitalstrukturen global zu verändern. Dazu merkt Prof. Emmer vom Weizenbaum-Institut an: „Der Glaube, man könne mit einer neuen Technologie auf einen Schlag ganz viele (soziale) Probleme lösen, ist praktisch immer eine Illusion: Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.“

Es wird also eine Herausforderung für unsere vernetzte Gesellschaft sein, durch innovative Technologien mit Regierungen, dem Staat und den Konzernen (von denen manche mittlerweile mit Staaten vergleichbar sind) die Welt etwas besser zu machen. Trotzdem hat der einfach wahre Ansatz der Sharing-Economy für uns alle Vorteile. Sieht man von den Nachteilen durch die neuen privaten Vermietungen via Plattformen wie AirBnB in Metropolen ab, ist „teilen statt besitzen“ en vogue und tätsächlich nachhaltig. Die digitale Transformation und die Vernetzung können uns alle nachhaltiger agieren lassen, wenn wir den dadurch entstehenden Stromverbrauch noch in den Griff bekommen. Es braucht dazu mehr Unternehmen, die diese Werte in ihrem Geschäftsmodell und im Sinne der Digitalisierung täglich leben.

Zum ausführlichen Beitrag von Jan Dzulko:
Benutzen statt besitzen

Zum Beispiel versorgt Jan Dzulko von Everphone Unternehmen mit den neuesten Smartphones und passender Software. „Unser Ansatz ist es, nur die Geräte im Umlauf zu haben, die tatsächlich benötigt werden. Zudem erhöhen wir die Nutzungsdauer der Geräte grundlegend. Wird ein Device zurückgegeben, refurbishen oder reparieren wir es und führen es einem zweiten Nutzungszyklus zu – bei Eignung sogar einem dritten. Beim Refurbishing entstehen nur sehr geringe CO2-Emissionen. Gleichzeitig ermuntern wir die Unternehmen dazu, auch die Privatnutzung der Geräte zuzulassen. Dann brauchen Angestellte kein zweites Handy mehr“, erklärt Jan Dzulko unserer Redaktion.

Um nicht abgehängt zu werden, müssen sich KMU und Mittelstand bewegen und eine digitale Unternehmenskultur an den Tag legen, damit durch die technologischen Möglichkeiten neue Geschäftsmodelle entstehen können. Zudem wird es wichtig, neue Trends, die für die eigene Branche ausschlaggebend sind, früh genug zu erkennen. Die Vernetzung macht es doch möglich! Wer hätte in diesem Zusammenhang gedacht, dass ein tradiertes Medium wie das Radio mit der digitalen Transformation und den damit einhergehenden neuen Kommunikationskanälen gerade eine Renaissance erlebt? Auf der ganzen Welt geht in den Haushalten eine lautstarke Evolution vor sich: Die Leute kommunizieren mit einem Stück digitalisierten Kunststoffs, das in ihren Wohnungen platziert ist. Alles gute Nachrichten für das Medium Radio, denn Amazon Echo und die Google-Home-Geräte bringen wieder Audio in die Wohnzimmer und dahin, wo wir alle leben. Die neuen Technologien im Zusammenhang mit Sprachsteuerung und Spracherkennung machen es möglich.

Lesen Sie den ausführlichen Beitrag von Marianne Bullwinkel
Mit Voice-Technologie die Corporate Brand stärken

Für Marianne Bullwinkel von RMS Radio Marketing Service spielen KI und maschinelles Lernen (ML) eine zentrale Rolle für die Zukunft von Audio, denn sie sind die Basis der Mensch-Maschine-Kommunikation. „Sprachsteuerung ist auch hier eine wesentliche Entwicklung, denn sie ermöglicht es uns, mit immer weniger Aufwand immer komplexere Geräte zu bedienen. Mussten Sie früher noch an einem Computer einen Befehl eintippen, um eine bestimmte Aktion auszulösen, genügt heute ein Zuruf an Ihren Voice-Assistenten. Dabei lernen die intelligenten Lautsprecher, Worte und Befehle immer besser zu verstehen, was die Bedienung für die Nutzer:innen weiter vereinfacht. Daneben liefern KI und ML auch die Basistechnologie für computerbasierte Sprachsynthese bzw. Text-to-Speech“, erklärt Marianne Bullwinkel unserer Redaktion. Die Transformation des Internets und unserer damit verknüpften Gesellschaft ist im vollen Gange.

Die vielen Daten, die wir produzieren, sind die Grundlagen für uns und für Unternehmen, mit den neuen Technologien rund um KI und maschinelles Lernen noch mehr Wissen zu generieren. Algorithmen müssen transparenter und nachvollziehbar sein. Es scheint so, dass unsere Demokratie und Gesetzgebung sowie unser Staat ständig links von Konzernen und neuen Technologien überholt werden.
In diesem Kontext müssen wichtige Aufgaben und Regulierungen zeitnah von unserer Regierung erledigt werden, denn digitales Know-how und Kapital werden in Zukunft noch höhere Gewinne abwerfen.

von Bernhard Haselbauer

Kundenbindung mit KI

Gastbeitrag von Dr. Volker Hildebrand, SVP Product Marketing bei SugarCRM

Die Pandemie hat Unternehmen welt­weit getroffen. Neben gestörten Lieferketten und beschäftigungspolitischen Herausforderungen gehören wachsende Kundenansprüche und die verstärkte Abwanderung von Kunden zu den größten Herausforderungen. Das bestätigt auch eine aktuelle Studie von SugarCRM, für die je 400 Vertriebs- und Marketingverantwortliche in Unternehmen aus Deutschland, Großbritannien, den USA und Australien befragt wurden.

Dr. Volker Hildebrand erklärt die Ursachen zunehmender Kundenabwanderung und was Unternehmen dagegen tun können.

Dr. Volker Hildebrand, SVP Product Marketing bei SugarCRM

Die Gründe für die gestiegene Kundenfluktuation sind vielschichtig. In der Umfrage von SugarCRM führen die meisten Unternehmen schlechte Erfahrungen beziehungsweise schlechten Kundenservice als Hauptgrund an. Die wahren Ursachen liegen jedoch oft in unzulänglichen CRM-Systemen und einer mangelnden Datengrundlage. Mehr als die Hälfte der Befragten gibt an, dass sie die Abwanderung weder quantifizieren noch nachverfolgen oder gar verhindern können und nicht einmal die zugrundeliegenden Ursachen verstehen.

Nachdem die Kundenabwanderung mittelständische Unternehmen weltweit bereits im vergangenen Jahr durchschnittlich 5,5 Millionen US-Dollar kostete, ist die Abwanderungsrate bei jedem zweiten Unternehmen in Deutschland (49 Prozent) in den vergangenen zwölf Monaten nochmals angestiegen. So liegt die Kundenabwanderungsrate in Deutschland mittlerweile bei 28 Prozent.

Eine erfolgreiche Customer-Experience-Strategie kann nur mit hinreichend vielen Kundendaten, auf die überall im Unternehmen zugegriffen werden kann, umgesetzt werden. Erreichen lässt sich das meist nur mit einer umfassenden Erneuerung des CRM. Fast jeder zweite Befragte (46 Prozent) bemängelt, dass sein aktuelles CRM-System nicht an unter­neh­mens­­spezifische Bedürfnisse angepasst werden kann.

Viele halten ihr aktuelles CRM-System für zu zeit- und kostenintensiv und haben sich dafür entschieden, ihre CRM-Plattform oder ihren CRM-Anbieter zu wechseln. Zu einer modernen CRM-Plattform ge­hört insbesondere die Nutzung Künst­licher Intelligenz (KI). Für KI-Anwendun­gen gibt es in Marketing und Vertrieb vielfältige Einsatzmöglichkeiten. Dem­entsprechend geben 85 Prozent der Befragten an, in den nächsten zwei Jah­ren zunehmend KI zur Verbesserung be­stehender Prozesse einsetzen zu wol­len. Allerdings gilt es, darauf zu achten, nicht nur eine lose Sammlung unerheblicher KI-Automatisierungstools zu verwenden. Stattdessen muss KI praxis- und zielorientiert eingesetzt werden.

Die Zukunft von Customer Experience basiert auf datengestützten, intelligenten Systemen, um besser zu verstehen, was Kunden wollen und bessere Entscheidungen treffen zu können. Den größten Nutzen bietet KI in Form fokussierter Anwendungen, die konkrete Handlungsempfehlungen bereit­stellen. So wird KI zum Game-Changer, um die wachsende Kundenabwanderung nicht nur zu stoppen, sondern um­zukehren. Unternehmen dürfen jedoch keine Zeit mehr verlieren, denn die Kundenerwartungen steigen immer weiter – und setzen die Unternehmen unter Druck. Kundenbindung wird mit KI einfacher. Handeln müssen die Unternehmen allerdings sofort.

www.sugarcrm.de

Von Smart Cities zu Smart Countries

Bernhard Kirchmair, CDO Vinci Energies für DACH und Osteuropa schreibt in seinem Gastbeitrag darüber, warum eine Stadt nur dann smart werden kann, wenn auch das Umland mitgedacht wird.

Wir leben in der Zeit der Megaentwicklungen. Vom Klimawandel und demographischen Umbrüchen bis hin zur Energie- und Mobilitätswende stehen wir vor gewaltigen Herausforderungen.

Das Ziel ist klar: Wir müssen diese durch digitale Technologien meistern und parallel dazu die Lebensbedingungen aller Menschen verbessern. Vieles ist bereits auf den Weg gebracht: von E-Sharing-Diensten für E-Fahrzeuge, -Scooter und den ÖPVN über die intelligente Straßenbeleuchtung, die auch als Ladestation und für Verkehrsflussmessungen dient bis hin zu digitalen Bürgerservices und der vollautomatisierten Produktion. Ein kleiner Ausschnitt, der zeigt, dass solche und andere Smart-City-Lösungen einen großen Impact haben. Großflächig angewendet, könnten sie bis zu 80 Prozent an Energie einsparen und Stau sowie Emis­sionen um rund 30 Prozent reduzieren.

Doch digitale Technologien sollten sich nicht nur auf unsere Städte beschränken. Denn zur großen Vision, unsere Lebens-, Arbeits- und Mobilitätsqualität zu steigern und nachhaltig zu gestalten, gehört selbstverständlich auch der ländliche Raum. Hier gibt es allerdings noch Nachholbedarf. Aus diesem Grund müssen wir größer denken: von Smart Cities hin zu Smart Countries. Dazu ist neben der Politik, die die entsprechenden Rahmenbedingungen wie einen zügigen Breitbandausbau forcieren muss, vor allem die Wirtschaft aufgefordert. Dabei darf nicht jedes Unternehmen auf sich allein gestellt sein – die Welt ist dafür viel zu komplex. Vielmehr sollte zunächst ein neues Ver­ständnis von Zusammenarbeit in Form von digitalen Ökosystemen entstehen.

Im Gegensatz zu klassischen Kooperationen und Netzwerken funktionieren digitale Ökosysteme symbiotisch, ohne zentralen Akteur, dafür mit vielen gleichberechtigten Partnern. Ihre Mitglieder schließen sich in wechselnden Konstellationen zusammen, um vom spezifischen Know-how des anderen Unternehmens zu profitieren und sich optimal zu ergänzen. Die Philosophie dahinter: Den größten Wert für gemeinsame Kunden schaffen, Kernkom­petenzen für ein komplexes Angebot über Partner anbinden und andere miteinander vernetzen. Konkret finden in digitalen Ökosystemen von Konzernen über kleine und mittelständische Unternehmen bis hin zu jungen Start-ups unterschiedlichste Akteure mit ihren jeweiligen Expertisen zusammen. So kann beispielsweise der „digitale Baukasten“, bestehend unter anderem aus künstlicher Intelligenz, digitalem Zwilling, Cloud-Technologie, 5G und Industrial Internet of Things effizienter eingesetzt und weiterentwickelt werden. Digitale Öko­systeme beschleunigen dadurch Inno­vationen, sind handlungsfähiger und resilienter und führen zu sektorübergreifenden Lösungen, die den Weg zu Smart Countries ebnen.

In Zukunft wird der Wert eines Unterneh­mens erheblich davon abhängen, in welche digitale Ökosysteme es eingebunden ist, welche diese selbst aufbaut und ob es diese Systeme stetig weiterentwickeln kann. Das gelingt etwa über eigene digitale Geschäftseinheiten, die die digitale Transformation in Unterneh­men vorantreiben. Solche digitalen Vor­reiter im Unternehmen helfen dabei, den Bedarf an Kompetenzen zu identifizieren, passende Partner zu finden, bei der Koordination der Zusammenarbeit zu unterstützen – und schließlich die smar­te neue Welt zur Realität zu machen.

Weitere Informationen unter:
www.vinci-energies.de

Resiliente Automotive-Lieferketten

Hart­mut Haubrich im Gespräch mit der Redaktion über Optimierungspotenziale für resilientere Automotive-Lieferketten.

Herr Haubrich, welche Herausforderungen müssen für eine widerstandsfähige Supply Chain gemeistert werden?

 

Im Wesentlichen gilt es, mit wachsender Komplexität umzugehen, dafür aber effiziente, kostengünstige und nachhaltige Lösungen zu finden, die immer noch eine gewisse Dynamik erlauben.

Das Logistiknetzwerk eines einzelnen Automobilherstellers etwa – vom Hersteller bis zum Endkunden – kann pro Region bereits zehntausende mögliche Routen sowie Dutzende externe Stakeholder umfassen, deren Kapazitäten, Verträge und viele weitere Rahmenbedingungen in der Planung zu berücksichtigen sind.

Ein solches Netzwerk muss trotz der unüberschaubar vielen möglichen Teilprozesse beherrschbar und steuerbar bleiben. Gleichzeitig möchte man trotz Komplexität flexibel agieren können.

Welche Rolle spielen die neuen Technologien rundum KI und maschinelles Lernen (ML) im Kontext verlässlicher und nachhaltiger Lieferketten?

Sie spielen eine wesentliche Rolle. Es beginnt bei der Transparenz über Prozesse. Die ist in vielen Unternehmen noch nicht gegeben und man plagt sich manuell mit unendlich langen Excel-Listen. Maschinelles Lernen kann zwar helfen, aus Daten Erkenntnisse zu ziehen, für wichtiger halte ich aber einen anderen Aspekt von KI: Entscheidungsintelligenz. Auch der komplexeste Prozess lässt sich mathematisch modellieren.

Moderne Optimierungsalgorithmen können den Lösungsraum dieser Entscheidungsmodelle in kurzer Zeit nach der situativ besten Entscheidung absuchen: Was das Beste ist, hängt von den Unternehmenszielen ab, z.B. ein möglichst kostengünstiges, schnelles oder aber emissionsarmes Supply Chain Netzwerk.

Wie sollten Unternehmen jetzt reagieren, um ihren Sorgfaltspflichten in den globalen Wertschöpfungsketten nachzukommen? 

INFORM ist auf die logistische Optimierung von Lieferketten spezialisiert. Zum Thema „Lieferkettengesetz“ leisten wir eher einen indirekten Beitrag: Als Softwarehersteller bilden wir Lieferketten digital ab. Das schafft Transparenz und Auswertungsmöglichkeiten, die bei der Einhaltung von Sorgfaltspflichten helfen können. Diese liegt aber in der Verantwortung der Anwender. Im nächsten Schritt wird es darum gehen, dass Unternehmen noch mehr Daten miteinander teilen. Dafür müssen Standards entstehen, wo es noch keine gibt, und gut etablierte Plattformen.

Schließen sich Nachhaltigkeit und Kosteneffizienz im Supply Chain Management gegenseitig aus?

Diese Frage beantwortet Harmut Haubrich in seinem Gastbeitrag

>>>

https://www.trendreport.de/lieferketten-in-der-automobilindustrie/
 

www.inform-software.de