Mehr als nur Chatbots: Das kann Conversational AI

Wie ist der Stand der Dinge bei Conversational AI? In seinem Gastbeitrag erläutert Daniel Völker, Senior Consultant bei valantic, wie Conversational AI zur Zeit eingesetzt wird – und was möglich wäre.

„Vor dem Hintergrund der aktuellen Diskussion um Customer Centricity und Artificial Intelligence verwundert die zum Teil erschreckend schlechte Performance“, sagt Prof. Dr. Peter Gentsch vom Institute for Conversational Business an der Hochschule Aalen. Der Wissenschaftler hat Chatbots im praktischen Einsatz im Versicherungs- und Finanzsektor untersucht. Dabei stand die Frage im Mittelpunkt, wie gut die virtuellen Assistenten mittlerweile sind und welche Fragen sie bereits beantworten können. Und das, was Professor Gentsch „erschreckend“ nennt, lässt sich klar beziffern. „Welche Auswirkungen hat die Corona-Krise auf die Zinsen?“, war beispielsweise eine den Bots gestellte Frage.

Daniel Völker gibt in seinem Gastbeitrag einige Denkanstöße für erfolgreiche Conversational AI.

Dabei wurden die Genauigkeit der Antwort bewertet, die Antwortgeschwindigkeit, die Einfachheit der Bedienung, der informative Charakter der Antworten sowie der unterhaltsame Charakter der Antworten. Kamen manche Bots hier in der Bewertung auf sehr gute Quoten von bis zu 70 Prozent, erreichten andere mitunter nur 5 Prozent – ein Trauerspiel.

CAI als Schnittstelle von Mensch und Maschine

Allerdings verwundert das uns bei valantic nicht. Die Entwicklung von KI-Anwendungsfällen im Feld Conversational AI stellt viele Unternehmen vor große Herausforderungen. Dies liegt auch daran, dass Erfahrungswerte, wenn überhaupt, oft nur rudimentär vorhanden sind. Die meisten von ihnen haben zwar die Vorteile von Künstlicher Intelligenz erkannt, sind ohne konkreten Leitfaden aber unsicher, wie sie diese produktiv und wirtschaftlich einsetzen können.

Ich will Ihnen deshalb einen kurzen Einblick in die Schritte geben, die Sie als Entscheider:in im Unternehmen gehen müssen, um mit Conversational AI die Schnittstelle zwischen Mensch und Maschine praktikabel und nachhaltig einzuführen.

Schritt 1: Einfache Anwendungsszenarien für den CAI-Erfolg

Zuallererst: CAI dient dazu, menschliches Verhalten (speziell menschliche Kommunikation) zu automatisieren, sowohl in Prozessen oder Interaktionen als auch bei der Entscheidungsfindung. Und auch wenn es hinsichtlich IT gerade in mittleren Unternehmen an personellen und finanziellen Ressourcen mangelt – das ist oftmals nicht der Hauptgrund des Scheiterns von CAI.

Denn noch allzu oft sehen Unternehmen im Einsatz von Künstlicher Intelligenz so etwas wie den heiligen Gral jedweder Herausforderung. Sie verkennen jedoch, dass CAI gerade als kostengünstiges Einsteigermodell große Vorteile bieten kann. Nämlich genau dann, wenn die Bots für weniger komplexe Probleme wie eine FAQ, einfacher gelagerte Abrechnungen oder etwa Buchungssysteme genutzt werden. Ein CAI-Bot für derlei Einsatzzwecke lässt sich schon in gut zwei Wochen aufbauen und liefert ebenso zügig erste Erfolge. Daher gilt: Erste kleine Schritte in Richtung Künstlicher Intelligenz und Conversational AI sind richtig und wichtig für Unternehmen, die sich längerfristig im komplexeren Umfang von CAI etwas versprechen (wollen).

Schritt 2: Nutzerzufriedenheit als A und O

Es ist indes entscheidend – Schritt 2 des Leitfadens – dass dieser Bot intuitiv bedienbar ist, sodass die Nutzerzufriedenheit steigt, sowohl bei externen Kunden als auch bei den Anwender*innen im Unternehmen. Deshalb ist es auch so wichtig, in Workshops alle Stakeholder abzuholen, gemeinschaftliche Ideen zu evaluieren, eine Bewertungsmatrix mit Ideen zu füllen, die sich leicht umsetzen lassen, und im Anschluss einen Prototyp zum Leben zu erwecken.

Schritt 3: Mittels Entwicklung, Monitoring und kontinuierliche Weiterentwicklung zum CAI-Erfolg

CAI wächst, entwickelt sich weiter, wird besser. Technologien wie Natural Language Understanding profitieren von der integrierten künstlichen Intelligenz. Darum sind Unternehmen gut beraten, CAI als sich ständig fortentwickelndes Produkt zu sehen und sich mehr auf die Entwicklung eines ersten Prototyps zu fokussieren. Dazu gehört aber auch ein fortlaufendes Monitoring und Erkennen von Verbesserungspotenzial. Rückmeldungen gehören immer wieder evaluiert und anschließend bewertet. Die beste Methode ist also: „Think big, but start small“.

Ein weiterer, nicht zu unterschätzender Punkt für Unternehmen ist es, immer auch auf dem Markt verfügbare Third Party-Entwicklungen mit in Betracht zu ziehen. Man muss nicht alles selbst machen, entwickeln und programmieren. Mitunter gibt es sogar bereits wertvolle Low-Code-Systeme, die sich mit CAI mühelos verbinden lassen. Mit schönen Schnittstellen ist vieles also einfacher und oftmals genauso gut.

Ist das CAI-System derart aufgesetzt, kann es kontinuierlich wachsen, sodass Unternehmen in kleinen Schritten neue Funktionalitäten einführen und den Prototypen weiterentwickeln können – frei nach der besagten „think big, but start small“-Methode. Entscheidend dabei: Ähnlich der Erziehung von Kindern, müssen Unternehmen auch bei Conversational AI nachsichtig sein. Ein Bot kann von Anbeginn nicht so gut wie sein menschliches Pendant sein. Es kommt darauf an, das Verbesserungspotenzial auch für seine Vorteile zu nutzen.

Schritt 4: Transparenz für mehr Schnittstellen

Last but not least gehört zu einem praktikablen Leitfaden der kulturelle Aspekt. CAI braucht Support sowohl aus den Fachbereichen als auch aus der Führungsetage. Es ist eine neue Technologie, die sowohl intern als auch extern erst noch adaptiert werden muss. Das heißt, ein offener, transparenter Austausch hilft, das Thema produktiv voranzutreiben. Es geht immer um die Schnittstellen zwischen Mensch und Maschine und das soll nicht heißen: Maschine gegen Mensch.

Dass das Thema CAI trotz der beschriebenen Herausforderungen aber in jedem Fall ernst zu nehmen ist, zeigen Studien allerorts. So geht Gartner beispielsweise davon aus, dass CAI in drei bis fünf Jahren sein Plateau der Produktivität erreicht haben wird. Laut den Analysten soll es dann möglich sein, dass die künstliche Intelligenz selbst komplexere Anliegen selbstständig lösen kann. So entsteht der maximale Mehrwert, der dann auch wiederum zu (noch) mehr Akzeptanz führen wird – die positive Schnittstelle entsteht.

Deutschlands Recycling-Märchen

Schein und Sein: Die Verwertung von Abfällen spielt in Deutschland bereits eine große Rolle, dennoch werfen die hohen Recyclingquoten Fragen auf.

Mit dem Welt-Abfall-Index 2022 haben die Experten für intelligentes Abfallmanagement, Sensoneo, eine Studie veröffentlicht, in der die Effizienz von Abfallwirtschaften in Ländern weltweit untersucht wurde. Die Ergebnisse zeigen, es bestehen weiterhin große nationale Unterschiede bei der anfallenden Müllmenge sowie darin, wie Abfälle entsorgt und recycelt werden. Die Untersuchung wurde erstmals 2019 durchgeführt.

Mit Blick auf seine Effizienz und unter Berücksichtigung offizieller Daten des Statistischen Bundesamtes verfügt Deutschland über die drittbeste Abfallwirtschaft der Welt. Mit diesem Ergebnis steigt Deutschland in der Rangliste auf. Im Vergleichsjahr 2019 belegte Deutschland nur Rang 6. Nur in Südkorea und Dänemark werden Siedlungsabfälle noch effizienter und umweltverträglicher entsorgt.

Offiziellen Angaben zufolge werden in Deutschland jährlich 302 Kilogramm Wertstoffe pro Kopf dem Recycling zugeführt. Diese Quote macht Deutschland zum Recycling-Weltmeister. Doch Experten misstrauen den von offiziellen Behörden herausgegebenen Daten und verweisen auf den irreführenden Messpunkt, aus dem sich die gern zitierte Recyclingquote ergibt.

Zur Studie

Studie “Welt-Abfall-Index” hat die Abfallwirtschaft in 38 OECD-Ländern analysiert und nennt die effizientesten Abfall-Nationen und größten Müllsünder weltweit


  • Deutschland ist Recycling-Weltmeister auf dem Papier. 302 Kilogramm Wertstoffe pro Kopf werden jährlich recycelt, so offizielle Daten.
  • Experten misstrauen den Daten des Statistikamtes. Sie kritisieren den aktuellen Messpunkt aus dem sich die Recyclingquote ergibt.
  • Hohe Recyclingquote beschert Deutschland Platz 3 im Ranking der effizientesten Abfallwirtschaften der Welt.
     

Nur ein Bruchteil der Wertstoffe wird tatsächlich recycelt

Die veröffentlichte Quote beschreibt die Abfallmenge, die in den Recyclinganlagen des Landes ankommt und damit eine Masse zu Beginn eines langwierigen Sortierprozesses innerhalb der Anlage. An dessen Ende nur ein Bruchteil der angelieferten Wertstoffe auch tatsächlich recycelt und zu neuen Materialien wird. Was aussortiert wird und nicht wiederverwendet werden kann, wird verbrannt.

Umweltverbände wie der Bund für Umwelt und Naturschutz Deutschland gehen davon aus, dass weniger als 16 Prozent der in Deutschland zum Recycling vorgesehenen Wertstoffabfälle zur Wiederverwendung aufbereitet werden können. 


“Mit dem Welt-Abfall-Index wollen wir die Aufmerksamkeit darauf lenken, dass die ungeregelte Entsorgung massiv zur größten Umweltverschmutzung der Erde beiträgt.“

Martin Basila, CEO und Mitgründer von Sensoneo

Die Messpunkte von aktueller Recyclingquote und wahrer Recyclingquote.

Nicht alles, was als Wertstoff in der Recyclinganlage landet, kann auch wiederverwertet werden. Die aussortieren Abfälle werden verbrannt, landen aber trotzdem in den offiziellen Quoten.


Um Materialmixe sorgfältig zu trennen, fehlt oft die nötige Spezialtechnik

Große Probleme verursacht insbesondere der Materialmix vieler Abfälle. Immer mehr Produkte bestehen nicht nur aus einem Material, sondern kombinieren verschiedene Wertstoffgruppen. Ein modernes Beispiel hierfür ist der Joghurtbecher aus Kunststoff mit Pappmantel und Aluminium-Deckel. Wenn der Becher nicht bereits sauber getrennt im gelben Sack und in der Papiertonne landet, ist die Wahrscheinlichkeit groß, dass er zwar in der Recyclinganlage registriert wird, aber am Ende doch noch verbrannt wird. Insbesondere kleine, sehr dünne Materialien und Lebensmittelverpackungen sind schwer zu recyceln, da ihre Aufbereitung sehr ausgefeilte Technologien erfordert, die eher in Ausnahmefällen verfügbar sind. Weitere Gründe sind die spätere Verwendbarkeit auf dem Markt und der Preis, der den anspruchsvollen Recyclingprozess widerspiegelt.

“Eine lückenlose Abfallwirtschaft gehört zu den wichtigsten Maßnahmen im Umwelt- und Naturschutz”, mahnt Martin Basila, CEO und Mitgründer von Sensoneo. “Mit dem Welt-Abfall-Index wollen wir die Aufmerksamkeit darauf lenken, dass die ungeregelte Entsorgung massiv zur größten Umweltverschmutzung der Erde beiträgt. Der Index soll Industriestaaten hervorheben, die viel zu wenig Verantwortung für ihre Hinterlassenschaften übernehmen. Mit der Veröffentlichung von Zahlen soll darüber hinaus ein Gefühl für die unglaublich großen Mengen an Abfall, die wir Jahr für Jahr produzieren, geweckt werden. Die erschreckenden Angaben sollen dazu motivieren, insgesamt weniger Müll produzieren zu wollen.”

Tabelle: Die fünf Länder der Welt mit der effizientesten Abfallwirtschaft, mit Mengen pro Kopf, die als Siedlungsmüll anfallen, die recycelt, verbrannt und deponiert werden. Die vollständige Rangliste sowie Informationen zur Methodik und den verwendeten Quellen findet sich unter: https://sensoneo.com/de/welt-abfall-index/

StaatSiedlungsabfälleRecyclingVerbrennungDeponie
1Südkorea400 kg243 kg88 kg46 kg
2Dänemark845 kg300 kg282 kg7 kg
3Deutschland623 kg302 kg204 kg5 kg
4Schweiz706 kg210 kg333 kg0 kg
5Finnland596 kg168 kg345 kg3 kg

Weitere Erkenntnisse aus dem Welt-Abfall-Index 2022:

  • Nach umfassender Analyse der Abfallwirtschaft in 38 Ländern ergibt sich die Türkei als größte Müllsünder-Nation der Welt – wie schon 2019. Trotz sichtbarer Verbesserungen im Bereich Recycling lassen sich die großen Abfallmengen, die jährlich illegal entsorgt werden – insgesamt 176 Kilogramm pro Kopf – nicht dagegen aufwiegen.
     
  • Die meisten Abfälle fallen in den Vereinigten Staaten an. Jeder US-Bürger produziert aktuell 811 Kilogramm Müll, von denen etwa die Hälfte auf einer Deponie landet und 95 Kilogramm verbrannt werden.
     
  • Mit 243 Kilogramm pro Kopf fällt am wenigsten Siedlungsmüll in Kolumbien an.
     
  • Das Entsorgungssystem in Chile führt lediglich zwei Kilo pro Einwohner dem Recycling zu. In keinem anderen Land wird weniger recycelt. 417 Kilogramm Abfälle pro Kopf landen auf der Deponie und werden somit besonders umweltbelastend entsorgt.
     
  • Am stärksten abgebaut hat die Abfallwirtschaft in Island. Daten zufolge ist die Müllproduktion der Isländer seit 2019 um sieben Prozent gestiegen. Gleichzeitig wird 68 Prozent weniger Müll recycelt als im Vergleichsjahr.
     
  • Aus umwelttechnischer Sicht ist die Müllverbrennung der Deponierung von Abfällen vorzuziehen. Nur 17 von 38 Staaten verbrennen anteilig mehr Müll als sie deponieren, nämlich Belgien, Dänemark, Deutschland, Estland, Finnland, Frankreich, Irland, Japan,  Luxemburg, die Niederlande, Norwegen, Österreich, Schweden, die Schweiz, Slowenien, Südkorea und das Vereinigte Königreich.
     
  • Nur in der Schweiz werden überhaupt keine Abfälle deponiert. Die Schweizer produzieren 706 Kilogramm Müll pro Einwohner. 333 Kilogramm werden verbrannt. 210 Kilogramm werden dem Recycling zugeführt.

Methodik und Quellen unter:
https://sensoneo.com/de/welt-abfall-index/ 

Aufmacherbild / Quelle / Lizenz
Photo by Pawel Czerwinski on Unsplash

Schnell und sicher zur nächsten Ladestation

Gastbeitrag von Filip Klippel

Digitales Kartenmaterial fördert E-Mobilität

Der Trend hin zur Elektromobilität ist ungebrochen. Erforderlich hierfür ist eine leistungsstarke Ladeinfrastruktur. In den meisten Ländern ist diese noch nicht ausreichend ausgebaut, um mit den tatsächlichen Anforderungen der Fahrer mithalten. Eine praktikable Lösung hierfür bietet digitales Kartenmaterial mit wertvollen Informationen zu verfügbaren Ladepunkten. Dies erleichtert Autofahrern die Orientierung und leistet so einen wichtigen Beitrag zum Ausbau der Elektromobilität.

Der Absatz von Elektrofahrzeugen wächst exponentiell und verdoppelt sich quasi von Jahr zu Jahr. 2021 wurden weltweit rund 3,5 Millionen Elektroautos ausgeliefert, was einem Anteil von 8,5 Prozent aller verkauften Neufahrzeuge entspricht. Wesentlich höher ist die Anzahl in Ländern, die zu den Early-Adopter-Märkten für Elektromobilität gehören. In Großbritannien beispielsweise verfügt bereits ein Viertel aller neu erworbenen Autos über einen Elektroantrieb. Und der Trend weist weiter steil nach oben: Laut aktuellen Prognosen des Analystenhauses Gartner sollen in diesem Jahr weltweit weitere sechs Millionen Elektrofahrzeuge ausgeliefert werden – und dies trotz anhaltender Engpässe bei der Chip-Verfügbarkeit in der Automobilindustrie.

Um dieses Wachstum weiterhin zu unterstützen, bedarf es einer dicht ausgebauten Ladeinfrastruktur. Diese ist jedoch immer noch lückenhaft und kann mit der steigenden Nachfrage kaum Schritt halten. Nach Schätzungen von Gartner gibt es weltweit 1,6 Millionen öffentliche Ladestationen, wobei die überwiegende Mehrheit in innerstädtischen Gebieten und an den Hauptverkehrsachsen liegt. Nach Angaben der UK Competition & Markets Authority (CMA) wird bis zum Jahr 2030 mindestens das Zehnfache der aktuell vorhandenen, öffentlichen Ladepunkte benötigt. Denn zu diesem Zeitpunkt werden viele Länder den Verkauf von Fahrzeugen mit Verbrennungsmotor weiter begrenzen, um die strengen Ziele zur Senkung der CO2-Emissionen zu erreichen.


„Die Entwicklung der Elektromobilität steht und fällt mit der verfügbaren Ladeinfrastruktur.“

Filip Klippel

Angst vor geringer Reichweite bremst E-Mobilität

Doch viele Autofahrer scheuen noch immer den Umstieg zur Elektromobilität. Dies hat in erster Linie praktische Gründe. Denn so sehr das ökologische Bewusstsein in der Gesellschaft steigt, so groß ist die Angst der Autofahrer vor einer zu geringen Reichweite. Die Vorstellung, in einer unbekannten Gegend erfolglos nach einem geeigneten Ladepunkt zu suchen und im schlimmsten Fall liegen zu bleiben, schreckt viele Menschen vom Kauf eines Elektrofahrzeugs ab. Dazu kommt: Längst nicht alle verfügbaren Ladestationen unterstützen die jeweiligen technischen Spezifikationen eines Autos, wie beispielsweise den Steckertyp. So ist laut der CMA-Studie der häufigste Grund, sich nicht für ein Elektroauto zu entscheiden, die unzureichende Ladeinfrastruktur. Welche Lösungen sind nun denkbar, um das Problem der unzureichenden Ladeinfrastruktur besser in den Griff zu bekommen?

Zu nennen ist hier insbesondere präzises, digitales Kartenmaterial, das die Standorte und die Verfügbarkeit von Ladestationen für Elektrofahrzeuge transparent macht. In der CMA-Studie gaben 94 Prozent der befragten Autofahrer an, dass der Zugriff auf entsprechende Echtzeitdaten die Nutzung von Ladepunkten erleichtern würde. Entscheidend ist dabei die Vorab-Kenntnis, ob die betreffenden Stationen gerade in Betrieb und für das jeweilige Fahrzeug technisch geeignet sind. Valide Informationen über die aktuelle Reichweite und verfügbare Ladestationen können hier sehr hilfreich sein. So kann der flächendeckende Einsatz von Karten- und Standortdaten den globalen Trend der Elektromobilität signifikant beschleunigen.

Digitale Karten bringen Transparenz in Ladeinfrastruktur

Die digitalen, ortsbezogenen Kartenlösungen von HERE beispielsweise unterstützen Autofahrer dabei, die optimale Route zu planen und effizient zu navigieren. Dabei werden Topografie, Verbrauch und Entfernung berücksichtigt, um die Reichweite des Fahrzeugs zu maximieren. Zudem bietet HERE den Fahrern von Elektroautos Zugriff auf eine Datenbank mit mehr als 600.000 Ladepunkten weltweit. Darin enthalten sind dynamische Daten über Standort, Steckertypen, Betriebszeiten und Verfügbarkeit, basierend auf historischen Informationen.

Mit der Kartenlösung können Anwender die effizienteste Route von A nach B identifizieren, präzise berechnen und navigieren. Dabei lassen sich Ladestationen in die Routenplanung einbeziehen, um das Risiko eines erschöpften Akkus auszuschließen. So tragen Karten und Standortdaten wesentlich dazu bei, Fahrern die Bedenken vor dem Kauf eines E-Fahrzeugs zu nehmen und die Elektromobilität weltweit voranzutreiben.

Konkret optimiert HERE das Laden von Elektrofahrzeugen beispielsweise durch eine strategische Kooperation mit der Digital Charging Solutions GmbH (DCS). Der E-Mobilität-Serviceanbieter verfügt über eines der größten Ladenetze weltweit. Das Unternehmen bietet einfachen Zugang und transparente Zahlungslösungen für das Laden von E-Fahrzeugen und stützt sich dabei auf ein Netz von mehr als 280.000 Anschlüssen in Europa und Japan.

Die ortsbezogenen Daten, digitalen Karten und Navigationstechnologie von HERE ergänzen dieses Angebot optimal. Durch diese Zusammenarbeit können Automobilhersteller ihren Kunden ganzheitliche Lösungen für optimierte Ladeprozesse von E-Fahrzeugen anbieten.

Fazit

Die Entwicklung der Elektromobilität steht und fällt mit der verfügbaren Ladeinfrastruktur. Ortsbezogene, digitale Kartendaten leisten hier wertvolle Unterstützung und weisen den sicheren Weg zur nächsten Ladestation. Fahrer von Elektroautos können dadurch ihre Reichweite optimieren und unbeschwert auf die Reise gehen, was die Elektromobilität weltweit einen entscheidenden Schritt nach vorne bringen kann.

Ladestationen transparent auf einen Blick

Um das Laden von Elektrofahrzeugen für Autofahrer zu vereinfachen, stellt HERE eine interaktive Karte bereit. Diese visualisiert transparent die Verteilung von E-Ladestationen europaweit bis auf Straßenebene. Nutzer können dabei nach bestimmten Städten oder Adressen suchen und auf einzelne Straßen zoomen.

Eine Färbung repräsentiert die Dichte vorhandener Ladesäulen. Die Karte ist verfügbar unter: https://app.developer.here.com/ev-charging-stations-map-europe-ranking/

Bildmaterial: Copyright „HERE Technologies“


Sharing-Plattform für kollektives und lebenslanges Lernen

Neural Jam, eine neue Sharing-Community für kollektives Lernen, ist live – Interessenten können sich ab sofort unter https://www.neuraljam.com/ für eine Mitgliedschaft anmelden. Als digitaler Club soll Neural Jam die Art und Weise, wie Menschen in Zukunft Wissen und Informationen austauschen werden, verändern. Die Community soll zum Mittelpunkt einer neuartigen Wissenswelt werden, in der sich Kreative, Technologie-Expert:innen und Entrepreneurs auf einer gemeinsamen Plattform begegnen, um mit- und voneinander zu lernen. Gründer und CEO Jamshid Alamuti öffnete gestern nach einjähriger Vorbereitungsphase offiziell die virtuellen Türen zum neuen „Neural Jam Digital Club“ – einer Welt, in der jedes Clubmitglied nicht nur von anderen Fachleuten lernt, sondern auch selbst zur Wissensquelle wird.

Die Idee für Neural Jam entwickelte sich aus einer Start-up-Initiative, die Gründer Jamshid Alamuti im Rahmen seines 2020 gegründeten „House of Creative Entrepreneurship“ ins Leben gerufen hatte. Bisher konnte das Start-Up fast zwei Millionen Euro an Förder- und Investitionsgeldern akquirieren. Alamuti und sein Team haben sich hohe Ziele gesetzt: Bereits ab 2023 wird Neural Jam auch seine Forschungs- und Entwicklungsarbeit für den spezifischen Einsatz von Künstlicher Intelligenz (KI) sowie Augmented- und Virtual-Reality (AR/VR)-Technologien im Bildungsbereich starten.

Neural Jam gibt sich als Plattform, in der jedem Lernenden und Lehrenden das gleiche Wissen zur Verfügung steht.

Vision und Ziel: Innovationsanschub durch Interaktion von Talenten in der virtuellen Welt

„Neural Jam ist Plattform, Community und Lernumgebung zugleich. Wir wollen es möglich machen, dass interessierte Menschen und Fachleute mit ihrer Peer-Group interagieren, sich austauschen und kollektiv mehr lernen“, erklärt Gründer und CEO Jamshid Alamuti. Dafür bringt die Community interessierte Individuen mit engagierten Professionals und Coaches zusammen, um Fragestellungen und Inhalte gemeinsam zu diskutieren und zu reflektieren. Mentor:innen kommen in interaktiven Sitzungen ins direkte Gespräch mit anderen Clubmitgliedern. „Die Interaktion in der virtuellen Welt soll die Innovationen in der Realität anschieben“, so Alamuti weiter. „Im Mittelpunkt der Lernerfahrungen stehen dabei immer die kollaborative Erfahrung und der respektvolle Austausch. Unsere Mitglieder verpflichten sich zu einer aktiven Beteiligung an der Community und sollten sich zudem mit dem Neural Jam Wertekanon aus Authentizität, Intention und Kollaboration der Wissenscommunity identifizieren können.“ Die Gemeinschaft soll sich aus unterschiedlichsten Branchen zusammensetzen und auf den einzigartigen Erfahrungen eines jeden einzelnen Teilnehmers aufbauen. Alle Club-Mitglieder haben jederzeit Zugriff auf die Bibliothek und weiteren Community-Content. Sie profitieren zudem von thematischen „Daily Feeds“, die sie, je nach ausgewählten Interessensgebieten, über alle Wissensupdates in der Community informieren.

Jeder ist Lernender und Wissensquelle zugleich

Die neue Community für lebenslanges Lernen richtet sich an kreative Unternehmer:innen, Designer:innen, Ingenieur:innen und weitere Interessierte aus diesem Umfeld. Auch Unternehmen und Organisationen jeder Größe können Neural Jam als digitalen Knotenpunkt und innovative Plattform für effektives Lernen nutzen. Die virtuelle Neural Jam Community kann den Aufbau einer gemeinsamen Unternehmenskultur und das Unternehmenswachstum unterstützen und so eine nachhaltige Transformation auf den Weg bringen, unabhängig von Sprach- und Ländergrenzen. Die Plattform erweitert radikal die Art und Weise, wie Menschen sich in Zukunft weiterbilden und ihr Wissen miteinander teilen: Jedes Clubmitglied, ob Mentor:innen, Professionals oder einzelne Lernende, werden auch selbst zur Wissensquelle.

„Patrons“-Programm für Senior Members: Kostenlose Mitgliedschaften an Talente verschenken

Die Jahresmitgliedschaft bei Neural Jam kostet 200 Euro – die Anmeldung erfolgt einfach über die Webseite. Darüber hinaus bietet Neural Jam ein exklusives „Patron“-Programm für eine limitierte Anzahl von VIP-Mitgliedern an. Als Senior Members fungieren sie in der Neural Jam Community als „Though Leaders“ und können jährlich zudem zehn kostenlose Mitgliedschaften an von ihnen ausgewählte Talente verschenken. Der weitere Vorteil: Neural Jam wandelt die spezifischen Business-Fragestellungen seiner VIP-Mitglieder in maßgeschneiderte Programme, Workshops und Roundtables um, in denen diese von der Community diskutiert und bearbeitet werden. Patrons kommen so in direkten Kontakt mit unterschiedlichsten Talenten. Als VIP-Mitglieder sind sie zudem automatisch am Jahresgewinn beteiligt.

Weitere Informationen unter:
https://www.neuraljam.com/

Lizenz / Quelle Aufmacherbild: Photo by Tim Mossholder on Unsplash

Smartes Customer Experience Management

Gastbeitrag von Martin Wild

Handel mit Zukunft – Wie können intelligente Technologien im Customer Experience Management erfolgreich unterstützen? 

Sich dynamisch verändernde Kundenerwartungen, generations-unterschiedliches Medien- und Kommunikationsverhalten und eine Customer Journey in einem Mix aus analogen und digitalen Touch Points machen Customer Experience Management schwieriger, aufwändiger und – last but not least – auch teurer. 

Auf der anderen Seite bieten aber innovative Technologien aus den Bereichen Automatisierung und Nutzung künstlicher Intelligenz Möglichkeiten, Prozesse effizienter zu gestalten, Kundenerlebnisse zu verbessern sowie Mitarbeiter im Kundenmanagement sinnvoll zu unterstützen. 

„Gefragt ist dabei ein ganzheitliches Denken, dass das Kundenerlebnis von Anfang bis Ende betrachtet und die internen vor- und nachgelagerten Prozesse mit einbezieht, damit auch die User Experience der Mitarbeiter berücksichtigt.“

Martin Wild, Geschäftsführer und Mitbegründer der SOGEDES

Gefragt ist dabei ein ganzheitliches Denken, dass das Kundenerlebnis von Anfang bis Ende betrachtet und die internen vor- und nachgelagerten Prozesse mit einbezieht, damit auch die User Experience der Mitarbeiter berücksichtigt. Es sollen also nicht nur punktuell sich wiederholende Tätigkeiten von Mitarbeitern automatisiert werden, oder Kunden punktuell in einen Self-Service gezwungen werden.  

Dabei ist es wichtig, auch Technologien aus unterschiedlichen Bereichen sinnvoll zu kombinieren, wie zum Beispiel Robotic Process Automation (RPA) und Natural Language Processing (NLP). Wir sprechen dann von Intelligent Automation oder auch Hyperautomation.

Laut Gartner wird RPA in Kombination mit KI zur Kerntechnologie der Zukunft. Und wenn dann wie beschrieben auch der Gesamtprozess, d.h. die Customer Experience und die User Experience mit einbezogen werden, sprechen wir von Total Experience Automation.

Use Case

Beispielhaft und zum besseren Verständnis folgender Use Case: 

Mit „Email Hyperautomation“ Kundenanfragen automatisiert beantworten 

Auf der offiziellen E-Mail-Adresse des Unternehmens gehen täglich zahlreiche E-Mails ein. Diese zu kategorisieren und weiterzubearbeiten, kann eine sehr mühselige und zeitaufwändige Aufgabe sein. Oftmals sind manuelle Eingriffe wie das Heraussuchen zusätzlicher Informationen aus unterschiedlichen Anwendungen erforderlich. Oder sich wiederholende, aber einfache Bearbeitungsschritte machen die Tätigkeit uninteressant und langweilig.

Gerade in Peak-Zeiten ist das Anfragevolumen hoch und Ressourcen entsprechend stark ausgelastet. Das zügige Beantworten von Kundenanfragen kann für Unternehmen und Mitarbeiter dann zur Herausforderung werden.   

Intelligente Klassifizierung und Automatisierung von E-Mails  

Intelligentes E-Mail-Management hilft dabei, das hohe Anfragevolumen schnell abzuarbeiten. Innovative Technologien zur Automatisierung wie Künstliche Intelligenz in Kombination mit RPA kommen dabei zum Einsatz: Hierbei erfolgt eine Kategorisierung der eingehenden E-Mail auf Grundlage der kontextuellen Bedeutung des E-Mail-Textes. Dank KI-basierter Technologien wie Natural Language Processing (NLP) können selbst unstrukturierte E-Mails gelesen und klassifiziert werden.   

Durch den Einsatz von RPA können auch nachgelagerte Aufgaben automatisiert abgewickelt werden, so dass die manuelle Weiterverarbeitung der E-Mail entfällt. Diese können z.B. sein:   

  • Versand von Kündigungsbestätigungen  
  • Auskunft zu Auftrags- oder Lieferstatus   
  • Erfassen der Daten in den relevanten Systemen (z.B. CRM/ ERP)  
  • Erstellung eines Support-Tickets  
  • Adressänderungen   
  • Automatisierte Beantwortung einer Frage aus der internen FAQ-Wissensdatenbank   

Grundsätzlich lässt sich über RPA jede Anwendung anbinden, die auch ein Service-Mitarbeitender bei der Beantwortung des Kundenanliegens verwenden würde.   

  

Anders als bei einer klassischen E-Mail-Management Lösung hilft die Kombination von KI und RPA dabei, eine End-to-End-Automatisierung umzusetzen. Service-Mitarbeitende müssen nur noch bei Ausnahmen in den Prozess eingreifen, beispielsweise, wenn der Inhalt der E-Mail nicht eindeutig zuordenbar ist oder die notwendigen Informationen zur automatisierten Weiterverarbeitung fehlen. Für Mitarbeitende bedeutet das, dass sie nur noch eingreifen müssen, wo KI an die Grenzen kommt, etwa wenn Entscheidungen nicht eigenständig und eindeutig vom Algorithmus getroffen werden können.  


Wenn wie beschrieben auch der Gesamtprozess, d.h. die Customer Experience und die User Experience mit einbezogen werden, sprechen wir von Total Experience Automation. 


Einsparpotenzial von über 50%  

Mit intelligentem E-Mail-Management lassen sich alle Anliegen mit einfachen Sachverhalten bearbeiten. Die komplexeren Anfragen müssen weiterhin manuell bearbeitet werden. Geht man davon aus, dass ein Großteil standardisierte Anfragen sind, so lassen diese sich voll automatisiert abwickeln.  Das Einsparpotenzial ist entsprechend groß und liegt bei bis zu 50% der Bearbeitungszeit. Dank künstlicher Intelligenz kann die Automatisierungsquote kontinuierlich gesteigert werden, denn das System lernt anhand von Erkennungsbeispielen.  

Viele Potenziale auch außerhalb des Kundenservices  

Intelligente E-Mail-Automatisierung kann auch außerhalb des Kundenservices in anderen Unternehmensbereichen eingesetzt werden. Dies kann etwa in der Einkaufs- oder Finanzabteilung sein, wo E-Mail Anhänge Rechnungen und Mahnungen enthalten oder Fragen zu Abrechnungen auftauchen.   

KI ist eine der Schlüsseltechnologien der Zukunft. Besonders groß ist das Potenzial, wenn diese mit RPA kombiniert wird und Prozesse End-to-End automatisiert werden. Diese Kombination ermöglicht, auch Prozesse zu automatisieren, die sich auf unstrukturierte Daten beziehen, wie etwa E-Mail-Texte. Die intelligente E-Mail-Automatisierung steigert nicht nur die Mitarbeiterproduktivität, sondern verbessert das Kundenerlebnis durch geringere Antwortzeiten und reduziert nachhaltig Kosten.    

Aufmacherbild / Quelle / Lizenz
Photo by Charanjeet Dhiman on Unsplash

Zukunft der Handelswerbung

Die Zukunft der Handelswerbung: Der Mix macht‘s

In Zeiten voranschreitender Digitalisierung und verändertem Mediennutzungsverhalten treffen alte und neue Werbeformen aufeinander, deren Gunst um Wahrnehmung und Wirkung seitens der Konsument:innen immer wieder neu zu hinterfragen sind. Dazu kommen gesetzliche Einschränkungen wie beispielsweise die der Cookie-Nutzung im Rahmen der DSGVO und ein hoher Kostendruck insbesondere im Bereich der Print-Werbung durch hohe Papierpreise und mindestlohnbedingte Logistikkosten.

Die Entscheidung, für welchen Kanal, welches Format oder welche Zielgruppe die Werbe-Euros ausgegeben werden sollen, wird somit immer schwieriger und verlangt ein hohes Detailwissen über die Zielgruppen, deren Erreichbarkeit und Gewohnheiten sowie über die Wirkungsmechanismen crossmedialer Angebotskommunikation.

 IFH MEDIA ANALYTICS, die neue Tochtermarke des IFH KÖLN, hat sich im Rahmen der Studie „Future of Media“ mit den Auswirkungen der Digitalisierung auf zukunftsgerichtete, werbliche Ansprachen – Wahrnehmung, Nutzung und Wirkung – auseinandergesetzt und liefert dabei hilfreiche Impulse.

Fokus klassische Werbung

Traditionelle Werbeformen wie der Prospekt, Fernsehwerbung oder auch das Plakat können grundsätzlich „aufatmen“.

Wenngleich Werbung heutzutage in Summe primär digital geprägt ist, so fällt auf, dass die klassischen Kanäle weiterhin funktionieren! In Abhängigkeit des Alters erreicht man bestimmte Zielgruppen nach wie vor über langjährig etablierte Werbeformen wie das TV oder den Prospekt. Dies umso mehr, wenn von klassischer Angebotskommunikation – also regelmäßiger Produktwerbung – gesprochen wird. Hier ist der Ritualisierungsgrad und damit der Gewohnheitsfaktor so dominant, dass absehbar und kurzfristig keine signifikante Veränderung zu erwarten ist. Dazu kommt eine hohe kaufauslösende Relevanz des Mediums. Insbesondere das Leitmedium Prospekt im Lebensmitteleinzelhandel besticht durch seine hohe Conversionrate gepaart mit einer hohen Reichweite und bedingt durch die bestehende „Opt-Out“-Zulässigkeit. Diese Grundlage für den Erfolg des Mediums könnte durch eine gesetzlich veränderte Rahmenbedingung entzogen werden und damit das Gleichgewicht zwischen digitaler und klassischer Werbung zu Fall bringen. Eine „Opt-In“-Anpassung für unadressierte Prospektwerbung würde zwar positiv eine Streuverlustoptimierung bewirken, auf der anderen Seite aber den werblichen Zugang zu seither empfangsbereiten Verbraucher:innen stark einschränken.

Für die Zukunft hieße das:

Neue Verhaltens- und Gewohnheitsmuster würden sich schlagartig etablieren, die zu sinnvollen, neuen Werbeallokationen führen und digitale Medien weiter stärken würden.

Fokus Online Werbung

Die Werbung im Internet wird im Wesentlichen von drei Playern dominiert: Amazon, Google und Social Media. Rund 50 Prozent aller Befragten gaben an, dass sie primär auf diesen Plattformen für Werbung empfänglich seien. Social-Media-Kanäle haben je nach Alter und Zielstellung ganz unterschiedliche Profile, Stärken und Schwächen. TikTok verfügt über eine hohe Durchschlagkraft bei jungen Internetnutzer:innen. Instagram punktet mit hohem Inspirationspotenzial, mit Innovationen und Trends, mit Reichweite über Blogger:innen und Prominente. YouTube schließlich ist der König unter den Social-Media-Plattformen. Bei der Nutzung, aber auch bei der Imageeinstufung ist das Netzwerk die Nummer eins. Seine Informationsfunktion zu ausgewählten Themen und Produkten macht YouTube über alle Altersgruppen hinweg beliebt. Facebook hingegen spielt insbesondere bei jüngeren Zielgruppen keine Rolle mehr. Trotzdem können Unternehmen von der internationalen Reichweitedes Netzwerkes profitieren.

Es ist davon auszugehen, dass Social Media für das Werbeumfeld in Zukunft an Bedeutung gewinnen und sein Potenzial entfalten wird. Nutzergruppen werden immer stärker ausgeweitet und neue Nutzerfunktionen kommen hinzu, um mehr Kommerzialisierung zu erreichen.. Hierbei ist ausschlaggebend, dass die Kundinnen und Kunden entlang der Customer Journey über die Plattform geführt und betreut werden ohne die Plattform wechseln zu müssen. Das Ideal: Ein Zusammenspiel von Information, Inspiration und Erlebnis auf der einen Seite und der Kauf- bzw. Checkout-Prozess auf der anderen Seite mit so wenig Mausklicks wie nur möglich.

Einen besonderen Stellenwert im Rahmen des sogenannten Social Commerce – Käufe, die über soziale Netzwerke angeregt und abgeschlossen werden – wird weiterhin das Influencermarketing einnehmen.  Im Schnitt ist jeder Dritte im Netz durch einen Influencer auf Werbung aufmerksam geworden – bei den Jüngeren war es sogar über die Hälfte. Dabei ist besonders beeindruckend, dass dies bis auf wenige Ausnahmen auch zum Kauf geführt hat.

Die Wirkung dieser Werbeform auf den sozialen Netzwerken ist demnach unumstritten. Hohe Reichweiten innerhalb der zumeist jungen Zielgruppen ermöglichen einen schnellen Bekanntheitsgrad. Der unterhaltende und inspirierende Faktor verleitet zum Ausprobieren und zum Kauf: Man möchte sich selbst einen Eindruck machen, um „Mitreden“ zu können.

Fazit: Der Werbemarkt der Zukunft

Die gesamten Entwicklungen führen in Summe zu fünf naheliegenden Merkmalen, die für den zukunftsorientierten Werbemarkt bezeichnend sein werden.

  1. Messen und optimiertes Aussteuern traditioneller Werbung
    Der Einfluss klassischer Werbung auf das Kaufverhalten muss validierbar sein – online wie auch stationär.

  2. Hybride Angebotskommunikation
    Die intelligente Verbindung der Medienkanäle ermöglicht eine breit gefächerte Verbraucheransprache über unterschiedliche Mediennutzungskanäle in unterschiedlichen Alltagssituationen hinweg. Ein digitaler Transformationsprozess findet begleitend statt.

  3. Alltagsintegrierte Push-Kommunikation
    Werbung bedarfsgesteuert erhalten ohne dass man danach suchen muss (bspw. über einen digitalen Werbeassistenten).

  4. Verfügbare Kundendaten
    Je höher das Wissen über Verbraucher:innen, der Wünsche und Bedarfe und der Lebenssituation desto höher der Individualisierungsgrad der Werbung und die zielgerichtete Ansprache.

  5. Social Commerce
    Die sozialen Plattformen werden zu kommerziellen Plattformen weiter ausgebaut. Neue Nutzergruppen werden perspektivisch erschlossen.

Über den Autor

Andreas Riekötter, Geschäftsführer IFH

Mathematische Optimierung für bessere KI

Die Digitalisierung bestehender Prozesse allein reicht nicht aus: Unternehmen müssen automatisiert die kundenindividuellen Entscheidungen treffen, um sich im Wettbewerb zu differenzieren. Autor Marc Drobe von FICO berichtet über mathematische Optimierungspotenziale bei Algorithmen.

Die Digitalisierung ist schon seit einigen Jahren auf der Agenda vieler Unternehmen und Corona hat die Notwendigkeit und Entwicklung zusätzlich beschleunigt. Lag der Fokus dabei bisher überwiegend auf der Digitalisierung bestehender Prozesse, ist diese Strategie für die mittel- und langfristige Differenzierung und Erreichung der Geschäftsziele vor allem bei komplexen Portfolio-Entscheidungen nicht ausreichend. Zwar nutzen viele Unternehmen bestehende Daten immer mehr, um mit der Analyse dieser Daten ihre Kunden besser zu bedienen und eine höhere Profitabilität zu erreichen. Aber nur, wenn optimale, automatisierte und datengetriebene kundenindividuelle Entscheidungen in ihre digitalen Prozesse integriert werden, kann ihnen das wirklich gelingen.

So stellen sich Managern komplexer Produkt- oder Serviceportfolios drei große Herausforderungen: Erstens müssen sie für jeden einzelnen Kunden und alle möglichen Entscheidungsoptionen ermitteln, welcher Wertbeitrag zu erwarten ist. Zweitens benötigen sie innerhalb bestehender interner und externer Restriktionen sowie teilweise konkurrierender Ziele mithilfe von Simulationen, Transparenz über die zu erwartenden Portfolioergebnisse, um damit Entscheidungen über Portfoliostrategien zu erleichtern und diese abzusichern. Drittens müssen sie mithilfe von mathematischer Optimierung die Strategie ermitteln, welche innerhalb der gegebenen Ziele und Restriktionen zu optimalen Ergebnissen führt. Diese gilt es dann, innerhalb des (digitalen) Prozesses umzusetzen.

Vorhersagen auf der Basis historischer Daten sind nicht genug – Beispiel Finanzinstitute

Dr. Marc Drobe, Senior Partner Solution Sales bei FICO, erläutert, wie sich bei automatisierter Entscheidungsfindung Optimierungen durchführen lassen.

Nehmen wir als Beispiel die Finanzbranche mit komplexen Portfoliostrategien. Ein volatiles Marktumfeld und gestiegene Kundenanforderungen für Banken und Finanzinstitute machen Simulationen und Stresstests immer wichtiger. Neue Szenarien müssen analysiert, Auswirkungen auf Portfolios projiziert und angepasste Entscheidungsstrategien zur Erreichung der KPIs zeitnah implementiert werden. Die automatisierte Evaluation von Kunden und kundenzentrierte Aktionen rücken dabei in den Vordergrund und Modelle werden agil an neue Daten angepasst. Längst reichen traditionelle Ansätze zur Segmentierung des Portfolios und Vorhersage individuellen Kundenverhaltens nicht mehr aus. Selbst die Entwicklung von datenbasierten Strategien und Advanced Analytics helfen nur in zwei Punkten bei der Entscheidungsfindung. Sie klären erstens, was daraus resultieren könnte, wenn eine spezifische, vorab definierte Aktion für einen Kunden gewählt wird und zweitens, welche Entscheidung für den Kunden isoliert betrachtet am besten ist.

Entscheidungsmodellierung und Optimierung mithilfe von künstlicher Intelligenz entwickeln den Predictive Analytics-Ansatz weiter. Sie ermöglichen Simulationen darüber, welche Entscheidungsstrategie die beste im Hinblick auf die Erreichung von definierten Portfoliozielen ist. Finanzinstitute treffen beispielsweise bei der Kreditvergabe täglich individuelle Entscheidungen zu Kunden, die im Rahmen einer Entscheidungsstrategie definiert sind. Nun gibt es aber für jeden Kunden viele mögliche Entscheidungen und nicht nur eine. Jede dieser Optionen bringt einen anderen Beitrag zur Erreichung der Portfolioziele. Zu beachten sind dabei einerseits die zu erwartenden Erträge, Verluste und Kosten. Andererseits spielt die vorhergesagte Reaktion des Kunden auf unterschiedliche Entscheidungen eine wichtige Rolle. Abbildung 1 zeigt dieses anhand einer einfachen Preisentscheidung.

Außerdem müssen dabei bestehende interne und externe Restriktionen berücksichtigt werden. Die dadurch entstehende Komplexität kann nur mit dem Ansatz der mathematischen Optimierung eindeutig gelöst werden.

Abbildung 1: Entscheidungsmodellierung und Optimierung bringen die Portfoliostrategie auf die nächste Entwicklungsstufe

Entscheidungsfindung auf neues Niveau bringen – Komplexität managen

Folgende Analogie verdeutlicht, wie Decision Impact Modelling und Optimierung die Strategie- und Entscheidungsfindung beispielsweise für den Portfoliomanager eines Finanzinstitutes auf ein neues Niveau heben: Die Strategie- bzw. Entscheidungsfindung ist vergleichbar mit dem Fliegen eines Flugzeugs. Dabei ist im klassischen Ansatz die Preiselastizität der Kompass, um in die richtige Richtung zu fliegen. Das Risikomodell ist die Höhenmeterangabe, die verhindert, dass es einen Crash gibt. Die Erfahrung zeigt, wie weit und in welches Land das Flugzeug fliegen soll. Das Decision Impact Modelling ist das GPS beziehungsweise der Bord-Computer im Flugzeug. Er weist den Weg zum Zielflughafen. Auf das Bankenbeispiel übertragen: Welche individuellen Kundenentscheidungen sind notwendig zur Erreichung der angestrebten KPIs. Aber auch Streckenabschnitte mit schlechtem Wetter, die vermieden werden sollten, werden angezeigt – wie muss ich die Entscheidungsstrategien in einem sich ändernden Wettbewerb und regulatorischen Umfeld anpassen? Mathematische Optimierung ist dabei analog zum Autopiloten. Er zeigt dem Portfoliomanager, welche Entscheidungen für jedes Konto getroffen werden müssen, um genau zum Ziel zu kommen und nicht nur in die Nähe davon.

In der Praxis sind Decision Impact Modelling und mathematische Optimierung das Mittel der Wahl, um unterschiedlichste Szenarien zu simulieren: Wenn ich den Nettozinsertrag maximieren möchte, welchen Einfluss hat das auf das Neugeschäftsvolumen? Wie verändert sich der Zinsertrag, wenn ich das Volumen maximiere? Wie kann ich gleichzeitig Zinsertrag und Volumen steigern, und wo sind die Grenzen? So lassen sich verschiedenen Szenarien analysieren, projizierte Portfolioergebnisse darstellen und Entscheidungsstrategien erstellen, die direkt operativ umgesetzt werden können.

Anstatt das Portfolio zu segmentieren und jedem Mikrosegment eine Aktion zuzuweisen wie im klassischen Portfoliomanagement, werden innerhalb der KI-basierten Entscheidungsoptimierung alle möglichen Aktionen betrachtet, die für jeden Kunden ergriffen werden können. Dabei werden dieselben Daten genutzt wie beim traditionellen Ansatz, aber auch sogenannte Action Effect Modelle genutzt, die es ermöglichen auf der Kundenebene erwartete Ergebnisse für unterschiedliche Entscheidungen zu projizieren. So lassen sich alle möglichen Entscheidungen zeitnah testen, berechnen und im Rahmen der definierten Restriktionen die Erreichung der Portfolioziele projizieren.

Richtige Antworten auf komplexe Fragestellungen – schnell und für unterschiedlichste Szenarien

Entscheidungsmodellierung und -optimierung geben also Antworten auf typische Fragen, die sich Portfoliomanager im Zusammenhang mit Entscheidungsstrategien stellen: Was sind Auswirkungen auf mein Portfolio und meine Ziele, wenn ich meine Strategie unter bestimmten gegebenen Rahmenbedingungen auf diese oder jene Weise ändere? Bei jeder Portfolioentscheidung müssen konkurrierende Ziele berücksichtigt werden.

Bisher beispielsweise bei Kunden aus der Finanzbranche erzielte Ergebnisse sprechen für diesen Ansatz (siehe Abbildung 2). Er ermöglicht nicht nur verbesserte Kundenentscheidungen, die zu einer höheren Portfolioprofitabilität führen. Er gibt auch tiefere Einblicke in das Portfolio und dessen Mikrosegmente. Diese Transparenz ist eine notwendige Voraussetzung, um auch im Umfeld von dynamischem Wettbewerb und wechselnden wirtschaftlichen Rahmenbedingungen profitable Portfolien zu managen.

Abbildung 2: Erfolge von Entscheidungsmodellierung und mathematischer Optimierung bei Kunden aus der Finanzbranche von FICO

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Reshape 2022 online streamen

Die erste globale und virtuelle Beschaffungskonferenz von Amazon Business ist ab heute online verfügbar.

Referent:innen aus globalen Unternehmen wie Accenture, Busy Bees und Johnson & Johnson haben sich über die neuesten Einkaufsstrategien und Technologien ausgetauscht.

Reshape 2022, die globale virtuelle Veranstaltung rund um das Thema Beschaffung, hatte führende Vertreter:innen der Beschaffungsbranche aus Europa empfangen. Diese repräsentierten ein breites Spektrum von Branchen, darunter Geschäfts-und Finanzdienstleistungen, Fertigung, Software und Technologie, Einzelhandel, Transport und Logistik, Bildung und Bauwesen.

Ab heute können Interessierte alle 15 Sessions der Veranstaltung ganz einfach online streamen.


Die strategische Rolle der Beschaffung innerhalb von Unternehmen sowie die Beschaffung als Teil einer nachhaltigen Strategie waren die meistdiskutierten Themen der Veranstaltung.


Zu den Highlights gehörten außerdem:

•Endre Støgård, Global Category Director bei Accenture, der sich mit der Nutzung agiler Prozesse zur Anpassung eines dezentralen Beschaffungsmodells auseinandergesetzt hat.

•Andrea Deichert Oswald, General Director of Supplier Diversity and Procurement Operations bei Union Pacific, die hingegen über die Identifizierung, Beschaffung und Nachverfolgung der Ausgaben von zertifizierten lokalen und kleinen Unternehmen spricht.

Auch die Verfolgung von nachhaltigen Produkten steht im Fokus.

•Harry Walker, Procurement Manager von Busy Bees, der darstellt, wie das Unternehmen den Einkauf für seine Mitarbeiter:innen durch ein digitales Beschaffungsmodell vereinfacht und die Einkaufsrichtlinien anpasst.

•Shashi Mandapaty, die erzählt, wie das Unternehmen digitale Beschaffungslösungen einsetzt. Als Chief Procurement Officer und Corporate Tier bei Johnson & Johnson setzt sie alles daran, die Produktivität zu steigern und wichtige strategischen Einkaufsziele zu fördern.

„Wir freuen uns sehr, dass wir diese Veranstaltung zum ersten Mal auch für Kund:innen in Europa anbieten können. So haben sie die Möglichkeit, sich mit führenden Einkäufer:innen aus der ganzen Welt zu vernetzen und Einblicke in die Herausforderungen im Bereich der Beschaffung zu erhalten – von der Nachhaltigkeit bis hin zur Nutzung agiler Beschaffungsprozesse“, so Nabil De Marco, General Manager, Europe, Amazon Business.

Mehr Informationen finden Sie auf dem Amazon Business Blog.

Aufmacherbild / Quelle/ Lizenz
Photo by Samantha Borges on Unsplash

Wie DevOps zu DevSecOps wird

Von Lucy Kerner*

Hacks der Software Supply Chain stellen für Unternehmen eine große Sicherheitsbedrohung dar. Unter Nutzung von Drittanbieter-Software oder frei verfügbaren Software-Bibliotheken und -Komponenten können Cyberkriminelle gleichzeitig Tausende von Unternehmen und Organisationen infiltrieren. Einer der bisher größten derartigen Eingriffe in die Software-Lieferkette fand 2020 statt: Ein bösartiger Code in einem SolarWinds-Software-Update infizierte zunächst US-Bundesbehörden und anschließend weltweit rund 18.000 Organisationen. Und im März dieses Jahres waren mehr als 20.000 Organisationen von einer Schwachstelle in Microsoft Exchange Server betroffen.

Wie können Unternehmen und Organisationen auf diese Sicherheitsbedrohungen reagieren? Ein Verzicht auf die Nutzung von Software-Lieferketten ist schließlich kein gangbarer Weg. Der Schlüssel liegt in der Anwendung derselben Ideen, Prozesse und Tools, die auch den Erfolg von DevOps ermöglichen. Das heißt, Sicherheitsansätze müssen integraler Bestandteil aller Prozesse rund um Software-Lieferketten sein. Auf diese Weise kann eine „DevSecOps“-Kultur etabliert werden.

Die Sicherheit in den Fokus rücken

Der DevOps-Ansatz zeichnet sich durch die Automatisierung der Prozesse zwischen den Entwicklungs- und Betriebsteams aus. Dadurch können die Entwickler qualitativ hochwertige Software erstellen und die Betriebsteams eine kontinuierliche Bereitstellung und eine konsistente Servicequalität gewährleisten. Die Automatisierung unterstützt dabei eine effiziente Zusammenarbeit der beiden Teams.

Dieses Konzept kann auch auf den Bereich Sicherheit ausgeweitet werden. Anstatt die Sicherheit als Behinderung der DevOps-Workflows zu sehen, sollte sie als zentraler Teil aller Arbeitsabläufe betrachtet werden. Voraussetzung dafür ist, dass die Interaktionen zwischen Security und DevOps automatisiert werden.

Aber was bedeutet dieses Konzept in der Praxis? Für das Verständnis von DevSecOps sind drei Schlüsseltechniken entscheidend: Automatisierung, offene Standards und Zero-Trust-Architektur.

1. Automatisierung

Das Herzstück und die Basis von DevSecOps bildet analog zu DevOps die Automatisierung. Sie ermöglicht konsistente, wiederholbare Prozesse, die die Interaktion zwischen Entwicklungs-, IT-Infrastruktur- und Sicherheitsteams vereinfachen. Mit DevSecOps können unterschiedliche Arbeitsabläufe automatisiert werden: sei es die Einbindung von Stakeholdern in Projekte, die Durchführung alltäglicher und sich wiederholender Aufgaben oder die Orchestrierung und Integration von IT-Tools.

Darüber hinaus automatisiert DevSecOps auch die Sicherheit während des gesamten Lebenszyklus der Anwendungen. So können gemeinsame, automatisierte Anwendungspipelines erstellt werden, die Sicherheitstools und -prüfungen in die Anwendungs- und Bereitstellungsprozesse einbinden. Für Teammitglieder besteht dadurch die Möglichkeit, Security-Checks durchzuführen und so zu gewährleisten, dass die Sicherheit und Konsistenz von Anfang an in alle Anwendungen integriert sind.

Für all diese Aufgaben mussten früher E-Mails zwischen den Teams verschickt werden. Dadurch kam es zu Verzögerungen, weil die Aufgaben manuell zugewiesen und geordnet wurden. Nun ermöglicht die Automatisierung eine nahezu sofortige Bearbeitung und einen Abbau der logistischen und technischen Barrieren zwischen Security- und DevOps-Teams.

2. Offene Standards

Wie in jedem spezialisierten Ökosystem haben Sicherheitsexperten ihre eigenen Plattformen und Sprachen entwickelt, um ihre Prozesse und Techniken auszuführen und zu beschreiben. Um DevSecOps vollständig umzusetzen, ist es jedoch wichtig, dass für die Bedürfnisse und Anforderungen von Sicherheits- und DevOps-Teams eine gemeinsame technologische Basis besteht.

Hier kommen offene Standards und Open-Source-Tools ins Spiel. Im Gegensatz zu proprietärer Software können Open-Source-Software und -Anwendungen dazu beitragen, die Plattformen und Sprachen zu standardisieren, die von DevSecOps-Teams verwendet werden. Auf diese Weise können sowohl DevOps- als auch Sicherheitsteams ihre Arbeit auf kompatiblen Plattformen und in einer Form erledigen, die konsistent und verständlich ist: Es spart Zeit und verringert das Risiko von Fehlern bei der Übertragung von Workflows zwischen den Teams.

3. Zero-Trust-Architektur

Um mögliche Angriffe auf die Software-Lieferkette abzuwehren, müssen Organisationen auf jeden Fall sicherstellen, dass eine einzelne Sicherheitslücke nicht den gesamten technologischen Stack kompromittieren kann. Selbst wenn ein Angreifer Anmeldedaten, Datenbankstandorte oder IP-Adressen in Erfahrung bringt – und das ist bei schwerwiegenden Angriffen häufig der Fall –, sollte er nicht auf den Rest eines Systems oder Netzwerks zugreifen können.

Unternehmen sollten deshalb einen „Zero-Trust“-Sicherheitsansatz verfolgen. Er basiert auf der Erkenntnis, dass herkömmliche Netzwerk-Perimeter und Trust-Modelle keinen ausreichenden Schutz für Daten, Vermögenswerte oder Workloads bieten. Bei einer Zero-Trust-Strategie werden Netzwerke automatisch segmentiert, um Angriffe auf gesamte Systemumgebungen zu verhindern. Anstatt davon auszugehen, dass irgendetwas oder irgendjemand innerhalb des IT-Netzwerks vertrauenswürdig ist, geht Zero Trust vom Gegenteil aus. Folglich wird auch eine Sicherheitsumgebung rund um De-Perimeterization- und Least-Privilege-Konzepte aufgebaut. Dadurch können die Berechtigungen sehr granular sein und Sicherheitsvorfälle an einer Stelle des Netzwerks auf diese beschränkt bleiben. Zugleich sorgt die Automatisierung von Zero Trust aber auch dafür, dass reguläre Workflows nicht gestört werden, indem legitimierten Nutzern ausreichende Zugriffsrechte gewährt werden, mit denen sie ihre Arbeit erledigen können.

Insgesamt steht die DevSecOps-Kultur, die durch die Kombination von Automatisierung, offenen Standards und Zero-Trust entsteht, für ein Konzept, bei dem die Sicherheit von Anfang an in den Lebenszyklus von Anwendungen und Infrastrukturen eingebettet ist. Dies fördert die Robustheit von Prozessen, Applikationen und den damit verbundenen Lieferketten. Gleichzeitig erhalten die unterschiedlichen Teams mit DevSecOps die Flexibilität, innovative und zuverlässige Anwendungen und Services bereitzustellen.

* Lucy Kerner ist Security Global Strategy und Evangelism Director bei Red Hat

Content Authenticity Initiative versus Fake News

How Digital Content Provenance and Attribution are Combatting Disinformation

by Santiago Lyon

We are witnessing extraordinary challenges to trust in the media. Knowing how and who made a piece of content is critical to ensuring transparency, understanding, and trust.

As the speed of digital content increases and technology advances, powerful creation, editing and distribution techniques are more available than ever – with the same tools used to make and share legitimate content also being deployed to create and spread disinformation or misinformation. With the Content Authenticity Initiative (CAI), we aim to build trust by providing creators, publishers, and consumers with a simple, reliable method of determining the authenticity of content.

CAI = Content Authenticity Initiative

Adobe’s Santiago Lyon is the Head of Advocacy and Education for the CAI.


The CAI is a community of major media and technology companies, NGOs, academics and others working to promote and drive adoption of an open industry standard around content authenticity and provenance (which details the origin and edit history of a piece of content). The goal is to ensure that creators have a secure way to get credit for their work and consumers are equipped with the tools to determine which content to trust.

Founded in 2019 by Adobe through a partnership with Twitter and The New York Times Company, our mission is to bolster trust in digital media content (images, video, etc.) by adding robust, tamper-evident provenance data about how a piece of content was produced, edited, and published.

Since our inception, we’ve seen steady growth of membership. The CAI ecosystem now exceeds 650 members that collaborate, participate in events, and exchange ideas on how to best tackle mis- and disinformation. We’re joined by major media organizations like DPA, Stern, Agence France-Presse (AFP), BBC, Getty Images, McClatchy, The Washington Post, VII Photo, and others.

On the technology side, we have participation from Arm, CameraBits, Impressions, Metaphysic.ai, Microsoft, Nikon, Qualcomm, Reface, Smartframe, Synthesia, Truepic, and Wacom — among a host of others. In many cases, CAI members are working to implement digital provenance in their solutions.


>>> Lesen Sie hier den Artikel in Deutsch


„CAI’s approach is helping restore trust in online content and supporting creators.“

Santiago Lyon

Content Credentials


The CAI is also driving adoption of the world’s first open industry standard for verifying content authenticity across digital media as part of the Coalition for Content Provenance and Authenticity (C2PA), a standards organization comprised of media and technology companies including Adobe, Arm, BBC, Intel, Microsoft, Truepic, and Twitter.

The CAI is creating a digital chain of custody for photography, video, and other file types from creation to publication. Images and video will be published in both traditional and social media with public-facing CAI metadata, called “Content Credentials,” that will expose relevant information about the image’s provenance and authenticity to the viewer. From the moment of creation, images (and eventually other file types) will include indelible CAI metadata accompanying the content wherever it goes – from the point of creation through editing and publication or sharing. Once Content Credentials are embedded in a piece of content, consumers can authenticate it using the CAI’s Verify website to view the content credentials showing what (if anything) was altered.

We launched the CAI’s Content Credentials as a public beta in Adobe Photoshop in October 2021, alongside support in other Adobe tools including Behance and Adobe Stock. This feature is now available in beta for all Photoshop users, the first time CAI technology is being brought to a wide audience.

Coming soon…

Soon, any interested individual, organization, or company will be able to access open-source offerings from the CAI to utilize our code for content provenance across various applications – without licensing or intellectual property concerns. Find out more and sign up for updates on our site here. If you or your company are interested in the CAI’s work, you can join us for free as a member to have access to our events and updates and get access to collaborate with our team on your projects.


„With digital content provenance and attribution, we have a way forward.“


While no one company or organization can solve the real and growing problem of fake content and mis- and disinformation, the CAI’s approach is helping restore trust in online content and supporting creators. Addressing this issue will require ongoing collaboration between content creators, academia, researchers, technology providers, government, and content distributors. With digital content provenance and attribution, we have a way forward.

https://contentauthenticity.org/

Aufmacherbild/ Quelle / Lizenz
https://pixabay.com/photos/original-sign-label-character-960525/

Content Authenticity Initiative vs. Fake News


Digitale Provenienz und transparente Bearbeitungshistorien helfen Desinformation zu bekämpfen

von Santiago Lyon

Wir erleben, wie das Vertrauen in Medien auf eine außerordentliche Probe gestellt wird.  Zu wissen, wie und von wem ein Inhalt erstellt wurde, ist entscheidend, um Transparenz, Verständnis und Vertrauen zu gewährleisten.

Durch den rasanten technologischen Fortschritt werden digitale Inhalte schneller erstellt und verbreitet denn je. Dabei werden dieselben Mittel, die für die Erstellung und Verbreitung legitimer Inhalte verwendet werden, auch für die Erstellung und Verbreitung von Des- oder Fehlinformationen eingesetzt. Mit der Content Authenticity Initiative (CAI) wollen wir Vertrauen schaffen, indem wir Urheber*innen, Verleger*innen und Konsument*innen eine einfache, zuverlässige Methode zur Bestimmung der Authentizität von Inhalten mit an die Hand geben.

CAI = Content Authenticity Initiative

Santiago Lyon von Adobe ist Leiter der Abteilung Advocacy and Education bei der CAI

Die CAI ist ein Zusammenschluss von großen Medien- und Technologieunternehmen, Nichtregierungsorganisationen, Akademikern und anderen Stakeholdern, die sich für die Förderung und Durchsetzung eines offenen Industriestandards für die Authentizität und Herkunft von digitalen Inhalten einsetzen (ein Standard, der die Provenienz, also die Herkunft sowie den Bearbeitungsverlauf von Inhalten detailliert beschreibt). Damit soll erreicht werden, dass Creator*innen eine verlässliche Möglichkeit erhalten, die Urheberschaft ihrer Arbeiten auszuweisen.

Gleichzeitig werden Konsument*innen mit entsprechenden Mitteln ausgestattet , um beurteilen zu können, welchen  Inhalten sie vertrauen können. Die 2019 von Adobe im Rahmen einer Partnerschaft mit Twitter und der New York Times Company gegründete Initiative hat es sich zur Aufgabe gemacht, das Vertrauen in digitale Medieninhalte (Bilder, Videos usw.) zu stärken, indem es robuste, fälschungssichere Metadaten darüber bereitstellt, wie ein Inhalt produziert, bearbeitet und veröffentlicht wurde.

Seit unserer Gründung konnten wir ein stetiges Wachstum an Mitgliederzahlen verzeichnen. Das CAI-Ökosystem umfasst inzwischen mehr als 650 Mitglieder, die zusammenarbeiten, an Veranstaltungen teilnehmen und sich darüber austauschen, wie man am besten gegen Fehl- und Desinformationen vorgehen kann. Zu unseren Mitgliedern zählen große Medienorganisationen wie dpa Deutsche Presse-Agentur, Stern, The Washington Post, McClatchy, BBC, Agence France-Presse (AFP), Getty Images, VII Photo und andere. Auf der Technologieseite sind unter anderem Arm, CameraBits, Impressions, Metaphysic.ai, Microsoft, Nikon, Qualcomm, Reface, Smartframe, Synthesia, Truepic und Wacom – und viele andere – vertreten. Viele CAI-Mitglieder arbeiten bereits daran, die digitale Provenienz in ihre Lösungen zu implementieren.


>>> For the english version of the article please follow this link


„Der Ansatz der CAI trägt dazu bei, das Vertrauen in Online-Inhalte wiederherzustellen und die Urheber*innen zu unterstützen.“

Santiago Lyon

Als Teil der Coalition for Content Provenance and Authenticity (C2PA), einem Bündnis zur Standardisierung, welches sich aus Medien- und Technologieunternehmen wie Adobe, Arm, BBC, Intel, Microsoft, Truepic und Twitter zusammensetzt, treibt die CAI auch die Einführung des weltweit ersten offen verfügbaren Industriestandards zur Überprüfung der Authentizität von Inhalten in digitalen Medien voran.

Content Credentials

Die CAI schafft eine digitale Dokumentation für Fotos, Videos und andere Dateitypen, von der Erstellung über die Bearbeitung bis zur Veröffentlichung. Bilder und Videos sollen sowohl in traditionellen als auch in sozialen Medien mit öffentlich zugänglichen CAI-Metadaten, den sogenannten „Content Credentials“, veröffentlicht werden, die Betrachter*innen relevante Informationen über Urheberschaft und die Authentizität der Datei liefern.

Vom Moment der Erstellung an werden Bilder (und im Laufe der Zeit auch andere Dateitypen) nicht entfernbare und fälschungssichere CAI-Metadaten enthalten, die Inhalte überallhin begleiten – von der Erstellung über die Bearbeitung bis hin zur Veröffentlichung oder Weitergabe. Sobald die Content Credentials als Inhaltsurhebernachweis eingebettet sind, können diese über die Verify-Website der CAI authentifiziert und eingesehen werden, die anzeigen, was (wenn überhaupt) an einem Inhalt verändert wurde.

Wir haben die CAI Content Credentials im Oktober 2021 als öffentliche Beta-Version in Adobe Photoshop eingeführt, begleitet durch die Unterstützung in anderen Adobe-Tools und Services wie Behance und Adobe Stock. Diese Funktion ist nun in der Beta-Version für alle Photoshop-Benutzer verfügbar und damit ist die CAI-Technologie zum ersten Mal einem breiten Publikum zugänglich.

Fazit

Zwar kann kein einzelnes Unternehmen und keine einzelne Organisation das reale und wachsende Problem gefälschter Inhalte und damit verbundener Des-/Fehlinformationen lösen, doch trägt der Ansatz der CAI dazu bei, das Vertrauen in Online-Inhalte wiederherzustellen und die Urheber*innen zu unterstützen.

Die Bewältigung dieses Problems erfordert eine kontinuierliche Zusammenarbeit zwischen den Urheber*innen von Inhalten, Hochschulen/Forschern, Technologieanbietern, Behörden und Distributor*innen von Inhalten. Digitale Provenienz und transparente Bearbeitungshistorien sind ein wichtiger Schritt für die Zukunft.


„Digitale Provenienz und transparente Bearbeitungshistorien sind ein wichtiger Schritt für die Zukunft.“


In Kürze wird jede interessierte Person, Organisation oder Firma auf die Open-Source-Angebote der CAI zugreifen können, um unseren Code für den Urhebernachweis in verschiedenen Anwendungen zu nutzen – ohne die Notwendigkeit einer Lizenzierung oder anderer nutzungsrechtlicher Belange.  Weitere Informationen gibt es über diesen Link.  Wenn Sie oder Ihr Unternehmen an der Arbeit der CAI interessiert sind, können Sie kostenlos als Mitglied beitreten, um Zugang zu Veranstaltungen und Neuerungen zu erhalten sowie mit unserem Team an Ihren Projekten zusammenzuarbeiten.

https://contentauthenticity.org/

„Wir brauchen eine ganzheitliche Smart-City-Strategie“

Dr. Bernhard Kirchmair setzt als CDO bei Vinci Energies Projekte im Bereich der digitalen Transformation um und erschließt daraus auch ganz neue Anwendungsmöglichkeiten für seine Kunden.

Die Smart City steht für eine Vision. Es geht um  den Lebensraum der Menschheit in Zukunft. Aber auch um ganz konkrete Fragestellungen zum Beispiel um digitale Geschäftsmodelle im urbanen Raum und die Frage, wem die dadurch entstehenden Daten gehören sollten. Wir haben mit Dr. Bernhard Kirchmair, CDO von VINCI Energies für DACH und Osteuropa gesprochen und im folgenden Städten und Gemeinden durch einen Fragenkatalog einen Guide für die digitale Transformation im urbanen Raum geschaffen.

Herr Kirchmair, wie können unsere Städte wirklich smart werden?
Damit unsere Städte smart werden, ist eine ganzheitliche Smart-City-Strategie erforderlich, die sich am individuellen Bedarf orientiert. Dabei sind die Herausforderungen konzeptioneller, ökonomischer, sozialer und technologischer Natur, zu denen die jeweiligen Akteure ihren Beitrag leisten müssen. Angefangen bei den Entscheidungsstrukturen auf kommunaler Ebene, die teilweise noch nicht ausreichend übergreifend und interdisziplinär angelegt sind. Auf der anderen Seite stehen die deutschen Unternehmen, die zwar ideenstark sind, aber mithin noch zu zögerlich agieren. Das Know-how, Technologien wie KI, Cloud und Blockchain, die Finanzierungsmittel genauso wie die Absatzmärkte sind ja vorhanden. Was es braucht, sind agilere Strukturen der Kooperation in Form von digitalen Ökosystemen.

Städte sind keine homogenen Gebilde und können – anders als zum Beispiel Industrieparks – nicht „einfach“ umgestaltet werden. Wie helfen Sie Verwaltungen, Industriebetreibern und anderen Akteuren in der Stadt, die notwendigen Schritte anzugehen? Und wie können Interessen gebündelt werden?
Das Rad muss nicht neu erfunden werden. Vielmehr lässt sich die vorhandene Infrastruktur heranziehen, um sie smart zu machen. Nehmen Sie die rund zehn Millionen Straßenlaternen in Deutschland. Diese lassen sich sehr leicht umrüsten, um sie als Basisstation für Smart-City- und Smart-Mobility-Konzepte zu nutzen – beispielsweise als Ladestation für Elektroautos und zugleich zur Verkehrsflussmessung oder für Open WIFI. Auch die Gebäude können zum Beispiel durch moderne Steuerungssoftware mit KI bei der Gebäudetechnik smart werden. Das eine ist also die Erkenntnis: auf Vorhandenes zurückzugreifen und neu zu denken. Um das zu realisieren, stehen wir im engen Kontakt mit Städten und Kommunen und aktivieren parallel dazu unser digitales Ökosystem. Hier arbeiten wir interdisziplinär mit anderen Unternehmen und Startups an zukunftsweisenden Lösungen.

Inwieweit konnten Sie das Thema Nachhaltigkeit in Ihrer Unternehmenskultur verankern und wie setzen Sie das Thema in Ihren Projekten um?
Bei VINCI Energies und im gesamten Konzernnetzwerk engagieren wir uns seit vielen Jahren aktiv für mehr Nachhaltigkeit. So haben wir uns das Ziel gesetzt, den CO2– Fußabdruck bis 2030 um 40 Prozent zu reduzieren und bis 2050 vollständig klimaneutral zu sein. Dazu haben wir eine ganze Reihe an internen Maßnahmen in Gang gesetzt. So nutzen wir beispielsweise ein Monitoring, um unseren Energieverbrauch genau zu erfassen. Derzeit erarbeiten zwei Gruppen eines von uns initiierten CO2-Hackathons digitale Plattformen dafür. Daneben beziehen wir an unseren Standorten Ökostrom, optimieren interne Prozesse, indem etwa Fahrten mit dem Auto vermieden werden, und setzen auf das große Engagement unserer Mitarbeitenden. An unserem VINCI Umwelttag geben wir ihnen dazu zusätzliche Tipps. Die Themen Energieeffizienz und Nachhaltigkeit sind auch in unseren Kundenprojekten elementare Faktoren und dort fest verankert. Daher haben wir auch den VINCI Umweltpreis ins Leben gerufen, mit dem wir besonders innovative und spannende Projekte auszeichnen.

In welchem Kontext steht dabei die digitale Transformation?
Ohne die digitale Transformation sind weder die Energiewende noch ein nachhaltiger Umgang mit Ressourcen möglich. Digitale Technologien dienen etwa dazu, Energieverbräuche genau zu messen und durch KI automatisch einordnen und optimieren zu können. Das gilt nicht nur für das Energiemonitoring bei Gebäuden oder Industrieanlagen. Auch Umspannwerke und Trafostationen müssen für die zukünftig volatile Versorgung durch grünen Strom smart umgerüstet werden, um Verbräuche besser zu prognostizieren und ihre Leistung dezentral zu regulieren. Zur Optimierung ihres Verbrauchs setzt die Industrie schon länger auf Technologien wie die Cloud oder Data Analytics. Aber auch Wartungsarbeiten lassen sich hier etwa durch Remote Expert Services aus der Ferne durchführen – das spart Anfahrtswege und damit CO2.

Mit welchen Aktionen gehen Sie voran?
Wir haben mit dem Unternehmensbereich VINCI Energies Digital eine eigene Digitaleinheit, die die digitale Transformation konzernübergreifend vorantreibt und koordiniert. Im letzten Jahr wurde diese auch als eine der Top-3 Innovation Units in Deutschland ausgezeichnet. Sie umfasst ein breites Portfolio aus Startup-Programmen, Projekten zur Nutzbarmachung von künstlicher Intelligenz, Weiterbildungs- und Intrapreneurship-Programmen sowie ein eigenes Themen- und Ideenportal. Einzigartig in Deutschland ist unsere Digitalschmiede. Eine Projektwerkstatt, in der etwa Kunden Prototypen entwickeln können und regelmäßig Speed Datings mit Startups veranstaltet werden. All das sind wichtige Bausteine unseres digitalen Ökosystems, über das wir symbiotisch mit Partnern zusammenarbeiten, um durchgehend zukunftsfähige Lösungen zu entwickeln.



Wie können Ihrer Meinung nach die neuen Technologien rund um KI, Blockchain und IoT die Städte resilienter und zukunftsfähiger machen?
Die genannten Technologien und weitere mehr bieten viele verschiedenen Möglichkeiten, um Städte resilienter und zukunftsfähiger zu machen. Von Verbrauchsanalysen und -prognosen zum Energiebedarf über effizientere Verkehrsplanung und das Parkraummanagement bis hin zu digitalen Bürgerservices. Vor allem im Verbund spielen sie ihr volles Potenzial aus. Werden beispielsweise Straßenlaternen mit moderner Messsensorik aufgerüstet und über das IoT vernetzt, lassen sich die so erhobenen Daten mittels KI analysieren, um Verkehrsflüsse deutlich nachhaltiger zu steuern. Die Blockchain-Technologie kann hochsensible personenbezogene Daten schützen, um Behördengänge sicher über das Internet zu ermöglichen. Solche und andere Smart-City-Lösungen erleichtern unser Leben, machen Fahrten überflüssig oder verhindern Stau und verringern so den CO2-Ausstoß.

Was verstehen Sie unter dem Begriff Smart Country? Inwieweit können Ihre Konzepte Kommunen und Gemeinden helfen, den Infrastrukturausbau und die Attraktivität von ländlichen Räumen zu steigern?
Digitale Technologien dürfen sich nicht auf unsere Städte beschränkten. Sie müssen auch den ländlichen Raum miteinbeziehen, damit aus Smart Cities Smart Countries werden. Das hängt sehr vom Ausbau der Infrastruktur ab, gerade was den Breitbandausbau betrifft. Hier ist die Politik gefragt. Estland, das über eine nahezu vollständige W-LAN-Abdeckung verfügt, zeigt, dass das möglich ist. Anschließend spielen Synergien zwischen Wirtschaft, Wissenschaft und Kommunen eine entscheidende Rolle – ebenso wie Bürgerbeteiligungen und öffentlich-private Partnerschaften. Ideen, Know-how und Mittel müssen darüber gebündelt werden, um gemeinsame Ziele zu definieren und zu realisieren. In der Wirtschaft sind dazu sogenannte digitale Ökosysteme ein Konzept, um die Zusammenarbeit effizienter zu gestalten.

Welche Rolle spielt in Zukunft das Thema Open Data für Städte, Kommunen und Gemeinden?
Damit die Vision von Smart Countries erfolgreich gelingt, braucht es die aktive Bürgerbeteiligung. Die Menschen müssen mitgenommen werden, indem man ihre Ideen und Wünsche miteinfließen lässt. Nur so können wir das eigentliche Ziel, das Leben der Menschen zu verbessern, erreichen. Daher ist auch das Thema Open Data wichtig, um der Bevölkerung den Zugang zu den Daten zu ermöglichen und sie in die Weiterentwicklung miteinzubeziehen. Natürlich spielt hier auch der Datenschutz eine wichtige Rolle. Deshalb ist es entscheidend, das Thema Datentransparenz und die Anonymisierung bestimmter Daten in Einklang zu bringen. Die „Digitalstadt Darmstadt“ betreibt beispielsweise eine zentrale Datenplattform, die Messungen zum Verkehrswesen bereitstellt. Auf diese Plattform kann jeder zugreifen.

Weitere Informationen unter:
https://digitalschmiede.vinci-energies.de/bernhard-kirchmair/

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Medien und Kommunikation in der vernetzten Gesellschaft

Prof. Dr. Martin Emmer Gründungsdirektor am Weizenbaum-Institut für die vernetzte Gesellschaft, und Principal Investigator der Forschungsgruppe „Digital Citizenship“, erörtert mit der Redaktion aktuelle Entwicklungen zu Fake News, Metaverse und Blockchain-Technologien sowie deren Auswirkungen auf unsere vernetzte Gesellschaft im Kontext von Kommunikation und Medien.

Herr Prof. Emmer, Sie beschäftigen sich schon lange mit den Auswirkungen digitaler Technologien im Hinblick auf unsere Gesellschaft. Welche Forschungsschwerpunkte verfolgen Sie?

Als Mediennutzungsforscher interessiere ich mich dafür, warum, wie und wofür Menschen Medien nutzen und was das für unsere Gesellschaft bedeutet. Heute geht es dabei natürlich vor allem um den digitalen Medienwandel, und mir insbesondere um die politische Dimension der Nutzung: Wo können neue digitale Medien und vor allem die zunehmende Rolle von KI die demokratische Mitbestimmung der Bürgerinnen und Bürger stärken oder gefährden? Welche Probleme bringen soziale Medien – etwa durch die massenhafte Verbreitung von Propaganda, Fake News und Hatespeech – für das soziale Miteinander und die politische Willensbildung mit sich?

Welche Erkenntnisse konnten Sie bisher aus Ihrer aktuellen Studie gewinnen?

Ein sicher wichtiger Befund ist, dass man – bei unserem Blick auf die gesamte Gesellschaft, gewissermaßen aus der Vogelperspektive – keine dramatischen Phänomene wie eine allgemeine „Verrohung“ der Gesellschaft oder einen generellen Vertrauensverlust in Demokratie, Medien oder politische Institutionen feststellen kann. Es zeigt sich hingegen, dass zunehmend mehr Menschen die Probleme in den Debatten im Internet und auf sozialen Medien wahrnehmen und sehen, dass sie hier selbst Verantwortung übernehmen können und sollten.

Das heißt aber nicht, dass es keine Probleme gibt, im Gegenteil: Gefährlich ist vor allem, dass sich in Foren auf Messenger-Diensten wie Telegram oder auf Facebook Menschen mit extremistischen Einstellungen zusammenfinden, sich dort immer weiter radikalisieren und Drohungen, Gewalttaten sowie Terrorismus die Folge sein können. Quantitativ sind diese Gruppen nicht sehr groß, sie stellen aber durch ihre Aggressivität ein reales und wachsendes Problem dar.

Wie können wir uns noch gegen „Fake News“ wehren?

Einerseits ist sicher eine stärkere Kompetenz und Eigenverantwortung von Bürger:innen nötig: Die digitale Medienwelt ist unendlich vielfältiger als die alte Massenmedienwelt, mit vielen Vorteilen, aber eben auch mit der Herausforderung, mit dieser riesigen Fülle an Informationen umzugehen. Wenn möglichst viele Menschen wissen, wie man Fake News erkennt, verlässliche Informationen findet und sich ein ausgewogenes Informationsmenü zusammenstellt, wäre schon viel gewonnen.

Allerdings ist es nicht fair, die Verantwortung einfach auf uns einzelne Nutzende abzuschieben, während uns Multimilliarden-Konzerne weiterhin aus reinen Profitgründen hemmungslos mit Informationsmüll überschütten. Nötig ist sicher auch, politischen Druck auf die Plattformen auszuüben, ihre Algorithmen stärker an Gemeinwohlkriterien auszurichten. Darüber hinaus wären auch eine fundierte Strategie und mit entsprechenden Ressourcen ausgestattete Strafverfolgungsbehörden sinnvoll, um effektiver gegen koordinierte Desinformations- und  Hasskampagnen vorzugehen, die unsere freiheitlich-demokratische Gesellschaftsordnung angreifen, indem sie z. B. Gewalttaten befeuern.

© Kay Herschelmann

„Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.”


Prof. Dr. Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft. Als Gründungsdirektor und Principal Investigator führt er die Forschungsgruppe „Digital Citizenship


Wie und woran kann ich dann „Fake News“ erkennen?

Dazu gibt es ja mittlerweile im Internet eine Menge Ratgeber, etwa von der Bundeszentrale für Politische Bildung, dem Goethe-Institut oder vertrauenswürdigen Medien wie tagesschau.de. Denen kann man wichtige Regeln wie „Seriosität der Quelle prüfen“ oder „Inhalte mit anderen Meldungen vergleichen“ entnehmen.

In unserem Alltag ist das aber natürlich nicht immer machbar, deswegen sind auch sehr grundlegende Kompetenzen hilfreich, wie Reflexionsfähigkeit und Impulskontrolle: Klicke ich zu schnell auf einen sogenannten „Clickbait“, werde ich durch eine Nachricht so emotional angesprochen, dass ich diese ohne nachzudenken like oder weiterleite?

Viele Desinformationskampagnen verbergen sich z. B. hinter emotionalen Hilfeaufrufen oder Warnmeldungen, durch die fremdenfeindliche Narrative verbreitet werden („Habe gerade beobachtet, wie vor dem Supermarkt X in Y ein Asylbewerber ein Kind entführen wollte, verbreitet die Nachricht schnell, um alle Eltern zu warnen!“).

>>>„Meta schafft Arbeitsplätze im deutschen Journalismus. Die Deutsche Presse-Agentur (dpa) beschäftigt von April an ein 15-Leute-Team, das für den Facebook-Konzern deutsche Nachrichten kuratieren soll.“
(https://netzpolitik.org/2022/facebook-news-fuer-dpa-wird-das-desinformationsproblem-von-meta-zum-geschaeftszweig/?xing_share=news) <<<

Wird das helfen?…und das Modell..?

Das ist sicher ein gutes PR-Projekt für Facebook, das ja dringend positive Schlagzeilen braucht und die schon lange schwelenden Konflikte mit den deutschen Verlegern abkühlen will.
Eine ganze Reihe von Gründen sprechen aber dagegen, dass sich dadurch Probleme substanziell lösen lassen.

Insbesondere wird das strukturelle Grundproblem von Social-Media-Plattformen wie Facebook nicht angegangen: Diese sind letztlich automatisierte Maschinen, die wie riesige Turbinen alle Arten von Inhalten ansaugen (Bilder, Videos, Likes, Kommentare etc.) und diese auf der anderen Seite, nach undurchsichtigen Sortierungskriterien, mit Hochdruck in die Timelines der Nutzerinnen und Nutzer pressen.

Angesichts der gewaltigen Mengen an Material sind alle Versuche, das auch nur annähernd inhaltlich durch Menschen (oder bislang unzureichend entwickelte KIs) prüfen und sortieren zu lassen, von vorneherein aussichtslos. Die aktuelle Umsetzung als begleitendes Zusatzangebot zeigt ja auch, dass sowas mit diesem Projekt gar nicht erst versucht wird

Der einzige Fortschritt im Verfahren ist, dass es nicht mehr eine Firma des Springer-Verlags ist, der an der Kuratierung der Facebook-Nachrichten mitwirkt, sondern eine Tochterfirma der dpa, die zwar auch ein einzelnes Unternehmen ist, das aber eine auf Vielfalt ausgerichtete Besitzstruktur hat.

Könnten neue z.B. auf der Blockchain basierende Technologien wie NFTs (Non-Fungible Tokens), ich nenne es einmal eine „Datenbank der Wahrheit“, helfen?

Nein, denn Blockchain-Technologien können nur innerhalb ihres eigenen Systems „Wahrheit“ garantieren, also eine Sicherheit vor Fälschung oder Manipulation der in der Blockchain codierten Information sicherstellen.

Wenn Sie solche NFTs mit einer „Wahrheit“ außerhalb der Blockchain verknüpfen wollen, brauchen Sie wie bisher auch vertrauenswürdige Verfahren, die sicherstellen, dass nur geprüfte „Wahrheiten“ überhaupt in die Blockchain kommen – und damit kommen wir um die grundsätzlichen philosophischen, sozialen und politischen Fragen nicht herum, die mit der Frage verknüpft sind, wie unsere Gesellschaft „Wahrheit“ und die Geltungsansprüche von Aussagen definiert.

Welche Zielgruppen sprechen Sie mit Ihrem neuen „Weizenbaum Journal of the Digital Society“ an?

Das Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen. Denn interdisziplinäre Arbeiten haben es in unserer wachsenden, aber zunehmend spezialisierten wissenschaftlichen Publikationswelt immer noch schwer.

Wenn in der Peer-Review-Begutachtung eines Journals vor allem Expert:innen aus einem bestimmten Fach einen Forschungsbeitrag bewerten, sind Bezüge auf andere Fachkontexte oft eher Störfaktoren, die dazu führen, dass ein Manuskript schlechter bewertet wird und weniger Publikationschancen hat. Das kann dazu führen, dass interdisziplinäre Themen, für die eine Kombination aus verschiedenen Fachperspektiven sinnvoll wäre, in der Forschung wenig sichtbar sind und auch weniger verfolgt werden.

Das Weizenbaum Journal will deshalb genau für solche Forschung im Bereich der Digitalisierung unserer Gesellschaft einen Raum bieten für Autor:innen und Teams aus Sozial-, Rechts- und Technikwissenschaften und allen anderen Feldern, die zum Thema substanzielles beitragen können.

„Das Weizenbaum Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen.”

Hier geht es zum Weizenbaum Journal

Warum haben Sie sich für eine Open-Content-Strategie im Kontext der Inhalte und Forschungsbeiträge entschieden?

Wissenschaft will das von ihr produzierte Wissen so weit wie möglich verbreiten – nicht umsonst ist etwa die Zitationshäufigkeit der Publikationen eine der wichtigsten wissenschaftlichen Währungen. Deshalb haben wir uns für eine Lizenz entschieden, die der Verbreitung möglichst wenige Hürden in den Weg stellt: So lange die Autor:innen genannt werden, darf die Publikation in allen Formen weiterverbreitet werden – sogar kommerziell: Wenn ein Verlag meinen Artikel auf Büttenpapier mit Goldschnitt und Lederbindung teuer verkaufen will, darf er das jederzeit machen, wenn er glaubt, dafür Käufer zu finden. Denn auch das führt zu einer weiteren Verbreitung, während die kostenlose Version gleichzeitig immer für alle zugänglich bleibt.

Inwieweit kann das Internet durch innovative Technologien, wie z. B. die Blockchain mit ihren Smart Contracts, mehr Ausgewogenheit in unserer Gesellschaft verankern?

Ich bin kein Blockchain-Forscher, bin aber im Moment eher skeptisch, wie gerade ja schon deutlich geworden ist. Man kann mit diesen Technologien sicherlich bestimmte Sicherheitsprobleme lösen, mit NFTs viel Geld verdienen und mit Smart Contracts konkrete Interaktionen von unnötigen Verwaltungsprozessen und Fehlerquellen befreien.

Der Glaube daran, man könne mit einer neuen Technologie auf einen Schlag ganz viele (soziale) Probleme lösen, ist praktisch immer eine Illusion: Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.

Tatsächlich gibt es unter den Vertretern der Silicon-Valley-Ideologie einige, die das Gegenteil behaupten, zum Teil eine gefährliche Nähe zu extrem anarcho-libertären Bewegungen und Akteuren haben, die mit Hilfe von Blockchain-Technologien nicht nur Datensicherheit stärken wollen, sondern jede Form staatlicher Autorität und damit auch gesellschaftlicher Normen delegitimieren und überflüssig machen wollen.

Gibt es schon Denkansätze oder wichtige Fragen Ihrerseits, welche Auswirkungen das „Metaverse“ auf unsere Gesellschaft haben könnte?

„Das sogenannte „Metaverse“ ist im Moment ja nur eine Vision, die sehr stark von Akteuren aus der digitalen Ökonomie befördert wird. Als Mediennutzungsforscher bin ich im Moment eher skeptisch, ob das wirklich eine realistische Zukunft für die nächsten fünf Jahre sein kann. Marc Zuckerberg hatte schließlich schon mit dem herkömmlichen Facebook den Plan, die Plattform zu einer Catch-All-Welt zu machen, in der wir als Nutzende möglichst unser ganzes digitales Leben abwickeln sollten.“

Bekanntermaßen war das für viele, besonders für die jeweils jüngsten Generationen, nicht attraktiv; sie suchen nicht nach einer allumfassenden Umgebung, in der man all das wiederfindet, was anderswo und in der realen Welt auch vorhanden ist, inklusive Eltern und Lehrer.

Sondern sie suchen sich eher kleinere Nischenanwendungen für verschiedene Zwecke, die jeweils spezifische Interaktionsformen und identitätsstiftende Codes bieten, die anderswo nicht vorhanden sind. Apps wie Snapchat, TikTok, Clubhouse etc. können Identitätsangebote machen, die ein Marktführer, der immer auch einem gesellschaftlichen Mainstream verpflichtet sein muss, nicht bieten kann.

Abgesehen davon gibt es die technischen Voraussetzungen für Cyberspace-Welten, die wir als Ideen aus literarischen Produkten wie „Tron“ oder „Matrix“ schon seit Jahrzehnten kennen, trotz aller technologischen Fortschritte noch nicht so wirklich, soweit ich das beurteilen kann.

Was bedeutet das für die deutsche Politik und die Demokratie?

Da wir die konkrete Form dieser Welten noch nicht kennen, wäre das sehr spekulativ – im Prinzip würden sich natürlich auch in einem solchen Metaverse demokratische und pluralistische Strukturen aufbauen lassen. Allerdings ist das wenig wahrscheinlich, es ist eher anzunehmen, dass die Probleme, die uns diese Plattformen heute schon verursachen, dort einfach reproduziert und evtl. noch verstärkt werden.

Genau deshalb müssen wir uns mit diesen grundsätzlichen Problemen so schnell wie möglich befassen: mit den monopolartigen Strukturen der Plattformwelt, der Undurchsichtigkeit der inhaltlichen Prozesse und den undemokratischen Organisationsstrukturen, die eine Bedrohung für Menschen- und Bürgerrechte darstellen können.

https://www.weizenbaum-institut.de/

Aufmacherbild / Quelle / Lizenz

https://pixabay.com/users/geralt-9301/
https://pixabay.com/illustrations/social-media-media-board-networking-1989152/

Pixabay License

Wohin mit dem Geld?

Das Thema Kapitalanlage ist komplexer denn je, doch es gibt auch Chancen am Beginn einer neuen Wirtschaftsära.

Seit dem Angriffskrieg Russlands gegen die Ukraine ist die Welt in Aufruhr. Nie dagewesene Sanktionen sollen die russische Wirtschaft zum Zusammenbruch führen, sorgen aber durch das wirtschaftliche Geflecht gegenseitiger Abhängigkeiten auch für Panik an den Märkten. Kurse purzeln, Preise steigen und Anleger haben es immer schwerer, einen kühlen Kopf zu bewahren. Die Frage, „Wohin mit dem Geld?“ scheint daher drängender als jemals zuvor.

Gold, als klassische Krisenwährung, erreichte bereits zu Beginn des Krieges ein neues Allzeithoch und gilt weiterhin als sicherer Hafen. Medial im Fokus stehen vor allem die Energieträger Öl und Gas, während andere Rohstoffe im Mainstream weniger diskutiert werden. Dabei ist dieser Markt besonders volatil. Am 8. März setzte die Londoner Metallbörse den Nickelhandel aus. Nachdem sich der Preis in der Vorwoche durch befürchtete Sanktionen mehr als vervierfachte und sich allein am 8. März nochmals verdoppelte, sah sich die Börse zu diesem Schritt gezwungen, um Ruhe in den Markt zu bringen. Zehn Prozent des weltweiten Nickelbedarfs kommen aus Russland und für 15 bis 20 Prozent des Nickel­angebots in Batteriequalität ist allein das russische Unternehmen Nornickel verantwortlich.

Die Fondsboutique Commodity Capital nimmt durch ihre Anlagephilosophie möglichst viel Risiko aus dem an sich volatilen Rohstoffsektor. „Als einfaches Beispiel kann hier sicherlich genannt werden, dass wir bereits seit Jahren politische Risiken minimieren“, führt Dana Kallasch aus. „So investieren wir weder in Afrika, noch in China oder Russland und auch in Südamerika haben wir aufgrund der politischen Entwicklungen unsere Positionen beispielsweise in Peru oder Chile auf ein Minimum reduziert.“ Eine besondere Rolle spielt für das Unternehmen auch das Thema Nachhaltigkeit. „Wir schauen uns in der Regel all unsere Kernpositionen vor Ort an und führen teilweise mehrmals site visits durch“, erläutert die Mitgründerin. Neben der Geologie und der Infrastruktur steht hierbei insbesondere auch die Beziehung der lokalen Bevölkerung zum Unternehmen für uns im Vordergrund.“ Schließlich ist ein gutes soziales Miteinander wichtig für den langfristigen Erfolg eines Unternehmens.


„Kaum sind Kryptowährungen im Mainstream angekommen, sind mit NFTs (Non-fungible Token) ganz neue Anlagemöglichkeiten im Krypto­kosmos entstanden.“


Am Rande notiert

Kryptowährungen
Bitcoin, Ethereum, IOTA, Litecoin, Ripple, Dash, Tether, Cardano, Monero, Dogecoin: Kryptowährungen bieten vielfältige Möglichkeiten weit über ihre Funktion als reine Zahlungsmittel hinaus. Welche Funktionen und Organisationen sich hinter den bekanntesten Token verbergen und warum das Proof-of-Stake-Verfahren eine echte Alternative zum energieintensiven Proof-of-Work ist, welches beispielsweise dem Bitcoin zugrunde liegt, erfahren Sie auf:

https://trendreport.de/digitales-geld/

In unserer vernetzten Welt geraten aber nicht nur physische, sondern immer häufiger auch digitale Güter in das Visier der Anleger. Eine Sonderrolle nehmen Kryptowährungen seit Beginn des Krieges ein. Denn während Russland durch Sanktionen weitgehend vom globalen Finanzsystem ausgeschlossen ist und der Rubel sich im freien Fall befindet, könnten Kryptowährungen die Lage im Land stabilisieren. Wo Zahlungsdienstleister wie Visa, Mastercard, American Express, Apple Pay, Google Pay und PayPal ihre Geschäftsbeziehungen gekappt haben, können die meisten Russen ihre Geldgeschäfte über Krypto-Börsen durchführen. Gesetzlich angeord­nete Sanktionen sorgen dafür, dass wenigstens einige Oligarchen keinen Zu­gang mehr zu ihren digitalen Devisen haben.

Lesen Sie den ausführlichen Beitrag von Dana Kallasch
Rohstoffinvestment mit Rendite und Sicherheit

Welche Auswirkungen eine Hyperinflation auf den Kryptomarkt haben könnte, zeigt ein Blick auf die jüngere Geschichte Venezuelas. Dash – so etwas wie eine schnellere Version des Bitcoins – wurde in kürzester Zeit zu einem der beliebtesten Zahlungsmittel im Land. Am 1. November 2017, am Vorabend der Wirtschaftskrise, war ein Dash noch 271,56 US-Dollar wert. Bis zum 20. Dezember 2017 wuchs der Wechselkurs auf 1550,85 US-Dollar an, was einem Wertzuwachs von 571 Prozent in weniger als zwei Monaten entspricht. Wird sich die Geschichte jetzt wiederholen oder verhindern weitere im Raum stehende Sanktionen eine solche Entwicklung?

Nahezu sicher scheint der Bullenmarkt bei der zweitgrößten Kryptowährung Ethereum. Nach Angaben der Ethereum Foundation soll im zweiten Halbjahr die Umstellung der Währung auf das Proof-of-Stake-Verfahren erfolgen. Anders als bei der bisher genutzten Proof-of-Work-Methode ist dann kein hoher Energieaufwand mehr nötig, um neue Coins zu kreieren und die Sicherheit der Blockchain zu gewährleisten. In Anbetracht der sich zuspitzenden Energiekrise und des Trends zur nachhaltigen Kapitalanlage dürfte der Ethereum-Kurs in die Höhe schießen.

Kaum sind Kryptowährungen im Mainstream angekommen, sind mit NFTs (Non-fungible Token) ganz neue Anlagemöglichkeiten im Krypto­kosmos entstanden. Die Token werden dabei verwendet, um das Eigentum an digitalen Vermögenswerten zu repräsentieren und können nur durch Kryptowährungen erworben werden. Betrug der durchschnittliche tägliche Gesamtumsatz des Marktes 2020 noch etwa 183 121 US-Dollar, stieg er bereits 2021 auf 28 Millionen an. Besonders begehrt waren dabei digitale Kunst­werke. Mike Winkelmann, der unter seinem Pseudonym Beeple besser bekannt ist, stieg mit einem Paukenschlag in die Top Drei der noch lebenden Künstler auf. Sein Werk „Everydays – The First 5000 Days“ versteigerte er als NFT bei Christie’s für einen Gegenwert von 69 Millionen US-Dollar.

NFTs bieten durch eingebaute Smart Contracts die Möglichkeit, dass die Künstler automatisch auch bei jedem Wiederverkauf des Werks am Gewinn beteiligt werden. Das macht NFTs auch für Spendenaktionen interessant, da die Organisationen, denen das Geld zugutekommt, so ebenfalls mehrfach pro­fitiert. Pussy-Riot-Mitglied Nadeschda Tolokonnikowa initiierte basierend auf dieser Idee eine NFT-Kollektion, durch dessen Erlöse bereits mehrere Millionen Dollar für ukrainische NGOs gesammelt werden konnten.

von Andreas Fuhrich
a.fuhrich@trendreport.de

Attacken durch die Lieferketten

Gastbeitrag von Ingo Schäfer, Director, Channel DACH & Eastern Europe bei Proofpoint

Einer der Trends in den Bereichen Industrie 4.0 und digitale Transformation ist die Integration von Lieferanten und Kunden in Produktions- und Administrationsprozesse. Diese Vernetzung verspricht deutliche Produktivitätsvorteile und zusätzliche Agilität für alle Beteiligten.
Auf diese Weise entsteht jedoch ein neuer Angriffsvektor, den sich Cyberkriminelle immer stärker zunutze machen: die Lieferkette. Das tatsächliche Ziel der Angreifer ist dabei immer häufiger nicht das ursprünglich attackierte Unternehmen, sondern dessen Kunden oder Lieferanten. Dieses Phänomen ist branchenübergreifend zu beobachten. Denn für den Erfolg der Kriminellen ist es bereits ausreichend, lediglich einen einzigen E-Mail-Account in einer weniger gut geschützten Firma zu kompromittieren und dort vielleicht nur eine legitime Identität zu übernehmen. Mittels dieses Accounts haben die Angreifer dann beste Chancen, dass Mitarbeiter im eigentlichen Zielunternehmen auf Betrugsversuche via E-Mail hereinfallen.
Häufig erfolgt nach der Kompromittierung zunächst nur ein vorsichtiges Erkunden der Umgebung und Prozesse, in die das Opfer eingebunden ist. Daher bleiben viele erfolgreiche Kompromittierungen auch lange unentdeckt. Diese lange Zeitspanne bis zur Entdeckung bietet den Kriminellen die Chance, über einen längeren Zeitraum Daten zu sammeln, sich in Ruhe in den Systemen einzunisten und die Möglichkeiten zur Monetarisierung des Angriffs vollständig auszuschöpfen.

Hohe Erfolgschance der Kriminellen

Attacken über die Lieferketten sind für die Kriminellen häufig von Erfolg gekrönt. Denn erhält ein Anwender eine E-Mail von einem legitimen Account eines Lieferanten mit einer Word-, Excel- oder PDF-Datei, wird er diese sicherlich weitaus weniger misstrauisch behandeln, als wenn dieselbe Mail mit derselben Datei von einem unbekannten Absender stammt.

Das Spektrum der späteren Angriffe kann vielfältig sein, angefangen von reinen Textnachrichten, um beispielsweise Zahlungen auf angeblich neue Bankverbindungen umzuleiten, bis hin zu Ransomware, die sich beispielsweise in einer Bestellbestätigung versteckt.
Wie real diese Bedrohung durch Angriffe in der Lieferkette ist, zeigte 2021 eine Untersuchung von Proofpoint. Dabei stellten die Experten des Cybersecurity-Spezialisten bei der Analyse von 3 000 Unternehmen fest, dass 98 Prozent von ihnen mit Cyberbedrohungen konfrontiert waren, die von der Domain eines ihrer Lieferanten stammten.

Das heißt, es reicht bei weitem nicht, nur die eigene Organisation durch technische Maßnahmen und regelmäßige, praxisorientierte Trainings auf aktuelle Bedrohungen vorzubereiten. Vielmehr müssen die Unternehmen weiterdenken und auch Lieferanten und Kunden in ihren Sicherheitsstrategien berücksichtigen.


3 Fragen an…

…Ingo Schäfer, Director, Channel DACH & Eastern Europe bei Proofpoint

Herr Heuer, welche aktuellen Erkenntnisse förderte Ihr State of The Phish-Bericht 2022 zu Tage?
Unser Report zeigt, dass Cyberkriminelle 2021 nicht nur aktiver waren als im Jahr zuvor, sie waren auch erfolgreicher. Weltweit gaben 83 Prozent der Umfrageteilnehmer an, dass ihr Unternehmen im Jahr 2021 mindestens einen erfolgreichen Phishing-Angriff per E-Mail erlebt hat – ein deutlicher Anstieg um 46 Prozent gegenüber dem Vorjahreszeitraum.
BEC-Angriffe (Business Email Compromise, auch CEO-Betrug genannt) verzeichneten ebenfalls einen starken Anstieg: 77 Prozent der Unternehmen waren weltweit 2021 mit derlei Angriffen konfrontiert. Dies entspricht einem Anstieg von 18 Prozent gegenüber 2020.
In Deutschland gaben 80 Prozent der Befragten an, dass ihr Unternehmen 2021 mindestens einen erfolgreichen Phishing-Angriff per E-Mail erlebt hat. Im Jahr zuvor sagten dies lediglich 47 Prozent. Dieser Anstieg liefert einen erneuten Beleg für die wachsende Bedeutung von E-Mail-Sicherheit und die Notwendigkeit, sich beim Thema Cybersecurity auf den Menschen als Ziel der Angriffe zu konzentrieren.

Welche Hilfen und Tools sollten Führungskräfte Ihren Kollegen / innen mit an die Hand geben?
Ein mehrschichtiger Sicherheitsansatz ist die beste Strategie, um insbesondere gegenüber Phishing-E-Mails gewappnet zu sein. Dabei besteht der wichtigste Grundsatz darin, den Menschen in den Mittelpunkt dieser Sicherheitsstrategie zu stellen und Technologie, Prozesse und Schulungen effektiv zu kombinieren. In diesem Zusammenhang ist es wichtig herauszufinden, welche Benutzer am häufigsten attackiert werden und welche von ihnen am ehesten auf Social Engineering hereinfallen. Wenn man weiß, welcher Mitarbeiter mit welchen Bedrohungen angegriffen wird, können die Schulungsmaßnahmen entsprechend zugeschnitten werden.
Neben Security-Awareness-Trainings gehört auch der Schutz am E-Mail-Gateway, in der Cloud und am Endgerät sowie die Implementierung von E-Mail-Autorisierungsprotokollen wie DMARC und SPF zu einem umfassenden und mehrschichtigen Sicherheitsansatz.

Warum sollten Unternehmen bei Ihren Cybersicherheitsstrategien zuerst bei Ihren Mitarbeitenden ansetzen?
Mehr als 90 Prozent aller erfolgreichen Cyberangriffe erfordern eine menschliche Interaktion. Daher ist die Sensibilisierung der Mitarbeiter für Cyberbedrohungen, mit denen sie in ihrem Arbeitsalltag konfrontiert werden können, ein entscheidender Faktor. Cyberkriminelle haben immer wieder unter Beweis gestellt, dass sie auf Menschen und nicht auf die technische Infrastruktur abzielen. Hierzu nutzen sie perfide Social-Engineering-Techniken, um sensible Unternehmensdaten zu stehlen, Accounts zu übernehmen und vieles mehr.
Schulungen in Sachen Cybersicherheit sind zwar wichtig, um ein Bewusstsein zu schaffen, aber das ist nur ein erster Schritt. Langfristig ist der Schlüssel zur Minimierung des Risikos eine Änderung des Benutzerverhaltens in Bezug auf Cybersecurity sowie die Etablierung einer Sicherheitskultur im Unternehmen. Um diese zu schaffen, ist es wichtig, alle Mitarbeiter miteinzubeziehen. Denn nur wenn sich alle ihrer Verantwortung in dieser Hinsicht bewusst sind, kann ein bestmöglicher Schutz gewährleistet werden.

Weitere Informationen unter:
www.proofpoint.de


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Lieferketten und Menschenrechte

Das neue Lieferkettensorgfaltspflichtengesetz (LkSG) ruft die Unternehmen auf den Plan. Was müssen sie tun, um den menschenrechtlichen Sorgfaltspflichten innerhalb ihrer Lieferketten zu genügen? Matthias Schneider und Marc Osswald von der apsolut Group räumen mit Missverständnissen auf.


Wie ein Damoklesschwert scheint der 1. Januar 2023 – der Tag des Inkrafttretens des LkSG – über den Unternehmen in Deutschland zu schweben. Doch haben sie noch ein wenig Zeit, um sich auf die neuen Anforderungen einzustellen, wie Matthias Schneider, Principal beim SAP Gold Partner apsolut, betont: „Die jährlichen Unternehmensberichte zur LkSG-Umsetzung müssen dem Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA) erst spätestens im April 2024 vorgelegt werden.“

Unternehmen sollten handeln

Unternehmen sollten jetzt handeln und die verbleibende Zeit gut nutzen, um die organisatorischen und technologischen Weichen für ein wirksames Lieferantenrisikomanagement zu stellen. Ein erster Schritt liegt in der Schaffung von Transparenz über die Menschenrechtskonformität der Lieferanten und Vorlieferanten: ob Schutz vor Kinder- und Zwangsarbeit, Antikorruptionsrichtlinien oder Zahlung von Mindestlohn, aber auch ausgewählte Umweltaspekte.   

„Zur Vereinfachung der Informationssrecherchen können spezialisierte Dienstleister hinzugezogen werden, die neben Fragebögen zur Selbstauskunft der Lieferanten auf Adverse-Media-Suchen setzen“, erläutert Marc Osswald, Partner bei apsolut. „Dabei werden täglich Milliarden Online-Quellen nach Nachrichten über die Lieferanten durchforstet und die entsprechenden Risikoparameter in einer zentralen Plattform zusammengeführt.“ Ergänzend kann ein Unternehmen individuelle Lieferantenfragebögen nutzen.    


„…die Reports müssen alle Maßnahmen enthalten, die sie zur Beseitigung von Menschenrechtsrisiken in ihren Lieferketten ergriffen haben.“   

Matthias Schneider

Spezielle Lösung ermittelt Risiken

Dreh- und Angelpunkt für eine erfolgreiche LkSG-Umsetzung ist eine unternehmenseigene Risikomanagement-Lösung, in die sämtliche menschenrechtsrelevanten Informationen über den Lieferantenstamm einfließen. Das Tool ermittelt etwaige Risiken und informiert die Anwender über kritische Zulieferer. Mit diesen Geschäftspartnern sollte das Unternehmen direkt in kollaborative Verhandlungen treten, um die angezeigten Missstände möglichst effektiv zu beseitigen.

Zudem bietet die Lösung umfangreiche Reporting-Funktionen, mit denen die vorgeschriebenen Jahresberichte auf Knopfdruck erstellt und an das BAFA übermittelt werden können. „Mit diesen Berichten dokumentieren die Unternehmen, dass sie den gesetzlichen Sorgfaltspflichten genügen“, erklärt Matthias Schneider. „So müssen die Reports alle Maßnahmen enthalten, die sie zur Beseitigung von Menschenrechtsrisiken in ihren Lieferketten ergriffen haben.“   

SAP-Kunden können wählen

Im SAP-Umfeld bieten sich mehrere Lösungen für ein Lieferantenrisikomanagement nach LkSG-Vorschrift an. Da ist zum einen die Beschaffungsplattform SAP Ariba, die vor allem im gehobenen Mittelstand und in Großkonzernen im Einsatz ist. Ariba enthält bereits die meisten Funktionen, um die notwendigen LkSG-Prozesse abzubilden, und kann entsprechend ausgeprägt werden. Für SAP-Kunden, die kein Ariba, aber andere SAP-basierte Einkaufslösungen nutzen, empfiehlt sich ein Add-on, das in enger Zusammenarbeit von SAP und apsolut entsteht. Diese neue smarte Lösung lässt sich leicht in die vorhandene Systemumgebung integrieren und ermöglicht auch kleineren SAP-Kunden ein verantwortliches Lieferkettenmanagement. Sie soll sich im ersten Schritt ausschließlich auf die Belange des LkSG fokussieren.


„Gerade die jüngere Generation von Bewerberinnen und Bewerbern entscheidet sich bei ihrer Jobauswahl für Arbeitgeber, die sich einer sozialen und ökologischen Unternehmensführung verschrieben haben.“

Marc Osswald

Erfahrener Beratungspartner 

Als Spezialist für die SAP-basierte Beschaffung kombiniert apsolut langjährige Projekterfahrung mit Technologie- und Prozess-Know-how, um Unternehmen gezielt bei der LkSG-Umsetzung zu unterstützen. „Dies reicht von einer initialen Risikoanalyse auf Warengruppen- und Lieferantenebene bis hin zur Ableitung konkreter Risikomanagement-Maßnahmen“, so Marc Osswald. „Zudem beraten und begleiten wir die Kunden in allen Phasen des Implementierungsprojekts und sorgen auch für eine nahtlose Einbindung möglicher Drittanbieter.“ Auch Unternehmen ohne dezidierte SAP-Strategie werden – sowohl organisatorisch als auch technologisch – fit für die Umsetzung des neuen Lieferkettengesetzes gemacht.

Nachgehakt bei unseren Experten

Matthias Schneider, Principal beim SAP Gold Partner apsolut

Herr Schneider, zum Thema menschenrechtskonforme Produktionsverfahren und Arbeitsbedingungen scheint ja gerade in den westlichen Ländern ein breiter Konsens zu bestehen. Was bringt das LkSG in diesem Zusammenhang?

„Das neue Gesetz hat nur verschriftlicht, was in den Köpfen vieler Menschen ohnehin schon länger existiert. Das reicht von den Vorstandsetagen und Mitarbeitern in den Unternehmen bis hin zu den Konsumenten. Die meisten haben konkrete Werte und Vorstellungen, welche Arbeitsbedingungen global herrschen sollten, um die Menschenrechte nicht zu verletzen.

Viele Unternehmen sind diesem Trend gefolgt und haben bereits entsprechende Richtlinien in ihren Lieferantenkontrakten festgelegt. Möglichst viel Qualität für möglichst wenig Geld zu erhalten – dieses klassische Einkaufsparadigma gehört immer mehr der Vergangenheit an. Stattdessen versuchen die Unternehmen, mit ihren Lieferanten langfristige Partnerschaften aufzubauen und über Netzwerke zu kollaborieren.

Das LkSG bietet ihnen nun eine zusätzliche Planungssicherheit. Es schafft einen verlässlichen Rahmen, welche Risikoparameter in der Zusammenarbeit mit den Lieferanten unverzichtbar sind und vertraglich vereinbart werden müssen.“

Können Sie uns Näheres über die Risikoparameter sagen, die für die Einhaltung der Sorgfaltspflichten eines Unternehmens relevant sind?

„Die Sorgfaltspflichten beziehen sich auf die weltweit anerkannten Menschenrechte, zu denen der Schutz vor Kinderarbeit, Diskriminierung und Zwangsarbeit, die Antikorruptionsrichtlinien, Vereinigungs- und Koalitionsfreiheit, die Zahlung angemessener Löhne sowie einzelne Umweltaspekte zählen.

Viele Lieferanten sind in dieser Hinsicht schon tätig geworden und können mit  entsprechenden Zertifikaten nachweisen, dass ihre Produktionsverfahren und Arbeitsbedingungen menschenrechts- und umweltschutzkonform sind. Ein Beispiel dafür ist der internationale Zertifizierungsstandard SA 8000, der sozial akzeptable Praktiken am Arbeitsplatz bescheinigt. Verschiedene ISO-Zertifizierungen decken unter anderem die Themen Antikorruptionsrichtlinien, Mindestlöhne, Gesundheit und Sicherheit ab.

Verfügt ein Lieferant nicht über solche Zertifizierungen, muss er dem einkaufenden Unternehmen durch Selbstauskunft oder Audits bestätigen, dass er gemäß bestimmten Konventionen handelt.“ 

Marc Osswald, Partner bei apsolut

Herr Osswald, welche Unternehmen sind von dem neuen Lieferkettensorgfaltspflichtengesetz (LkSG) betroffen?

„Das neue Gesetz gilt für alle Unternehmen mit Sitz oder Zweigniederlassung in Deutschland und mindestens 3.000 Mitarbeitern im Inland. Ab 1. Januar 2024 findet es auch für Unternehmen ab 1.000 Mitarbeitern Anwendung. Die EU-weite Richtlinie wird hier sogar noch weiter gehen und auch Unternehmen ab 500 oder 250 Mitarbeiter (je nach Branche) einbeziehen.

Allerdings unterscheiden sich die einzelnen Branchen zum Teil gewaltig, was den erforderlichen Aufwand für die LkSG-Umsetzung betrifft. Das hängt von den jeweiligen Marktgegebenheiten und der Wettbewerbssituation ab. Da ist zum Beispiel die Automobilindustrie, die sich schon früh mit dem Thema Digitalisierung im Einkauf und Lieferantenmanagement-Systemen auseinandersetzen musste, um der Konkurrenz gewachsen zu sein.

Diese Branche ist für die neuen Anforderungen durch das LkSG weitaus besser gerüstet als etwa die Finanzwirtschaft, die einen historischen Rückstand in puncto Digitalisierung aufweist. Viele Banken und Versicherungen müssen erst einmal die grundlegende IT-Infrastruktur bereitstellen, um die neuen Prozesse und Funktionen abbilden zu können.“  

Mit welchen Nachteilen und Strafen müssen einkaufende Unternehmen bei Verstößen gegen das LkSG rechnen?

„Bei Zuwiderhandlung können Unternehmen mit einem weltweiten Jahresumsatz über 400 Millionen Euro mit einem Bußgeld von bis zu zwei Prozent des Umsatzes belegt werden. Als weitere Möglichkeit sieht das Gesetz vor, Unternehmen, die die LkSG-Vorgaben nicht angemessen umsetzen, für bis zu drei Jahre von öffentlichen Aufträgen auszuschließen.   

Was sich finanziell allerdings noch schlimmer auswirken kann, ist der Reputationsschaden, der mit publik gewordenen Verstößen einhergeht. So wenden sich die Kunden zunehmend von Unternehmen ab, die mit sozial unverantwortlich handelnden Zulieferern zusammenarbeiten.

Darüber hinaus leidet die Arbeitgebermarke des Unternehmens, was sich bei steigendem Fachkräftemangel als starke Erfolgsbremse auswirken kann. Gerade die jüngere Generation von Bewerberinnen und Bewerbern entscheidet sich bei ihrer Jobauswahl für Arbeitgeber, die sich einer sozialen und ökologischen Unternehmensführung verschrieben haben.“  

http://www.ap-solut.com/lksg

Aufmacherbild / Quelle / Lizenz
Photo by oto von Lan Johnson auf Unsplash

Ganz einfach verschlüsseln!

Jürgen Vog­ler, Geschäftsführer der procilon GmbH, veranschaulicht unseren Lesern, wie mithilfe von DTM-Lösungen und Cloud-Verschlüsselung die Echtheit von Daten vertraulich garantiert werden kann.

Herr Vogler, was ist DTM?

Einfach erklärt, beschreibt das Digital Transaction Management (DTM) die Digitalisierung von Dokumentenprozessen. Hinter dieser Aussage verbirgt sich jedoch mehr, als einfach Papierprozesse in die digitale Welt zu übertragen. DTM eröffnet vielfältige technologische Möglichkeiten, von der Erzeugung elektronischer Signaturen bis hin zur sicheren Automatisierung der Dokumentenverarbeitung.


„Dank digitaler Dokumente und elektronischer Signaturen reduziert sich die Durchlaufzeit für Unterschriftsprozesse jeglicher Art deutlich.“

Jürgen Vogler

Mit der proTECTr Cloud Plattform können Dokumente ohne großen Aufwand signiert und Dateien kostenlos verschlüsselt werden.


Welchen Nutzen erzeugt DTM?

Der Nutzen von DTM ergibt sich aus den Hauptfaktoren Compliance und Geschwindigkeit. Dank digitaler Dokumente und elektronischer Signaturen reduziert sich die Durchlaufzeit für Unterschriftsprozesse jeglicher Art deutlich. Dabei ist es in der digitalen Welt immens wichtig, auch die jeweils notwendige rechtliche Verbindlichkeit herzustellen. Zusätzlich kommt bei verteilten Arbeitswelten der Aspekt der vertraulichen Kommunikation hinzu. Sind diese Faktoren vorhanden, spart dies viel Zeit und Geld.

Wie kann man starten?

Einen schnellen Weg zum Erfolg verspricht die Digitalisierung einfacher Papierprozesse. Hierfür stehen zwei Modelle zur Verfügung. So kann auf der einen Seite die Integration von DTM mit Content-Management-Systemen der rich­tige Weg sein. Auf der anderen Seite gehört die Nutzung verschiedener Cloud-Services zu den wichtigsten Aspekten des DTM. Beispielsweise können mit der Web-Anwendung proTECTr.com Dateien in einem Arbeitsgang elektronisch signiert, verschlüsselt und anschließend lokal gespeichert oder via E-Mail versendet werden. Die DTM-Lösung ist in kürzester Zeit ohne aufwendige Implementierung nutzbar.

www.protectr.com

New Work im Next Normal

Gerade in Zeiten der Krise zeigt sich, welchen Stellenwert eine offene und digitale Unternehmens­kultur einnimmt

Noch nie war die Identifikation mit dem Unternehmen so wichtig wie heute, gerade im Hinblick auf Vertrauensarbeitszeit und Remote Work. Viele Unternehmen erkennen jetzt, dass die Digitalisierung die lernende Organisation wirklich möglich macht. Dies zeigt sich besonders im Umgang mit neuen Kommunikationstechnologien und -tools und der Art und Weise wie wir diese nutzen. Aber wie nachhaltig verändert Corona die Organisation und Struktur von Unternehmen? Mehr Zentralisierung oder mehr Dezentralisierung und welche Art von Führung wird dominieren?

Viele Unternehmen wagen sich derzeit auf neue Wege. Sie experimentieren mit ihren Organisations- und Führungsstrukturen und gehen dabei viel weiter als in der Vergangenheit. Eines ändert sich jedoch nicht – die Wertschätzung für Mitarbeitende und das ganz wichtige Vertrauen in die eigenen Leute.

Diese beiden Faktoren sind immer noch die Grundlagen für eine stabile und nachhaltige Organisation. Und genau das sind die Pfeiler, auf denen heute agile Methoden aufsetzen und Unternehmen innovativer und flexibler machen. Konzerne probieren sich just weltweit an der Gestaltung neuer Arbeitswelten und realisieren die Vertrauensarbeitszeit und den Vertrauensarbeitsplatz. Die Mitarbeiter können arbeiten, wann und wo sie wollen. Durch die digitale Transformation ändert sich unsere Kommunikation und neue Fähigkeiten sind gefragt. Selbstbestimmung und Eigenverantwortung der Mitarbeitenden werden immer wichtiger. Aber Kollaborationstools und Smartphones kennen keinen Feierabend mehr und die Arbeit gehört immer mehr zum Privatleben und umgekehrt. Die Vermischung von Arbeit und Privatleben wird eindeutig noch zunehmen.

„Neben neuen Tech­nologien werden wir uns vor allem auf andere Arbeitsbedingungen ein­stellen müssen.“

betont Prof. Deml
Prof. Dr.-Ing. Barbara Deml leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT
Prof. Dr.-Ing. Barbara Deml leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT

Viele Arbeitnehmer sind heute schon mit dem Tablet oder Computer am Wochenende und auch abends für die Firma am Start. Die Aufgabenprofile wandeln sich durch künstliche Intelligenz und die Automatisierung im Büro. Smarte Assistenten helfen uns, stupides Arbeiten zu vermeiden. Mensch und Maschine sollten sich ergänzen.

Frau Prof. Deml, die den Bereich „Arbeit und Menschen“ erforscht, beschreibt das so: „Neben neuen Technologien werden wir uns vor allem auf andere Arbeitsbedingungen einstellen müssen: Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war.“ Die Professorin leitet das Institut für Arbeitswissenschaft und Betriebsorganisation am KIT und fährt fort:

„Für Unternehmen bedeutet das, dass sie flexibler und schlanker werden müssen. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören. Sie werden zum Teil ihre Dienstleistung auf Plattformen anbieten und zeitlich befristet für den ein oder anderen Auftraggeber tätig sein. Das kann unsere Arbeitszeiten massiv beeinflussen, unser Verständnis von Unternehmenskultur obsolet machen, und es verlangt von Führungskräften ganz andere Managementkompetenzen. Diese Punkte müssen auch gesellschaftspolitisch adressiert werden und wir müssen zum Beispiel Arbeitsschutz neu denken.“

Die digitale Transformation verändert unsere Arbeit nicht nur im Büro, sondern auch im Produktionsumfeld.

Agilität am Arbeitsplatz und an der Maschine sind gefragt wie nie. Aber warum sollten Unternehmen in der Produktion auch auf New Work setzen und warum ist Agilität auch im Produktionsumfeld so wichtig? Im Gespräch mit unserer Redaktion erklärt uns Benjamin Brockmann von Operations1: „Die Umsetzung agiler Arbeitsweisen ist für viele produzierende Unternehmen eine Herausforderung. Unternehmen kämpfen heute immer noch mit Datensilos und Systembrüchen und arbeiten teilweise noch papierbasiert.“ Laut Benjamin Brockmann ist die Konsequenz daraus, eine geringe Transparenz sowie eine aufwendige Anpassung von Prozessen. Unternehmen laufen, nach dem CEO, somit Gefahr abgehängt zu werden, wenn sie sich nicht kontinuierlich neu erfinden würden. „Das Potenzial von agilen Arbeitsweisen wurde bereits erkannt und immer mehr Unternehmen testen neue Technologien, anstelle von langwierig geplanten Transformationsprojekten. Agilität ist eine grundsätzliche Frage des Mindsets sowie der Unternehmenskultur und lässt sich nicht über Nacht erreichen.“, fügt Brockmann hinzu.

Das Zusammenspiel von Big Data, künstlicher Intelligenz und Vernetzung bewirkt, dass maschinelle Prozesse in das menschliche Hoheitsgebiet kognitiver Aufgaben vordringen.

Das Zusammenspiel von Big Data, künstlicher Intelligenz und Vernetzung bewirkt, dass maschinelle Prozesse in das menschliche Hoheitsgebiet kognitiver Aufgaben vordringen. Warum Zukunftsangst dennoch nicht nötig ist und welche neuen Anforderungen an Mitarbeitende entstehen, berichtet Lorenz Berg, von Aon Assess­ment Solutions. „Die Fähigkeit, sich an neue Umgebungen anzupassen, wird dabei auf dem Arbeitsmarkt der Zukunft immer wichtiger.“ Der Grund für ihn ist dabei vor allem die Geschwindigkeit des technologischen Fortschritts, wodurch immer mehr Arbeit durch Maschinen verrichtet wird und berufliche Rollen nicht länger ein ganzes Leben, sondern nur noch wenige Jahre besetzt werden. „Was durch Studien belegt ist“, so führt Berg aus, „ist tatsächlich, dass die Halbwertszeit von Wissen und Skills durch die Beschleunigung massiv abnimmt.“ Statt Wissen, Skills und Bildungsbiografie sind „Metakompetenzen wie Neugier, Lernfähigkeit und Agilität also Anpassungsfähigkeit wichtiger. Kompetenzen, die in einem modernen Assessment – in Präsenz oder virtuell – überprüft werden können.“

Zukunftsfähigkeit für produzierende Unternehmen verbessern Metakompetenzen für die digitale Welt
Lesen Sie den ausführlichen Beitrag von Benjamin Brockmann. Lesen Sie den ausführlichen Beitrag von Lorenz Berg.

New Work ist ein älteres Konzept, welches von Frithjof Bergmann eingeführt wurde. Das Maß der Arbeit und die Sinnerfüllung in der Tätigkeit stehen dabei im Fokus. Das „Wie der Arbeit“ spielte dabei zwar auch immer eine Rolle, rückt aber beim Begriff „Smart Work“ deutlicher in den Vordergrund. Gerade jetzt in der Corona-Krise geht es viel stärker um das „Wie“.

Wie wollen wir in Zukunft arbeiten? Welche Arbeitskonzepte setzen sich in einer post-corona Zeit durch? Sind es Hybridformate? Ist es doch wieder ein „Return to Workplace?“ Welche Formen der Zusammenarbeit werden sich durchsetzen, wenn wir mehr Meetings im virtuellen Raum haben? Wie müssen sich Führungskonzepte weiterentwickeln?

Stichwort: Führung aus Distanz oder virtuelle Führung. Wie sehen die Bürokonzepte der Zukunft aus, wenn man davon ausgeht, dass Menschen nur noch 50 Prozent ihrer Arbeitszeit im Büro sind und das Konzept des einzelnen Büros oder des festgelegten Schreibtisches obsolet wird? Wir brauchen mehr kollaborative Spaces, also Flächen, wo Menschen spontan oder geplant zusammenkommen können, um an gemeinsamen Ideen und Projekten zu arbeiten.

Mit RPA (Robotic-Prozess-Automa­tion) erreichen wir zum Beispiel, dass sich Maschinen vernetzen und durch diese Vernetzung zusammen mit den Entwicklungen in den Bereichen Datenanalyse, Mustererkennung und künstlicher Intelligenz nun in der Lage sind, bisher typischerweise von Menschen ausgeführte, also kognitive, Aufgaben zu übernehmen. Das hat massive Folgen für die Arbeit, und zwar nicht nur für manuelle Tätigkeiten. Die Dystopen sagen, menschliche Arbeit wird durch Maschinen ersetzt.

Wir glauben, dass es mehr Zeit für neue Aufgaben geben wird, die entstehen werden. Neue Rollen entstehen dabei viel schneller als das früher der Fall war. Die Geschwindigkeit des technologischen Fortschritts hat einfach massiv zugenommen. Früher hielt eine berufsbezogene Rolle ein ganzes Leben, zukünftig vielleicht nur noch zwei oder drei Jahre. Abschließend merkte Lorenz Berg noch an: „Man muss also immer schon überlegen, was ist der nächste Schritt und wie komme ich dahin? Wie muss ich mich weiterqualifizieren für meine nächste Rolle oder die Veränderungen in meinem jetzigen Job, um employable zu bleiben. Die Themen Re- und Up-skilling sowie lebenslanges Lernen werden dabei immer wichtiger.“

von Bernhard Haselbauer

Rendite und Sicherheit bei Rohstoffinvestment

Wie sich Rendite und geringes Risiko im Bereich der Minenaktien verbinden lassen, verrät Dana Kallasch, Mitgründerin von Commodity Capital AG im Hintergrundgespräch mit der TREND REPORT Redaktion.


Frau Kallasch, Ihre Goldminenaktienfonds sind regelmäßig bei Awards auf den vorderen Rängen zu finden. Was steckt hinter Ihrer Anlagestrategie- und Philosophie?

Unsere Philosophie basiert zum Einen auf dem Minenlebenszyklus von Minenunternehmen und zum anderen darauf das Verhältnis von Risiko zu Rendite genau zu bewerten und entsprechend zu versuchen möglichst viel Risiko aus dem an sich volatilen Rohstoffsektor zu nehmen. Als einfaches Beispiel kann hier sicherlich genannt werden, dass wir bereits seit Jahren politische Risiken minimieren.

So investieren wir weder in Afrika, noch in China oder Russland und auch in Südamerika haben wir aufgrund der politischen Entwicklungen unsere Positionen beispielsweise in Peru oder Chile auf ein Minimum reduziert.

Der wichtigste Punkt um Risiken zu minimieren und gleichzeitig seine Rendite zu maximieren ist ein sehr einfacher. Wir setzen auf ausgezeichnetes Management mit einem langen Track record, das wir persönlich meist seit vielen Jahren kennen und einschätzen können.

Diese Unternehmen besitzen nicht nur ein geringes Risiko, sondern auch weiterhin enorme Chancen, da die großen Major händeringend nach eben jenen Juniorunternehmen suchen, welche in politisch stabilen Regionen über Jahre erfolgreich arbeiten können. Die Major selbst meiden wir größtenteils, da sie in erster Linie ihre Ressourcen verbrauchen und bei Akquisitionen in der Vergangenheit stets ein schlechtes Timing hatten und zu viel für die Akquisitionen bezahlt haben.

Wir sehen unseren Mehrwert als Portfoliomanager auch in erster Linie darin in unseren Investoren unbekannte hoch qualitative Unternehmen zu investieren, als ihnen ein weiteres Mal Barrick oder Newmont ins Portfolio zu legen.   

Welche Werte sind Ihnen dabei wichtig und welche Rolle spielt das Thema Nachhaltigkeit bei Rohstoffinvestments?

Das Thema Nachhaltigkeit spielt bei uns eine entscheidende Rolle und das nicht erst seit einigen Jahren, oder weil es Investoren gerne hören wollen. Bereits mit Auflage der Fonds haben wir uns darum bemüht die Vernunft bei unseren Entscheidungen walten zu lassen. Wir schauen uns in der Regel all unsere Kernpositionen vor Ort an und führen teilweise mehrmals site visits vor Ort durch. Auch wenn uns dies aufgrund von Corona in den vergangenen beiden Jahren kaum möglich war, sehe ich dies als  essenziell an.


„Der wichtigste Punkt um Risiken zu minimieren und gleichzeitig seine Rendite zu maximieren ist ein sehr einfacher. Wir setzen auf ausgezeichnetes Management mit einem langen Track record, das wir persönlich meist seit vielen Jahren kennen und einschätzen können.“


Neben der Geologie oder der Infrastruktur steht hierbei insbesondere auch die Beziehung der lokalen Bevölkerung zum Unternehmen im Vordergrund für uns. Erstens ist die lokale Bevölkerung die erste, die Probleme oder Missstände erkennt und zweitens ist es letztendlich die Beziehung zur lokalen Bevölkerung welche langfristig einen erheblichen Anteil am langfristigen Erfolg eines Minenprojektes hat. Sie müssen sich vorstellen, dass alle Kosten für ein neues Minenprojekt anfallen, bevor die erste Unze aus dem Boden gefördert werden kann.

Anschließend allerdings erwirtschaftet die Mine über viele Jahre bzw. Jahrzehnte Gewinne. Der Reibungslose Ablauf über viel Jahre ist also ein entscheidender Renditefaktor und wird in unseren Augen viel zu wenig beachtet. Für uns ist Einbeziehung der lokalen Bevölkerung allerdings ein entscheidendes Kriterium für eine Investitionsentscheidung. Und hier geht es uns nicht darum, dass das Unternehmen eine Schule oder einen Fußballplatz bauen lässt, sondern in erster  Linie darum, wie die Kommunikation zur lokalen Bevölkerung ist und dass dieser entsprechend Respekt entgegengebracht wird und man sich derer Sorgen annimmt.

Und ich kann aus meiner bisherigen Erfahrung sagen, dass unter diesen Umständen die lokale Bevölkerung immer pro Mining ist, da Mining stabile, gut bezahlte Jobs mit sich bringt und die Infrastruktur um Jahrzehnte in meist strukturschwachen Regionen voranbringt. Und die typischen Umweltproblematiken aus den 80ern oder 90ers sind in Nordamerika oder Australien sowieso heutzutage nicht mehr vorstellbar. Ein weiterer Grund für uns mit Investitionen in Afrika oder anderen Ländern sehr vorsichtig zu sein, da die Regularien sich doch sehr deutlich unterscheiden.    


Warum könnte 2022 das Jahr für die Edelmetallmärkte werden

An sich hätte man ja erwarten können, dass bereits 2021 das Jahr für Gold hätte sein sollen. Steigende Inflationsraten, eine weiter ausufernde Überflutung der Märkte mit Geld durch die Notenbanken und ein weiterhin negativer Realzins. In unseren Augen gab es 3 Gründe dafür, dass die Goldhausse nochnicht eingetreten, bzw. noch etwas verschoben ist. Erstens wurde von Seiten der Notenbanken sehr lange die Karte gespielt, dass die Inflation nur vorrübergehend sei und man sich keine Sorgen machen solle.

Dass die Inflation ein Thema sein wird, welches uns noch sehr lange begleiten wird, setzt sich erst langsam durch und die Notenbanken rudern so langsam wie irgendwie möglich zurück. Sollte die Inflation sich in den kommenden Monaten nicht wie von den Notenbanken erwartet wieder abflachen dürfte dies zu einem deutlichen Nachfrageanstieg nach Gold führen. Zweitens hat sicherlich auch der Erfolgszug von Bitcoin einen gewissen Anteil an Mittelzuflüssen insbesondere von jüngeren Investoren angezogen, welcher somit Gold enthalten bliebt. Und als letzten Punkt war es sicherlich die allgemeine „risk on“ Mentalität an der Börse, welche auf den Goldpreis drückte.

Warum sollen Investoren in Gold investieren, wenn sie doch mit risikoreicheren Anlagen wie Technologieaktien oder Bitcoin massive Gewinne erwirtschaften können. Wir erwarten, dass alle drei negativen Einflussfaktoren aus 2021 sich umkehren werden in positive Einflussfaktoren für Gold in 2022 oder zumindest keinen massiven negativen Einfluss mehr auf Gold haben werden wie noch im vergangenen Jahr. Und zu allerletzt muss angeführt werden, dass der Goldpreis selbst auf dem aktuellen Niveau für historisch einmalige Gewinne bei den Minenwerten sorgt. Die Minen befinden sich bewertungstechnisch auf einem Krisenniveau und das trotz historisch einmaliger Gewinne. Wir sehen daher selbst bei einem lediglich stabilen Goldpreis um 1800 USD je Unze erhebliches Potential bei den Minenaktien.

Auf was müssen sich Investoren und Anleger in den nächsten Monaten einstellen?

Wir glauben, dass die Märkte in den kommenden Monaten äußerst volatil sein werden. Die Bewertungen sind an vielen Stellen historisch extrem hoch und eine deutliche Korrektur könnte sicherlich niemanden verwundern. Dabei spielt es aktuell kaum eine Rolle ob sie sich nun Aktien oder Anleihen oder den Immobiliensektor  heraussuchen. Gemessen an historischen Kennzahlen sind alle Segmente sehr teuer – mit einer Ausnahme. Dem Rohstoffsektor und hier insbesondere Gold und Silber. In der Vergangenheit war sehr oft zu beobachten, dass insbesondere Gold im Vorfeld einer Zinswende nachgibt, danach allerdings mit der ersten Zinserhöhung den Turnaround einleitet und in den anschließenden 12 Monaten deutlich zulegen kann. Wir erwarten eine erste Zinserhöhung der amerikanischen Notenbank im März und sehen daher auch den März als Wendepunkt für den Edelmetallsektor. Die Entwicklung der Minenwerte sehen wir ebenfalls ab März positiv, allerdings muss hier immer noch in Betracht gezogen werden, dass sollte es zu einer Korrektur an den internationalen Märkten kommen, auch die Minenaktien in einem ersten Schritt immer zu den Verlieren gehören. Meist werden in diesen Situationen Gelder über alle Sektoren hinweg abgezogen und es dauert ein paar Wochen, ehe sich der Sturm gelegt hat und die Minenwerte anschließend die Schere zu Gold wieder schließen.


Was raten Sie Anlegern und Investoren?

Ich rate Anlegern zu diversifizieren und zwar über verschiedene Sektoren hinweg. Aus antizyklischer Sicht sollte man sich hierbei dann auch den Rohstoffsektor etwas genauer anschauen. Die Gewinne der Unternehmen sind auf Rekordlevel, die Produktion geht dennoch weltweit zurück, da es kaum Neuentdeckungen gibt und die Bewertungen der Aktien sind vergleichsweise extrem günstig. Im aktuellen Marktumfeld mit hohen Inflationsraten, einer bevorstehenden Zinswende, dem Konflikt zwischen der Ukraine und Russland, welcher einen zusätzlichen Marktschock auslösen könnte, könnte aus dem nichtbeachteten schwarzen Entlein „Gold“ in 2022 der weiße Schwan werden und in unseren Augen sollte jeder Anleger eine kleine Portion Gold und Minenaktien im Portfolio besitzen. Innerhalb des Minensektors setzen wir auch in diesem Jahr wieder ausschließlich auf politisch stabile Länder, Juniorunternehmen mit exzellenten Managementteams und schauen uns die Entwicklung der Kosten genau an, um sciherzustellen, dass die Gewinne auch in diesem Jahr wieder das Niveau von 2021 erreichen können.

www.commodity-capital.com

Aufmacherbild / Quelle / Lizenz
Photo by olieman.eth on Unsplash

Rohstoffinvestment mit Rendite und Sicherheit

Ein Investment in Rohstoffe schreckt viele Anleger aufgrund der hohen Volatilität ab. Mit dem Structured Solutions Resource Income Fund hat die Commodity Capital AG ein Produkt lanciert, welches auch risikoscheuen Anlegern den Zugang zum Rohstoffmarkt ermöglicht. Wie sich Rendite und geringes Risiko im Bereich der Minenaktien verbinden lassen, verrät die Mitgründerin Dana Kallasch.


„Wir ermöglichen auch risikoscheuen Anlegern den Zugang zum Rohstoff­markt.“

Dana Kallasch

Commodity Capital hat sich auf den Rohstoffsektor spezialisiert und hier in den letzten Jahren zwei Aktienfonds, die mit mehreren Awards ausgezeichnet wurden, aufgelegt. Im Gegensatz zu vielen anderen Fondsanbietern überzeugt sich das Schweizer Unternehmen vor Ort von den Minenbetreibern.

Im Fokus dieser Mining-Trips stehen die Themen der Nachhaltigkeit und der Akzeptanz in der lokalen Bevölkerung. Denn nur wenn beide Aspekte gewährleistet sind, können Minenunternehmen erfolgreich arbeiten.

Mit dem Structured Solutions Resource Income Fund erhalten nun auch ri­sikoscheue Anleger die Möglichkeit eines nachhaltigen Investments in zukunftsfähige Rohstoffunternehmen. Dabei nutzt Commodity Capital die über die Jahre aufgebaute Expertise, die man vor allem im Hinblick auf die mittelgroßen Unternehmen der Branche erworben hat.

„Wir kennen diese Unternehmen seit Jahren, sind mit dem Management vertraut und wissen, wie sich diese in der Vergangenheit entwickelt haben“, führt Dana Kallasch aus.


„Diese Anleihen bieten nicht nur höhere Zinssätze sowie oft auch Gratisaktien und Optionen, sondern auch eine volle Besicherung des Betriebs.“

Lesen Sie das ausführliche Interview mit der Expertin:

Rendite und Sicherheit bei Rohstoffinvestment


Der Income Fund ist spezialisiert auf Anleihen, wobei das Prospekt auch andere festverzinsliche Wertpapiere mit einer Verbindung zu Rohstoffunterneh­men wie Renten, Wandelanleihen und Schuldverschreibungen, ermöglicht. „Eine Besonderheit des Fonds ist“, ergänzt Kallasch, „dass wir mit einem Pool von Investoren eigene An­leihen für mittelgroße Minengesellschaften initiieren können, die normalerweise keinen Zugang zum Ka­pitalmarkt haben.“ Im Gegenzug bieten diese Anleihen nicht nur höhere Zinssätze sowie oft auch Gratisaktien und Optionen, sondern auch eine volle Besicherung des Betriebs. Konkret heißt das: Obwohl nur maximal 20 Prozent der Markt­kapitalisierung in den Minenbetreiber investiert werden, erhält Commodity Capital im Konkursfall das komplette Unternehmen inklusive aller Maschinen, Schürfrechte und sonstigen Anlagevermögen.

Der Fond ist in Luxemburg, Österreich und Deutschland zugelassen und auf allen Standardplattformen sowie an der Börse Hamburg handelbar. Dabei soll er eine Rendite von sechs Prozent pro Jahr bei einer Volatilität von sechs bis acht Prozent bieten. Die Preisstruktur zeigt, wie überzeugt die Fondsboutique von ihrem Produkt ist. Für das aktive Management fällt eine kleine Management-Fee von lediglich einem Prozent an. Dafür ist eine High-Watermark-Fee fällig, sollte der letzte historische Höchstwert um mehr als acht Prozent überschritten werden.

www.commodity-capital.com