Beyond the Cookie

 

Datenhoheit und Kundenzentrierung als zentrale Komponenten zukunftsfähiger Marketingstrategien 

 

  • Branche steht vor einem Paradigmenwechsel im digitalen Marketing
  • Durch den Wegfall des Third Party Cookies gewinnen serverseitiges Tracking und First-Party-ID-Lösungen sowie Datenschutz an Bedeutung
  • Neues Whitepaper von elaboratum stellt Lösungsansätze der Anbieter Utiq und JENTIS vor

 

Wie geht es ohne den Third Party Cookie weiter? Diese Frage beschäftigt die Marketer nach wie vor. Denn die digitale Marketinglandschaft steht vor einer tiefgreifenden Transformation, die eine grundlegende Neugestaltung der Strategien und Technologien erfordert. Die zentralen Komponenten hierbei heißen: Datenhoheit und Beziehungszentrierung. Die passenden Lösungsansätze bietet das aktuelle Whitepaper „Beyond the 3rd Party Cookie“, das die unabhängige Digitalberatung elaboratum gemeinsam mit Utiq, einem Joint Venture der vier größten europäischen Telekommunikationsanbieter Telekom, Vodafone, Telefónica und Orange, sowie dem Softwareentwickler JENTIS erarbeitet hat.

Themen-Experten/David Berger (c)elaboratum

„Unternehmen, die jetzt proaktiv handeln und ihre Strategien anpassen, werden in der Lage sein, ihre Marktposition in einer zunehmend datenschutzbewussten Welt zu stärken.“

 


Die wichtigsten Herausforderungen und Lösungsansätze für diese neue Ära im Marketing:

 

1. Herausforderungen und Marktveränderungen: Die Abhängigkeit von Third Party Cookies hat die Marketingbranche bisher geprägt. Mit verschärften Datenschutzanforderungen und veränderten Browser-Policies müssen Unternehmen ihre Ansätze überdenken und sich auf weniger invasive, datenschutzkonforme Methoden konzentrieren.

 

2. Datenschutz als Priorität: Die Verschärfung der Datenschutzgesetze und das wachsende Bewusstsein der Verbraucher*innen erfordern einen Wandel von invasiven Tracking-Methoden zu Strategien, die Privatsphäre und Transparenz in den Mittelpunkt stellen.

 

3. Neue Technologien und Ansätze: In Reaktion auf das Ende der Third Party Cookies gewinnen Technologien wie das serverseitige Tracking, auf das JENTIS spezialisiert ist, und First-Party-ID-Lösungen, wie Utiq sie anbietet, an Bedeutung. Diese ermöglichen es, die Funktionalität von Cookies zu ersetzen, während sie gleichzeitig Compliance mit Datenschutzstandards sicherstellen.

 

4. Strategische Neuausrichtung: Unternehmen sind gefordert, eine stärkere Fokussierung auf First-Party-Daten und den Aufbau langfristiger Kundenbeziehungen zu legen. Der Shift hin zu einem datenschutzorientierten R(elationship)-Commerce eröffnet neue Wege zur Kundenbindung und - interaktion.

 

5. Implementierungsanforderungen: Die erfolgreiche Umsetzung neuer Tracking-Methoden und Technologien erfordert eine nahtlose Integration in bestehende Systeme und eine klare strategische Ausrichtung. Nur durch eine sorgfältige Planung und Anpassung können Unternehmen die Vorteile der neuen Technologien voll ausschöpfen.

 

6. Zukünftige Chancen: Trotz der Herausforderungen bieten die Änderungen auch Chancen für ein vielfältigeres und nachhaltigeres Marketing. Eine kooperative Entwicklung von Branchenstandards und die Einführung neuer Technologien können zu einer effektiveren und datenschutzkonformen Kundenansprache führen.

 

Die Studienautoren David Berger und André Schulz, Senior Managing Consultants bei elaboratum, erklären: „Die im Whitepaper vorgestellten technischen Lösungen zeigen, wie Publisher und Werbetreibende auch ohne Third Party Cookies künftig ihre Zielgruppen effektiv erreichen. Personalisierung, Targeting und Marketing-Attribution bleiben weiterhin möglich und werden durch die verbesserte Kontrolle der Datenverarbeiter sogar datenschutzfreundlicher gestaltet. Dies stellt sicher, dass die Datenschutzbedürfnisse der Nutzer besser berücksichtigt werden. Unternehmen, die jetzt proaktiv handeln und ihre Strategien anpassen, werden in der Lage sein, ihre Marktposition in einer zunehmend datenschutzbewussten Welt zu stärken.“

 

Weitere Informationen und kostenloser Download des Whitepapers:

 

 

Aufmacherbild / Quelle / Lizenz
Image by Merhan Saeed from Pixabay

Studie zu Generativer KI

Studie zu Generativer KI: Großteil der deutschen Unternehmen sieht sie als positiv für den Geschäftserfolg 

96 Prozent der deutschen Unternehmen gehen davon aus, dass sie ihren Geschäftserfolg mithilfe von Generativer KI positiv beeinflussen können. Das ist ein Ergebnis einer Studie, die der Bundesverband Digitale Wirtschaft (BVDW) e. V. in Zusammenarbeit mit der Hochschule der Medien Stuttgart (HdM) durchgeführt hat.

 

KI hat in vielen Unternehmen einen zentralen Stellenwert 

Die Ergebnisse der Studie zeigen, dass die Bedeutung innovativer Technologien für die Wettbewerbsfähigkeit und Zukunftsfähigkeit von Unternehmen steigt. So sagen mehr als 60 Prozent der Befragten, dass Generative KI einen zentralen Stellenwert in ihrer Gesamtstrategie hat. 40 Prozent geben an, dass Anwendungen mit Generativer KI in ihren jeweiligen Unternehmen mehrmals pro Woche zum Einsatz kommen, lediglich 7 Prozent nutzen sie nie.

 

Technisch sind die meisten Unternehmen auf KI gut vorbereitet

Die Studie zeigt auch, dass für die KI-Nutzung ein entsprechendes Mindset wichtig ist. 95 Prozent pflegen eine offene Einstellung gegenüber dem Einsatz von Generativer KI, 73 Prozent bieten ihren Mitarbeitenden selbst KI-Schulungen und -Weiterbildungen an, um sie für den Umgang mit KI-Technologien vorzubereiten. Ethische Überlegungen spielen beim KI-Einsatz ebenfalls eine bedeutende Rolle; 62 Prozent der befragten Unternehmen sagen, dass sie ethische Richtlinien im Umgang mit Generativer KI beachten.

Was die technischen Voraussetzungen für die KI-Nutzung angeht, sind die meisten Unternehmen bereits gut vorbereitet. 79 Prozent der Befragten sagen, dass ihr Unternehmen bereits auf die Integration und Nutzung Generativer KI ausgelegt ist. Auffällig ist, dass rund zehn Prozent der Befragten nicht wissen, ob die vorhandene digitale Infrastruktur ihres Unternehmens geeignet ist, um Generative KI zu unterstützen.

 

BVDW sieht Handlungsbedarf und Chancen

 

„Die Ergebnisse der Befragung unterstreichen die Notwendigkeit, das Bewusstsein und das Verständnis für Generative KI in der deutschen Wirtschaft weiter zu schärfen,“ sagt Eva Werle, Vizepräsidentin des BVDW. „Die kontinuierliche Aufklärungsarbeit und den Dialog zwischen den Akteuren der digitalen Wirtschaft gilt es zu fördern, um Deutschland als Standort für digitale Innovationen zu stärken.“

 

Prof. Dr. Felix Weißmüller von der Hochschule der Medien Stuttgart bietet zusammen mit Sebastian Fetz (Perelyn) Studierenden Praxisseminare im Bereich der Künstlichen Intelligenz an. Gemeinsam haben sie im Rahmen eines solchen Seminars die Zusammenarbeit zur Studie initiiert. Weißmüller sagt: „Dieses Projekt illustriert das enorme Potenzial, das in der Verknüpfung akademischer Forschung mit praxisorientierten Anwendungen liegt.”

 

 

Zur Methodik der Datenerhebung

Für die Studie wurden 73 Entscheider*innen aus verschiedenen Branchen mittels eines Online-Fragebogens befragt, um den aktuellen Einsatz und die Wahrnehmung Generativer KI in deutschen Unternehmen zu evaluieren. Die Datenerhebung fand im Zeitraum vom 18. Januar bis zum 2. März 2024 statt und wurde mithilfe des Tools HdM Survey durchgeführt, das auf der Open-Source-Software LimeSurvey basiert. Die Auswahl der Teilnehmenden erfolgte aus dem Netzwerk des BVDW, rund die Hälfte der Befragten stammt aus der Marketingbranche.

Die Ergebnisse der Studie können Sie hier herunterladen.

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by Alexandra_Koch from Pixabay

 

Shopping-Studie 2024

So kauft Deutschland

 

Online, stationär oder doch am liebsten beides? Wo kaufen wir am liebsten ein und warum? Diese und weitere Fragen stellte die Offerista Group gemeinsam mit ShopFully gleich in acht europäischen Ländern – darunter Deutschland. Die globale Einkaufsstudie “The State of Shopping 2024” wurde im Februar 2024 in den europäischen Ländern Deutschland, Österreich, Frankreich, Italien, Spanien, Bulgarien, Rumänien und Ungarn durchgeführt.

Wo wird am liebsten eingekauft? 

88 Prozent der Deutschen tätigen ihre Einkäufe im stationären Handel, wobei jede dritte Person es sogar vorzieht, ausschließlich vor Ort einzukaufen (34 Prozent). Für mehr als die Hälfte der deutschen Befragten stellt der Mix aus Online- und Offline-Shopping die bevorzugte Art des Einkaufens dar (54 Prozent). Im Vergleich zu allen anderen befragten Ländern liegt Deutschland hier vorne. Den reinen Online-Einkauf bevorzugen nur wenige Europäer. In Deutschland setzen nur 12 Prozent der Befragten ausschließlich auf Online-Shopping. Für die Deutschen ist insbesondere der Einkauf von Lebensmitteln und Getränken im Vor-Ort-Geschäft wichtig (97 Prozent), gefolgt von Drogerieartikeln (93 Prozent) und Wohnmöbeln (86 Prozent). Elektronik (45 Prozent), Produkte aus der Abteilung Kinder und Spielzeug (45 Prozent) sowie Kleidung (35 Prozent) werden auch gern online gekauft.

Warum kaufen wir online oder stationär? 

Menschen, die Online-Shopping bevorzugen, tun dies in Deutschland aufgrund der Lieferung nach Hause (61 Prozent) sowie dem Mangel an Warteschlangen und Menschenmassen (48 Prozent). Geschäfte werden von den meisten Deutschen bevorzugt, weil sie dort die Möglichkeit haben, Produkte vor dem Kauf zu sehen, anzufassen oder auszuprobieren (79 Prozent). Im Gegensatz zum europäischen Durchschnitt von 16 Prozent, trägt bei den Deutschen auch der Kundenservice im Laden stark dazu bei, vor Ort zu kaufen (40 Prozent). Wenn die Deutschen online kaufen, dann wählen 44 Prozent die Click-and-Collect-Option immer oder manchmal aus. Davon lassen sich 73 Prozent vor Ort im Geschäft zu weiteren Käufen hinreißen.

Budget und Sonderangebote

Das Konsumklima in Europa und auch in Deutschland ist nach wie vor angespannt. So glauben 68 Prozent der Deutschen, dass sich ihre Kaufkraft im Jahr 2024 nicht verbessern wird. Einschränken wollen die Deutschen ihre Ausgaben hauptsächlich für Wohnmöbel (60 Prozent) und Elektronik (44 Prozent). Innerhalb dieses Konsumklimas haben Angebote für sehr viele Deutsche einen hohen Stellenwert bei ihrer Kaufentscheidung (87 Prozent). Um mehr Informationen zu erhalten, recherchieren 79 Prozent der Deutschen die Produkte online, bevor sie in einem Geschäft einkaufen. Die deutschen Verbraucher:innen probieren häufig neue Marken aus (21 Prozent), wobei attraktive Preise und Rabatte die wichtigsten Faktoren für das Testen einer neuen Marke darstellen (55 Prozent).

Insgesamt sind die deutschen Konsument:innen im Hinblick auf die Wahl einer Marke besonders flexibel, wenn es Werbeaktionen gibt (66 Prozent). Dabei ist die Relevanz von Angeboten ganzjährig für die deutschen Konsument:innen gegeben. So schauen 64 Prozent der befragten Deutschen das ganze Jahr über nach Sonderangeboten, und nicht nur zu wichtigen Shopping-Zeiten wie dem Black Friday, Weihnachten oder dem Sommerschlussverkauf. Aus diesem Grund ist es für Einzelhändler auch besonders wichtig, das ganze Jahr über sichtbar zu sein.

„Während ein Großteil der deutschen Shopper online ihre Kaufentscheidung treffen, wird bevorzugt im stationären Geschäft eingekauft. Die digitale Shopper-Aktivierung über alle Kanäle der Customer Journey hinweg ist daher für den stationären Handel essentiell. „

„Der Einzelhandel durchläuft einen Transformationsprozess, getrieben von dem sich rasant ändernden Mediennutzungs- und Einkaufsverhalten der Konsument:innen. Während ein Großteil der deutschen Shopper online ihre Kaufentscheidung treffen, wird bevorzugt im stationären Geschäft eingekauft. Die digitale Shopper-Aktivierung über alle Kanäle der Customer Journey hinweg ist daher für den stationären Handel essentiell. Unsere Studie hat gezeigt, dass es für Händler und Marken wichtig ist, das ganze Jahr über sichtbar zu sein. Besonders im Hinblick auf das angespannte Konsumklima und das eingeschränkte Einkaufsbudget ist es wichtig, Angebote und Promotionen über verschiedene Kanäle entsprechend zu bewerben – und zwar das ganze Jahr hinweg“, so Benjamin Thym, CEO der Offerista Group.

 

1111

Studiensteckbrief

Für die Studie wurden 10.985 Personen ab 18 Jahren in Bulgarien, Deutschland, Frankreich, Italien, Österreich, Rumänien, Spanien und Ungarn im Februar 2024 in einer Online-Umfrage befragt.

 

 

Fotonachweis: © Offerista Group

 

 

Aufmacherbild / Quelle /Lizenz
Image by Gerd Altmann from Pixabay

LISA – Schwingungen der Raumzeit aufspüren

  • Am 25. Januar 2024 wurden die Missionen LISA (Laser Interferometer Space Antenna) und EnVision im Wissenschaftsprogramm der Europäischen Weltraumorganisation ESA zur Umsetzung freigegeben.
  • Die Deutsche Raumfahrtagentur im Deutschen Zentrum für Luft- und Raumfahrt (DLR) ist finanziell maßgeblich an LISA, an EnVision mit einem substanziellen Zuschuss beteiligt.
  • Das DLR-Institut für Optische Sensorsysteme hat eine Multispektralkamera für EnVision entwickelt und gebaut. Die wissenschaftliche Leitung der Spektrometer-Suite liegt beim DLR-Institut für Planetenforschung.
  • Schwerpunkte: Raumfahrt, Erforschung des Weltraums

Am 25. Januar 2024 haben die große Flaggschiffmission LISA (Laser Interferometer Space Antenna) und die M-Klasse-Mission EnVision im Wissenschaftsprogramm der Europäischen Weltraumorganisation ESA eine weitere, wichtige Hürde genommen. Das LISA-Observatorium zum Aufspüren von sogenannten Gravitationswellen wurde nun zusammen mit der EnVision-Mission zur Erkundung der Venus durch das Science Programme Committee (SPC) der ESA in einer „Mission Adoption“ formal in die Umsetzungsphase überführt. Damit können nun das detaillierte Design, der Bau und später die umfangreichen Tests von Sonden, Nutzlast und Bodeninfrastruktur in vollem Umfang begonnen werden. Die Deutsche Raumfahrtagentur im Deutschen Zentrum für Luft- und Raumfahrt (DLR) ist der größte Beitragszahler im Wissenschaftsprogramm der ESA und dadurch finanziell maßgeblich an der LISA-Mission und in Teilen an EnVision beteiligt. Dadurch werden wichtige Teile dieser beiden europäischen Raumfahrtgroßprojekte in Deutschland umgesetzt. Bei EnVision ist das DLR in Berlin maßgeblich an einem Hauptinstrument beteiligt. Die Leitung und Koordination der gesamten sogenannten VenSpec Suite liegt beim DLR-Institut für Planetenforschung. Das DLR-Institut für Optische Sensorsysteme hat die Multispektralkamera zur Suche nach aktiven Vulkanen und zur Kartierung der Mineralogie entwickelt und gebaut.

LISA – Schwingungen der Raumzeit aufspüren

Bereits 2017 wurde LISA als eine der drei großen Flaggschiff-Missionen im Wissenschaftsprogramm der ESA ausgewählt. Seitdem haben intensive Arbeiten zum technischen Konzept und dessen Umsetzung stattgefunden. Auch die bereits seit den 1990er Jahren laufende wissenschaftliche Vorbereitung einschließlich der äußerst komplexen Datenverarbeitung und -analyse wurde seitdem in einem weltweiten Konsortium von mehr als 1500 Wissenschaftlerinnen und Wissenschaftlern intensiv fortgesetzt. Die ESA, wie auch die beteiligten nationalen Institutionen aus verschiedenen europäischen Ländern sowie der NASA in den USA und deren industrielle Auftragnehmer werden nun ihre jeweiligen Teams deutlich aufstocken, um die noch notwendigen, umfangreichen Entwicklungsarbeiten bis zum geplanten Start der Mission Mitte 2035 anzugehen.

LISA soll nach der Inbetriebnahme im All ab Ende 2035 niederfrequente Gravitationswellen aus dem Weltraum nachweisen und die Natur ihrer Quellen mit großer Genauigkeit bestimmen. Gravitationswellen als Schwingungen der Raumzeit werden durch schnelle zeitliche Änderungen in der räumlichen Verteilung sehr großer Massen wie zum Beispiel bei der Verschmelzung zweier stellarer oder auch supermassiver Schwarzer Löcher hervorgerufen. Die winzigen Amplituden einer Gravitationswelle lassen sich nur durch eine höchst empfindliche Laserinterferometrie nachweisen. Bei LISA wird dieses Laserinterferometer durch drei baugleiche Sonden aufgespannt, die ein nahezu gleichseitiges Dreieck mit rund 2,5 Millionen Kilometer Seitenlänge bilden. Damit wird LISA das bei weitem größte je von Menschen gebaute Observatorium sein.

LISA – größtes Observatorium wird mit maßgeblichem deutschen Anteil entwickelt und gebaut

LISA wird im Wissenschaftsprogramm der ESA unter Beteiligung der NASA und mit Beistellungen zur Nutzlast aus mehr als zehn europäischen Ländern unter anderem in Deutschland entwickelt und gebaut. Der industrielle Hauptauftragnehmer der ESA für die Gesamtmission wird im Januar 2025 aus einem deutschen beziehungsweise einem deutsch-italienischen Industriekonsortium ausgewählt: Airbus in Friedrichshafen und OHB in Bremen und Oberpfaffenhofen zusammen mit Thales-Alenia in Italien. Ein wissenschaftliches Konsortium ist maßgeblich an der Entwicklung von LISA beteiligt und baut zudem die Datenverarbeitung und -archivierung der Mission auf. Dabei kommt dem deutschen Beitrag zur Mission eine entscheidende und missionskritische Bedeutung zu. Dieser umfangreiche Beitrag zu LISA besteht wesentlich aus der führenden Rolle des Max-Planck-Instituts für Gravitationsphysik / Albert-Einstein-Institut (AEI) in Hannover bei der Entwicklung des interfero-metrischen Nachweissystems (IDS – Interferometric Detection System), dessen Komponenten von verschiedenen Partnern in Europa bereitgestellt werden.

Das vom AEI entwickelte Herzstück des IDS ist neben dem optischen System, das vom Partner aus Großbritannien geliefert werden soll, das zentrale Phasenmeter der Mission. Dabei besteht eine enge Kooperation mit der Dänischen Technischen Universität (DTU) in Kopenhagen. Außerdem wird das Institut in Hannover in Zusammenarbeit mit niederländischen Partnern einen kritischen Mechanismus für die Nutzlast liefern. Das AEI unterstützt zudem die Mission und die ESA bei vielen Fragestellungen zum Systemdesign, wobei deren umfangreiche Erfahrungen aus der Entwicklung und dem Betrieb des Technologiedemonstrators LISA Pathfinder einfließen. Mit dieser Vorläufer-mission wurden von 2015 bis 2017 die entscheidenden Messprinzipien für LISA sehr erfolgreich im All erprobt. Zusammen mit der deutschen Raumfahrtindustrie hat das Albert-Einstein-Institut auch bei dieser Mission eine führende Rolle gespielt. Die gesamte Beteiligung des AEI an LISA, das auch die wissenschaftliche Leitung (Principal Investigator) der Gravitationswellenmission stellt, wird maßgeblich durch Zuwendungen der Deutschen Raumfahrtagentur im DLR aus Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) unterstützt.

EnVision – eine vielfältige Mission zu unserem Nachbarplaneten Venus

EnVision wurde im Juni 2021 als fünfte M-Mission im sogenannten Cosmic Vision Programm der ESA ausgewählt und wurde nun ebenfalls zur Umsetzung freigegeben. Im Laufe des Jahres 2024 wird sie dazu einen industriellen Auftragnehmer in Europa auswählen, so dass die Arbeiten zur Fertigstellung des Designs und zum Bau des Raumfahrzeugs bald beginnen können. EnVision soll im Jahr 2031 mit einer Ariane-6-Rakete starten. Die Mission wird die Venus von ihrem inneren Kern bis zur äußeren Atmosphäre untersuchen und wichtige neue Erkenntnisse über die Entwicklung, die geologische Aktivität und das Klima des Planeten liefern. Dadurch soll EnVision die vielen, seit langem offenen Fragen zur Venus beantworten, insbesondere, wie und wann der Zwilling der Erde so unwirtlich geworden ist. Das DLR in Berlin wird dabei helfen, diese Fragen zu beantworten, denn sowohl das DLR-Institut für Planetenforschung als auch das DLR-Institut für Optische Sensorsysteme sind dabei maßgeblich an einem der vier großen Instrumente der Mission beteiligt.

EnVision – DLR kartiert die Mineralogie und sucht aktive Vulkane

Auch wenn die Atmosphäre der Venus mit ihren für das sichtbare Licht undurchdringlichen Schwefelsäurewolken keinen direkten Blick auf die Oberfläche des Planeten gestattet, so gibt es dennoch indirekte Möglichkeiten, sich ein „Bild“ von ihr machen zu können. Das geschieht zum einen mit Radar, das wie auch bei Flugzeugen auf der Erde die Wolken durchdringt, und zum anderen in bestimmten Wellenlängen vor allem des nahen Infrarots, sogenannten „atmosphärischen Fenstern“. Doch bei der Venus kann man die Oberfläche nicht verstehen ohne auch die Atmosphäre zu verstehen. Für EnVision wird hierzu eine Spektrometer-Suite entwickelt, welche aus drei Teilinstrumenten besteht. Sie trägt den Namen VenSpec und hat die Komponenten VenSpec-U zur Untersuchung der Hochatmosphäre, VenSpec-H für Messungen in der bodennahen Atmosphäre und dem vom DLR entwickelten VenSpec-M zur Messung der Wärmeabstrahlung und spektralen Eigenschaften der Oberfläche.

Die Leitung und Koordination der gesamten VenSpec Suite liegt beim DLR-Institut für Planetenforschung. Durch die Kombination aller drei Kanäle können tiefere Einblicke in die enge „Kopplung“ zwischen der Oberfläche und der Atmosphäre der Venus gewonnen werden. So würde zum Beispiel VenSpec-M einen aktiven Vulkanausbruch durch die Detektion der heißen Lava erkennen, während VenSpec-H gleichzeitig messen würde, wie viel Wasserdampf der Vulkan in die Atmosphäre entlässt und VenSpec-U würde die Verteilung von Schwefeldioxid aus dem Vulkanausbruch in der oberen Atmosphäre erfassen. Mit VenSpec-M kann nicht nur die thermische Signatur eines heißen, aktiven Vulkans gemessen werden. Das Instrument wird auch erstmals die mineralogische Zusammensetzung der Oberfläche global kartieren. VenSpec-M wird unter der Leitung des DLR-Instituts für Optische Sensorsysteme entwickelt und gebaut, die wissenschaftliche Leitung des Experiments auf EnVision liegt beim DLR-Institut für Planetenforschung. Beide Institute sind am DLR-Standort Berlin-Adlershof angesiedelt. Neben dem DLR sind in Deutschland weitere wissenschaftliche Institute in die EnVision-Mission eingebunden.

Verwandte Links

Aufmacherbild / Quelle / Lizenz
 Credit: NASA/JPL-Caltech / NASA / ESA / CXC / STScl / GSFCSVS / S.Barke (CC BY 4.0)

Data Report

Während die IoT Venture GmbH bereits detaillierte, datengestützte Analysen für ihre Partner in der Fahrradbranche bereitstellt, soll die quartalsweise Veröffentlichung eines Data Reports zukünftig als regelmäßiger Impulsgeber für die Branche dienen. Branchenexperten und Interessierte, wie beispielsweise Städte und Institutionen, können so von wertvollen Insights und Analysen profitieren.

Data Report by IoT Venture

Die IoT Venture GmbH, ein führendes Tech-Unternehmen im Bereich Internet of Things, kündigt heute die Veröffentlichung ihres ersten Data Reports an, eines quartalsweise erscheinenden Analysedokuments, das Einblicke in die Nutzung von E-Bikes bietet. Durch die integrierten GPS-Tracker generiert IoT Venture detaillierte Daten, die nun in aggregierter und anonymisierter Form einen umfassenden Einblick in Trends und Muster zum Nutzerverhalten bieten.

„Mit unserem ‚Data Report‘ möchten wir die Branche nicht nur informieren, sondern auch aktiv dabei unterstützen, das Fahrerlebnis für E-Bike-Nutzerinnen und -Nutzer weiter zu verbessern und den E-Bike-Markt als Ganzes voranzubringen“,

erklärt Jürgen Veith, CEO der IoT Venture.

 

Wertvolle Insights für Fahrradbranche

Das neue Format beleuchtet verschiedene Aspekte, darunter beispielsweise die durchschnittlich zurückgelegte Kilometeranzahl pro Fahrt, CO2-Einsparungen sowie die Dauer und die bevorzugten Wochentage der Nutzung. Heatmaps verdeutlichen die Intensität der Nutzung im urbanen Umfeld.

Interessierte Leserinnen und Leser, die zukünftige Reports nicht verpassen möchten, können diese über die Website der IoT Venture abonnieren und erhalten somit regelmäßige Updates mit den neuesten Erkenntnissen direkt in ihr E-Mail-Postfach.

Analysevorschläge von Branchenexperten gewünscht

IoT Venture plant den Report sukzessive auszubauen. Zukünftige Fokusthemen beinhalten unter anderem die Analyse von Wegetypen wie Asphalt-, Schotter-, Wald- oder Wiesenwege.

Branchenexperten sind dazu aufgerufen, sich aktiv an der inhaltlichen Gestaltung der zukünftigen Reports zu beteiligen. „Auch wir möchten vom Wissen der Branche profitieren und nehmen Vorschläge und Fragestellungen, die in unsere Analyse einfließen sollen, gerne entgegen“, so Veith.

 

Abonnieren Sie den Data Report by IoT Venture hier:
https://iot-venture.com/data-report/

 

 

 

 

www.iot-venture.com

 

 

Aufmacherbild: IoT Venture

 

Grüne Dividende

Die grüne Dividende: 5 Nachhaltige Anlagetrends im Holzsektor

Das gute alte Sparbuch hat längst ausgedient und die moderne Finanzwelt bietet eine Vielzahl von Anlagemöglichkeiten, die sowohl profitabel als auch nachhaltig sind. Besonders im Bereich Holz, einem der wichtigsten Rohstoffe weltweit, eröffnen sich diverse Investitionsmöglichkeiten, die nicht nur finanzielle Renditen versprechen, sondern auch einen positiven Beitrag zum Umweltschutz leisten. Angesichts des steigenden Bewusstseins für ökologische Verantwortung und der wachsenden Nachfrage nach nachhaltigen Produkten hat sich das Investieren in Holz und Forstwirtschaft als eine zukunftsträchtige Option etabliert.

Die Relevanz von Holz als Investitionsgut

Der Rohstoff Holz, der als Basis für zahlreiche Produkte von Papier bis hin zu Bauholz dient, wird in einer Welt mit steigender Bevölkerungszahl und zunehmendem ökologischem Bewusstsein immer wichtiger. Experten prognostizieren, dass die globale Nachfrage nach Holz in den kommenden Jahrzehnten erheblich steigen wird. Dies liegt nicht nur an der steigenden Bevölkerungszahl, sondern auch an der zunehmenden Anerkennung von Holz als nachhaltigem Baumaterial und der Suche nach alternativen Energiequellen wie Biomasse.

  1. Direkte Investition in Waldflächen: Dies ermöglicht Anlegern, unmittelbar von der Wertsteigerung und den Einnahmen durch Holzverkauf zu profitieren. Die direkte Investition in Waldflächen ist jedoch mit einem umfassenden Management und einem langfristigen Anlagehorizont verbunden.
  2. Aktien von Forstwirtschafts- und Holzverarbeitungsunternehmen: Die Beteiligung an Unternehmen, die in der Forstwirtschaft oder der Holzverarbeitung tätig sind, bietet Anlegern die Möglichkeit, von der Branchenentwicklung zu profitieren.
  3. Holzfonds (offene und geschlossene): Diese Fonds bieten eine diversifizierte Investitionsmöglichkeit, indem sie in verschiedene Projekte und Unternehmen im Holzsektor investieren. Die breite Diversifikation kann das Risiko mindern und zugleich Chancen in verschiedenen Segmenten des Holzmarktes eröffnen.
  4. Holz-Zertifikate: Sie bieten eine relativ niedrigschwellige Investitionsmöglichkeit, die an der Preisentwicklung von Holz partizipiert, ohne dass physisches Holz oder Waldflächen direkt erworben werden müssen. Diese Instrumente können jedoch mit spezifischen Risiken, wie dem Emittentenrisiko, verbunden sein.
  5. Crowdinvesting in Holzbau-Projekte: Eine innovative Form des Investments, die es Kleinanlegern ermöglicht, direkt in nachhaltige Bauvorhaben zu investieren. timpla by Renggli stellt hierbei eine herausragende Möglichkeit dar, indem es Investoren erlaubt, in den nachhaltigen und ökologischen Holzbau zu investieren, und somit direkt an der grünen Bauwende teilzuhaben.

timpla by Renggli: Innovation trifft Nachhaltigkeit

Eine besonders innovative Investitionsmöglichkeit bietet das Crowdinvesting in Holzbau-Projekte, bei dem Kleinanleger direkt in nachhaltige Bauvorhaben investieren können. Aktuell können Anleger dies beim Crowdinvesting-Angebot von timpla by Renggli tun. In Zusammenarbeit mit den Plattformen GLS Crowd und WIWIN, hat das Unternehmen eine Crowdinvesting-Kampagne ins Leben gerufen, die es Privatanlegern ermöglicht, mit einem Beitrag ab 250 Euro in den seriellen Holzbau zu investieren.

Diese Kampagne zielt nicht nur darauf ab, in den Bau selbst zu investieren, sondern vielmehr in die Zukunft und die nachhaltige Entwicklung des Bauwesens. Die Anleger haben somit die Chance, Teil einer Bewegung zu werden, die darauf ausgerichtet ist, die Bauindustrie zu revolutionieren und zugleich einen bedeutsamen Beitrag zum Schutz unseres Klimas zu leisten.

Dieser innovative Ansatz öffnet die Türen für Anleger, die nach Möglichkeiten suchen, ihr Portfolio nicht nur finanziell, sondern auch mit Blick auf die ökologische und gesellschaftliche Verantwortung zu diversifizieren. Durch die Beteiligung an Projekten, die sich dem nachhaltigen Holzbau verschreiben, investieren sie in die Realisierung von Bauvorhaben, die langfristig darauf abzielen, die CO2-Emissionen zu reduzieren und den Einsatz erneuerbarer Ressourcen zu fördern. Damit haben Anleger nicht nur eine Investitionsmöglichkeit, sondern eine Gelegenheit, aktiv an der Gestaltung einer nachhaltigeren Zukunft mitzuwirken.

 

https://www.timpla.eu/

 

 

Aufmacherbild/Quelle / Lizenz
Renggli, Zürich, Freilager @ Gataric Fotografie

Implementierung von KI in europäischen Industrieunternehmen

Silo AI und appliedAI Initiative verkünden Partnerschaft

Europas größte Initiative für die Anwendung vertrauenswürdiger KI, appliedAI, startet eine Partnerschaft mit Europas größtem privatem KI-Labor, Silo AI, um so ein europäisches Ökosystem zur KI-Implementierung aufzubauen. Ziel ist es, den Unternehmen eine Anlaufstelle zu bieten, bei der sie Unterstützung unabhängig von ihrer KI-Implementierungsphase finden.

Die Implementierung von KI in Unternehmen erreicht häufig nicht das erforderliche Maß für eine signifikante Wertschöpfung. Um dies zu ermöglichen, ist ein größerer Pool an KI-Experten nötig, der das gesamte Spektrum der erforderlichen Maßnahmen entlang der KI-Journey abdecken kann.

Die neue Partnerschaft von Silo AI, Europas größtem privatem KI-Labor, und appliedAI, der größten europäischen Initiative für die Anwendung vertrauenswürdiger KI, setzt hier an. Gemeinsam bauen die Partner das größte Ökosystem zur KI-Implementierung in Europa auf, das sowohl Enablement- als auch Deployment-Services abdeckt. In diesem KI-Zentrum wird fortan die Expertise gebündelt und dadurch werden die KI-Fähigkeiten auf dem Kontinent gestärkt. Unternehmen, die die Implementierung von KI vorantreiben wollen, finden im Ökosystem den passenden Partner und können so von den erweiterten Kompetenzen und stärkeren Skalierungsmöglichkeiten profitieren.

 

Die Vorteile der Partnerschaft im Überblick:

  • Zugang zu den neuesten KI-Implementierungsmethoden entlang der gesamten KI-Journey
  • Stärkung der Kompetenzen zur Erfüllung der Kundenbedürfnisse auf dem lokalen Markt
  • Ein echter One-Stop-Shop für langfristige KI-Unterstützung, unabhängig von der KI-Implementierungsphase

Die Partnerschaft fokussiert sich zunächst auf Deutschland und die Niederlande. Die Zusammenführung modernster KI-Fähigkeiten und renommierter deutscher und niederländischer Unternehmen stärkt die nachhaltige Wettbewerbsfähigkeit der europäischen Industrie.

 

Peter Sarlin, CEO und Mitgründer von Silo AI: „appliedAI ist ein wichtiger europäischer Akteur in KI-Vorbereitungs- und -Enablement-Aktivitäten, während Silo AI mehrere hundert produktionsreife KI-Systeme und -Modelle entwickelt und darüber hinaus maßgeblich zur Skalierung von KI beigeträgt. Durch die Partnerschaft mit appliedAI möchten wir unsere Erfahrung in den deutschen Markt bringen und Unternehmen in der DACH-Region bei der Implementierung und Skalierung ihrer KI-Projekte unterstützen. Gemeinsam können wir für unsere Kunden ein langfristiger KI-Partner sein, der sie von den frühen Phasen des Enablements bis hin zur Skalierung des KI-Einsatzes in allen Betriebsabläufen begleitet.“

 

Auch Dr. Andreas Liebl, CEO und Co-Founder von appliedAI, freut sich auf die Zusammenarbeit: „Da wir eine ähnliche Vision verfolgen, passen wir gut zusammen und ergänzen uns ideal in unseren Stärken. Silo AI bringt hervorragende Expertise in der langfristigen Entwicklung von KI-Produkten mit, insbesondere im skandinavischen Raum. Damit werden die technischen Kompetenzen von appliedAI sehr gut erweitert.“

 

 

Über Silo AI

Silo AI ist Europas größtes privates KI-Labor, das sich zum Ziel gesetzt hat, Europa zu einem KI-Vorreiter zu machen. Silo AI ist ein zuverlässiger KI-Partner, der Wettbewerbsvorteile in die Produktforschung und -entwicklung bringt.

Das Team entwickelt KI-gesteuerte Lösungen und Produkte für intelligente Geräte, autonome Fahrzeuge, Industrie 4.0 und Smart Cities. Silo AI bietet seinen Kunden einen einzigartigen Zugang zu erstklassigen KI-Modellen und -Fachwissen sowie zur Silo OS-Infrastruktur, um die KI-Entwicklung und -Bereitstellung zu beschleunigen.

Mit SiloGen entwickelt Silo AI marktführende Open-Source-LLMs mit dem Ziel, die digitale Unabhängigkeit Europas zu stärken und den Zugang zu LLMs zu demokratisieren

Weiter Informationen zu Silo AI finden Sie unter: https://www.silo.ai/

 

Weitere Informationen zu Applied AI finden Sie unter: www.appliedai.de

 

 

Aufmacherbild / Quelle / Lizenz

Bild von Pete Linforth auf Pixabay

Die Zukunft des Wohnens: Megatrends und ihre Auswirkungen

Gastbeitrag von André Heid:

Getrieben von Digitalisierung und Nachhaltigkeitsbemühungen sowie einem neuen Verständnis von Lebensqualität und Arbeitsmodellen, verändert sich das Wohnen in Deutschland grundlegend – sowohl im Großen als auch im Kleinen. In diesem Artikel betrachten wir Megatrends und ihre Auswirkungen näher und gehen dabei gesondert auf die energetische Sanierung ein, da sie einen Eckpfeiler in Hinblick auf Nachhaltigkeit darstellt.

Die Megatrends im Immobilienmarkt

Digitalisierung und Nachhaltigkeit sind zwei Megatrends, die die Art und Weise, wie wir leben und arbeiten, revolutionieren. Während sich unsere Wohnbedürfnisse durch die Digitalisierung verändert haben – man denke etwa an Home-Office und Online-Weiterbildungen – ist das Thema Nachhaltigkeit zu einem zentralen Anliegen geworden, das nicht nur ökologisch, sondern auch wirtschaftlich motiviert ist.

 

Im Folgenden gehen wir auf einige Entwicklungen ein, die durch Digitalisierung und Nachhaltigkeit angestoßen wurden und den Immobilienmarkt in den vergangenen Jahren sehr beschäftigt haben.

Neue Bauweisen und Wohnformen

Die Entwicklung hin zu einem bewussteren Umgang mit Ressourcen und der Einsatz innovativer Technologien schaffen neue Möglichkeiten und Herausforderungen für die Immobilienwelt.

 

Folgende Trends haben sich hinsichtlich Bauweisen und Wohnformen herauskristallisiert:

Nachhaltige Materialien

Die Verwendung nachhaltiger Baumaterialien spielt eine zentrale Rolle bei der Entwicklung zukunftsfähiger Wohnformen. Materialien wie Holz aus nachhaltiger Forstwirtschaft, recycelter Stahl oder umweltfreundliche Isolationsmaterialien tragen nicht nur zur Reduzierung der CO₂-Emissionen bei, sondern verbessern auch die Energieeffizienz und das Raumklima in Gebäuden.

Modulares Bauen

Modulares Bauen ist eine innovative Bauweise, die in der modernen Immobilienlandschaft immer mehr an Bedeutung gewinnt. Vorgefertigte Module werden in Fabriken hergestellt und vor Ort zusammengesetzt. Die Bauweise eignet sich für Wohngebäude und Bürogebäude gleichermaßen.

Diese Methode ermöglicht eine schnelle Bauzeit, verringert den Abfall auf der Baustelle und verbessert die Qualität durch die Fertigung unter kontrollierten Bedingungen. Zudem bleiben die Gestaltung und Erweiterbarkeit der Immobilien verhältnismäßig sehr flexibel.

Passivhäuser

Passivhäuser stehen für eine Bauweise, die den Energiebedarf für Heizung und Kühlung auf ein Minimum reduziert. Durch eine hochwertige Wärmedämmung, eine luftdichte Gebäudehülle und eine kontrollierte Wohnraumlüftung mit Wärmerückgewinnung erreichen diese Gebäude eine außerordentliche Energieeffizienz. Passivhäuser sind somit ein Paradebeispiel für nachhaltiges Bauen.

Smart Homes

Im Zuge der Digitalisierung gewinnen Smart Homes zunehmend an Bedeutung. Durch die Vernetzung von Haustechnik und Geräten lassen sich Energieverbrauch und Wohnkomfort optimieren. Auch die Sicherheit im Eigenheim profitiert von smarten Technologien – vor allem von selbstverriegelnden Türen und Fenstern sowie sich automatisch aktivierenden Alarmsystemen im Haus.

 

Zu häufig genutzten Technologien gehören:

 

  • intelligente Heizungssysteme
  • automatisierte Beschattung
  • energieeffiziente Beleuchtungskonzepte

 

Smart-Home-Systeme ermöglichen die Fernsteuerung von Heizung, Beleuchtung und Sicherheitssystemen über Smartphone oder Tablet. Durch den Einsatz von KI und IoT-Technologien können diese Systeme lernen, sich an die Gewohnheiten der Bewohner anzupassen, was das Wohnen persönlicher sowie energieeffizienter macht.

 

Ein eindrückliches Beispiel: In Verbindung mit Künstlicher Intelligenz (KI) werden etwa Kühlschränke in Zukunft dazu in der Lage sein, ihren Inhalt zu analysieren und entsprechende Rezepte vorzuschlagen bzw. selbstständig Lebensmittel nachzubestellen.

Urban Farming und grüne Technologien

Urban Farming und die Integration grüner Technologien in Wohngebäuden sind weitere Aspekte der Nachhaltigkeit im Immobilienmarkt. Besonders interessant sind:

 

  • Dachgärten,
  • vertikale Begrünungen und
  • die Nutzung regenerativer Energien.

 

Die Grünflächen tragen zu einer verbesserten Lebensqualität in städtischen Gebieten bei und fördern die lokale Nahrungsmittelproduktion sowie Biodiversität.

Energetische Sanierung – das Herzstück der nachhaltigen Immobilienentwicklung

Die energetische Gebäudesanierung ist ein besonders wichtiger Punkt und spielt eine übergeordnete Rolle bzw. steht im Mittelpunkt der Bemühungen um einen nachhaltigeren Immobilienmarkt.

Die Notwendigkeit der Sanierung besteht bei sehr vielen Gebäuden in Deutschland, denn laut einer Auswertung eines Immobilienportals haben 42 % der Immobilien eine schlechte Energieeffizienzklasse.

Die energetische Sanierung umfasst u. a. die folgenden Maßnahmen:

Erneuerung der Heizungsanlage

Alte Heizkessel verbrauchen oft unnötig viel Energie. Der Wechsel zu einer modernen Heizungsanlage, wie einer Wärmepumpe, einem Pelletkessel oder einer Gas-Brennwerttherme, kann den Energiebedarf erheblich senken. In Kombination mit erneuerbaren Energien, wie Solarenergie für Warmwasser und Heizung, lässt sich die Effizienz weiter steigern.

Installation einer Lüftungsanlage mit Wärmerückgewinnung

Ein gutes Raumklima fördert die Gesundheit. Lüftungsanlagen mit Wärmerückgewinnung sorgen nicht nur für stetigen Luftaustausch, sondern nutzen die Wärme der abgeführten Luft, um die frische Außenluft vorzuwärmen. Dies spart Heizkosten und verhindert gleichzeitig Feuchtigkeitsprobleme und Schimmelbildung.

Dämmung der Gebäudehülle

Die Gebäudefassade spielt eine entscheidende Rolle bei der thermischen Isolierung. Neben der Dämmung der Außenwände können auch die Nachrüstung von Außenrollos oder das Anbringen eines vorgehängten Fassadensystems zur Energieeinsparung beitragen.

Einsatz von Photovoltaik- und Solarthermieanlagen

Die Installation von Photovoltaik- (PV) Anlagen auf dem Dach oder an der Gebäudefassade ermöglicht die Produktion von Strom aus Sonnenenergie. Solarthermieanlagen hingegen nutzen die Sonnenenergie zur Warmwasserbereitung und unterstützen die Heizung. Beide Technologien reduzieren den Bedarf an extern bezogener Energie und tragen zur Senkung der Betriebskosten bei.

 

Förderprogramme und Zuschüsse – etwa des BAFA im Zuge der Bundesförderung für effiziente Gebäude – unterstützen Immobilieneigentümer bei der Umsetzung dieser Maßnahmen, da diese in der Regel hohe Kosten verursachen. Allerdings schonen sie nicht nur die Umwelt, sondern tragen langfristig zur Kosteneinsparung bei.

Weitere Schlüsseltrends im Wohnimmobilienmarkt

Die Urbanisierung setzt sich fort und das Leben in der Stadt wandelt sich. Bis 2050 leben mehr als zwei Drittel der Weltbevölkerung in Städten. Auch eine alternde Bevölkerung – Stichwort demografischer Wandel – und immer mehr Single-Haushalte stellen den Wohnimmobilienmarkt vor Herausforderungen. Barrierefreies Wohnen und Gemeinschaftsprojekte sind mögliche Antworten.

 

Gleichzeitig gewinnen flexible Wohnkonzepte an Bedeutung. Tiny Houses und Co-Living-Spaces bieten Antworten auf die steigenden Immobilienpreise und das Bedürfnis nach mehr Flexibilität.

Nachhaltige Stadtentwicklung & Smart Cities

Städte weltweit erkennen die Notwendigkeit, Grünflächen zu integrieren und zu erweitern, um die Lebensqualität ihrer Bewohner zu verbessern und dem Hitzeinsel-Effekt entgegenzuwirken.

 

Intelligente Städte oder Smart Cities nutzen Daten, um Energie, Verkehr, Sicherheit, Gesundheit, Verwaltung etc. zu optimieren und so die Lebensqualität und Nachhaltigkeit von Ballungszentren zu verbessern. Big Data, KI und Cloud-Computing spielen dabei eine wichtige Rolle.

 

Auch Parks, vertikale Gärten und begrünte Dächer dienen nicht nur der Erholung und Freizeit, sondern verbessern auch die städtische Luftqualität und tragen zur Biodiversität bei.

 

In der Stadtplanung wird zunehmend Wert auf Nachhaltigkeit und Umweltschutz gelegt, was sich in Konzepten wie der „15-Minuten-Stadt“ zeigt, in der alle wichtigen Einrichtungen des täglichen Bedarfs in 15 Gehminuten erreichbar sind.

 

Flexible Wohnkonzepte

Die Digitalisierung fördert auch die Entwicklung flexibler Wohnkonzepte. Plattformen für Wohnungstausch oder temporäres Wohnen erlauben es Menschen, ihren Wohnort flexibel zu wechseln, ohne langfristige Miet- oder Kaufverträge einzugehen.

Diese Flexibilität passt zu einem Lebensstil, der durch digitale Mobilität und Remote Work geprägt ist. Wohnen und Arbeiten werden in Zukunft noch stärker gemeinsam gedacht.

 

 

 

 

 

Ausblick und Fazit

Die Zukunft des Wohnens ist grün, vernetzt, intelligent und flexibel. Die Digitalisierung revolutioniert nicht nur die Art und Weise, wie wir leben und arbeiten, sondern bringt auch tiefgreifende Veränderungen in unseren Wohnbedürfnissen und -vorstellungen mit sich. Die Anpassungsfähigkeit von Wohnräumen, die (nachträgliche) Integration von Technologie und die Vernetzung von Diensten sind zentrale Aspekte, die das zukünftige Wohnen prägen werden.

 

Über den Autor:

 

 

 

André Heid ist zertifizierter Immobiliensachverständiger und Geschäftsführer der Heid Immobilien GmbH. Er unterstützt Käufer und Verkäufer von Immobilien dabei, deren Wert zu ermitteln und angemessene Kaufs- und Verkaufspreise für sie zu erzielen. Er ist Experte zu allen Fragen rund um Immobilien – Immobilienrecht, Wertermittlung, Gutachten, Kauf, Verkauf, Schenkung u.v.m.

 

 

 


CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

Aufmacherbild:
Bild von Wolfgang 1958 auf Pixabay

 

 

 

 

IFAT 2024: Die Wasser-Themen unserer Zeit im Visier

Ob Klimaresilienz, Chancen der Digitalisierung, optimierte Abwasserreinigung oder globale Wassergerechtigkeit – die Umwelttechnologiemesse IFAT Munich 2024 ist erneut ein Spiegel aktueller Themenfelder der Wasser- und Abwasserwirtschaft.

  • Wege zur Schwammstadt
  • Neue EU-Richtlinie gibt Marktimpulse
  • Digitale Transformation gestalten

Die Umwelttechnologiemesse IFAT Munich wird vom 13. bis 17. Mai 2024 erneut zeigen, welche Herausforderungen und Marktimpulse die internationale Wasser- und Abwasserwirtschaft derzeit bewegen. Zu den diesjährigen Leitthemen der Münchner Branchenschau gehören die Anpassungen an die Folgen des Klimawandels. Im Veranstaltungsprogramm der Messe finden sich dazu gleich mehrere Termine, die Teilaspekte aus dieser drängenden gesellschaftlichen Aufgabe aufgreifen. Beispielsweise richten die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfälle e.V. (DWA), der Deutsche Städtetag, der Deutsche Städte- und Gemeindebund, der Deutsche Landkreistag, der Deutsche Verein des Gas- und Wasserfaches (DVGW) und der Verband kommunaler Unternehmen am 16. Mai ab 09:30 Uhr den „Tag der resilienten Kommunen“ aus. Dessen Vorträge und Podiumsdiskussionen finden auf der Blue Stage – einer Bühne eigens für Wasserthemen – in der Halle B2 statt.

Bausteine für Schwammstädte

Für mehr Klimaresilienz sind Städte und Gemeinden unter anderem aufgefordert, mit den Auswirkungen von zunehmenden und verschärften Trockenphasen und Starkniederschlägen zurechtzukommen. Ein hoffnungsvolles Konzept hierfür ist die wasserbewusste Stadt, auch als Schwammstadt bezeichnet. Für deren Umsetzung liefern IFAT-Aussteller hilfreiche Bausteine. Beispiele sind die Baumrigole ViaTree der Mall GmbH aus Donaueschingen, das Rigolensystem EcoBloc der Otto Graf GmbH aus Teningen und die Regenwasserbehandlungsanlage Stormclean der ACO GmbH aus Büdelsdorf.

Europäische Kommunalabwasserrichtlinie umsetzen

Eine bedeutende marktgestaltende Wirkung können ferner neue gesetzliche Vorgaben haben – namentlich auf EU-Ebene. Ein aktuelles Beispiel ist die Europäische Kommunalabwasserrichtlinie. Diese wurde nach über 30 Jahren umfassend überarbeitet, der Kompromiss aus Brüssel liegt nun vor. „Die dabei vorgesehenen Veränderungen werden einen erheblichen Einfluss auf die Abwasserbehandlung in Europa haben, insbesondere für die Entfernung von anthropogenen Spurenstoffen, bei der Steigerung der Energieeffizienz und Eigenenergieerzeugung auf kommunalen Kläranlagen oder für die Behandlung von Mischwasser“, betont DWA-Präsident Prof. Dr. Uli Paetzel. Vor diesem Hintergrund veranstaltet die Vereinigung am 14. Mai um 16:30 Uhr auf der Blue Stage eine Session, bei der Entwicklungen und Entscheidungen zur Umsetzung der Kommunalabwasserrichtlinie unter rechtlichen, technischen und betrieblichen Gesichtspunkten erläutert und diskutiert werden.

Auch auf Seiten der Aussteller widmet man sich den anspruchsvolleren Anforderungen. So präsentiert die Huber SE aus Berching unter anderem den neu entwickelten Tuchfilter RotaFilt. Dieser scheidet feine suspendierte Stoffe wie Schlammflocken und Mikroplastik zuverlässig ab und entfernt Phosphor per Flockungsfiltration. Und die ProMinent GmbH aus Heidelberg zeigt, wie Mikroschadstoffe wie Medikamentenrückstände mit Ozon beseitigt werden und wie die Ozonerzeugung mit modularen Anlagen besonders wirtschaftlich betrieben wird.

Wohin führt die Digitalisierung?

Auch in der Wasser- und Abwasserwirtschaft ist die digitale Transformation in vollem Gange. Der Münchner Branchentreff gibt in selten verfügbarer Breite Antworten auf Fragen wie: Wo stehen wir in diesem Prozess? Welche Chancen und Risiken sind damit verbunden? Wohin kann in Zukunft die digitale Reise gehen? Räumlich verdichtet findet sich dieses Fokusthema in der Spotlight Area „Digitalisierung in der Wasserwirtschaft“ am Eingang West des Münchener Messegeländes. Auf dem von der DWA organisierten Sonderausstellungsbereich direkt hinter den Verbändeständen stehen Best-Practice-Lösungen im Mittelpunkt. Unter anderem präsentiert der DVGW dort das Projekt „Quelle der Zukunft. Wasser für Generationen“. Hierbei will die Bodensee-Wasserversorgung mit neuen Anlagen die Trinkwasserversorgung von rund vier Millionen Menschen auch für die nächsten Jahrzehnte sicherstellen. Die Besucherinnen und Besucher können durch Augmented Reality in die Anlagen visuell eintauchen und die Anwendung digitaler Techniken erleben.

Raum für zukunftsweisende digitale Entwicklungen bietet nicht zuletzt die lokale Hochwasser-Frühwarnung. Am Stand des Unternehmens Endress + Hauser aus Weil am Rhein können sich Interessierte dazu über das System Netilion Flood Monitoring informieren. Bei diesem hilft Künstliche Intelligenz, auf der Grundlage von vor Ort durch Pegelmessgeräte sowie Regen- und Bodenfeuchtsensoren erhobenen Daten – verknüpft mit Wettervorhersagen und Informationen zur Geländebeschaffenheit – Hochwasserlagen frühzeitig und präzise einzuschätzen. Digitale Zwillinge gehören zur den Schlüsselkonzepten der Industrie 4.0 – auch in der Wasserwirtschaft. So demonstriert die Siemens AG aus Erlangen auf der Messe ein solches virtuelles Modell, das den gesamten Anlagenlebenszyklus abbildet. Mit diesem lassen sich schlanke Prozesse realisieren – vom Design und Engineering über Betrieb und Instandhaltung bis hin zur Optimierung.

Wassergerechtigkeit für eine harmonischere Welt

Wasser hat auch eine geopolitische Dimension – heute vielleicht mehr denn je. So kann es bei Wassermangel oder ungleicher Verteilung des blauen Goldes zu regionalen oder nationenübergreifenden Spannungen kommen. Faktoren, wie der fortschreitende Klimawandel, die wachsende Weltbevölkerung oder auch kriegerische Auseinandersetzungen, verschärfen die Situation. Im Umkehrschluss hat eine gerechte und nachhaltige Wassernutzung das Potenzial, ein harmonisches Zusammenleben auf allen Ebenen zu fördern. Nicht von ungefähr stand der diesjährige Weltwassertag am 22. März unter dem Motto „Wasser für Frieden“. „Viele Technologien und Systeme unserer Aussteller können als Beiträge zu mehr globaler Wassergerechtigkeit und damit zu mehr Frieden gesehen werden“, sagt Philipp Eisenmann, Exhibition Director der IFAT Munich. Wie zum Beispiel das mobile, palettengroße Wasseraufbereitungssystem PurAID des Herstellers Pureco aus Budpest/Ungarn. Das kostengünstige, modulare System eignet sich für die Wasserversorgung in ländlichen und abgelegenen Gebieten. Es entfernt Arsen, Eisen, Mangan, Ammoniak, Fluor, Bakterien und Viren aus Grundwasser, Brunnenwasser und bereits vorhandenem, aber verschmutztem Netzwasser. Im Veranstaltungsprogramm widmen sich unter anderem die European Water Association (EWA) und die International Water Association (IWA) diesem Themenkreis: Am 14. Mai um 14:30 Uhr organisieren sie gemeinsam auf der Blue Stage die Podiumsdiskussion „Invest in Water – Invest in Security“. „Wir haben internationale Akteure eingeladen, über ihre Maßnahmen und Erfahrungen bei der weltweiten Unterstützung des Wassersektors zu berichten, die darauf abzielen, Sicherheit und Frieden zu fördern“, schildert EWA-General-Sekretär Johannes Lohaus.

 

Weitere Informationen zur IFAT Munich finden Sie auf:  www.ifat.de

 

Aufmacherbild: Bild von kalhh auf Pixabay

 

 

Kommunikationslücken zwischen CISO und Top-Management

Unternehmen fokussieren sich zunehmend auf Cybersicherheit – Zugleich zeigt Studie von FTI Consulting erhebliche Kommunikationslücken zwischen Chief Information Security Officer (CISO) und Top-Management auf 

Fehlende Kommunikation als Risikofaktor: In Führungsetagen geht mehr als jeder dritte Befragte davon aus, dass Cybersicherheits-Verantwortliche ihr Top-Management über potenzielle Schwachstellen nur zögerlich informieren

Zwischen Top-Management und Cybersicherheits-Verantwortlichen in Unternehmen klafft eine potentiell riskante Kommunikationslücke – trotz breiter Einigkeit über die steigende Bedeutung von Cybersicherheit. Das zeigt die heute von FTI Consulting veröffentlichte Studie CISO Redefined – Navigating C-Suite Perceptions & Expectations.

Angesichts einer sich rasch entwickelnden Risikolandschaft, neuer gesetzlicher Vorschriften und erhöhter öffentlicher Aufmerksamkeit investieren Top-Manager vermehrt in Cybersicherheit. Zugleich sind viele aber der Meinung, dass ihre CISOs wichtigen, sicherheitsrelevanten Kommunikationsanforderungen nicht gerecht werden.

„Keine Frage, Top-Management und CISOs sind sich der Bedeutung von Cybersicherheitsrisiken bewusst“, sagt Meredith Griffanti, Global Head of Cybersecurity & Data Privacy Communications bei FTI Consulting. „Dennoch müssen Unternehmen noch mehr tun, damit Manager und CISOs auch die gleiche Sprache sprechen.“

Im Rahmen der CISO-Studie wurden knapp 800 C-Level-Manager aus neun Ländern und sieben Industrien befragt. Der Studie zufolge wünschen sich nahezu die Hälfte (45%) der befragten deutschen Führungskräfte von ihren CISOs die Fähigkeit, Fachjargon in verständliche Sprache zu übersetzen. Die Risiko-Dimension verdeutlicht ein weiteres Ergebnis der Studie: Darin gaben nur 2% der befragten deutschen CISOs an, dass ihre Unternehmen in den vergangenen zwölf Monaten keinen Cyberangriff erlebt hatten.

„Sicherheit ist das gemeinsame Ziel von CISOs und Top-Management. Doch unsere Studie zeigt, dass sie häufig aneinander vorbei kommunizieren“, sagt Hans-Peter Fischer, Senior Managing Director und Leiter des Bereichs Cyber Security bei FTI in Deutschland. Schließlich spricht der CISO einen Fachjargon, den die Führungsebene und der Vorstand oft nicht verstehen. So entsteht leicht ein endloser Kreislauf, in dem der CISO versucht, die Dinge einfacher – oder besser – darzustellen, als sie tatsächlich sind. „Das wiederum kann dazu führen, dass zum einen CISOs ihr Management von gewissen Investitionen nicht oder nur schwer überzeugen können. Und zum anderen der Vorstand kein genaues Bild hat, wo das Unternehmen am anfälligsten ist,“ so Hans-Peter Fischer weiter. Die Schulung der Präsentations- und Kommunikationsfähigkeiten von CISOs ist somit von entscheidender Bedeutung für ein gemeinsames Verständnis und die richtige Priorisierung von Cybersicherheitsthemen im Unternehmen. Neben einem besseren Verständnis wünschen sich deutsche Vorstandsvertreter aber auch eine bessere Verankerung des Themas in der Unternehmenskultur, um Risiken im Bereich Informations- und Cybersicherheit zu reduzieren. So sehen 28% der Befragten in Deutschland Trainingsbedarf zur Frage, wie eine proaktive und adaptive Cybersicherheits-Kultur geschaffen werden kann.

Die befragten deutschen Unternehmen besorgt am meisten das unzureichende Verständnis von Informationssicherheits- und Cybersicherheitsrisiken der Mitarbeiter (45%). Die Schwierigkeit, die richtigen Talente im Bereich Cybersicherheit und Datenschutz zu finden (41%) rangiert auf Rang 2 der Sorgen-Skala.

Der Studie zufolge sind 94 % der befragten Top-Manager der Meinung, dass das Thema Cybersicherheit in den letzten 12 Monaten an Bedeutung gewonnen hat. Bei der Mehrheit genießt Cybersicherheit eine hohe Priorität. Das Top-Management stellt finanzielle Mittel bereit, um dieser neuen Realität Rechnung zu tragen. Durchschnittlich wollen sie Cybersicherheitsbudgets in den kommenden ein bis zwei Jahren um etwa ein Viertel (23%) und in den nächsten drei bis fünf Jahren um mehr als ein Drittel (36%) erhöhen.

Die zentralen Ergebnisse der „CISO Redefined“-Reihe bestätigen eine Kommunikations-lücke zwischen Top-Management und CISOs: 

  • Bemerkenswerte 66% der CISOs sind der Meinung, dass die oberste Führungsebene Schwierigkeiten hat, ihre Rolle innerhalb des Unternehmens vollständig zu verstehen. 31% der C-Level-Führungskräfte wiederum haben Schwierigkeiten, den konkreten Nutzen von Cyber-Investitionen nachzuvollziehen.
  • Während 82% der CISOs ein Bedürfnis verspüren, die Sachlage gegenüber dem Vorstand besser darzustellen, glauben 31% der Top-Manager, dass ihre CISOs ein positiveres Bild zeichnen, als es der Wirklichkeit entspricht. 30% denken, dass die CISOs sich nur zögerlich über Sicherheitsbedenken äußern.
  • Was interne Abstimmungen betrifft, bestätigen 58% der CISOs, dass es ihnen schwer fällt, den Fachjargon für die Führungsebene verständlich zu übersetzen. 28% der Top-Führungskräfte sind der Studie zufolge zugleich der Meinung, dass es ihre CISO vor Herausforderungen stellt, technische Begriffe in betriebswirtschaftliche Begriffe zu übersetzen. 30% berichten von diesem Problem, wenn CISOs Cyber-Risiken in finanziellen und materiellen Kategorien verständlich machen sollen.
  • 98% der befragten Top-Manager sprechen sich dafür aus, mehr Mittel für Kommunikations- und Präsentationstrainings für CISOs bereitzustellen, wobei fast die Hälfte diesen Bedarf als dringend bezeichnet.

„Klare, offene Kommunikation im Führungskreis ist ein Muss für jedes Unternehmen, um die gestiegenen Risiken im Bereich der Cybersicherheit angemessen zu bewerten und sich dagegen zu schützen,“ sagt Oliver Müller, Senior Managing Director und Leiter des Bereichs Krisen-, Litigation- und Cybersicherheitskommunikation bei FTI Deutschland. „Wenn Führungskräfte keinen Einblick in die Bedrohungen haben, mit denen sie konfrontiert sind, verpassen Unternehmen die Möglichkeit, die richtigen Ressourcen einzusetzen, um ihre Widerstandsfähigkeit und Abwehrbereitschaft zu maximieren.“

Die vollständige Untersuchung können Sie hier herunterladen:

https://fticommunications.com/ciso-redefined-navigating-c-suite-perceptions-and-expectations/

 

Methodik der Umfrage

FTI Consulting’s Digital & Insights Practice führte im November 2023 eine Online-Umfrage unter 787 C-Suite-Führungskräften in Organisationen mit mehr als 500 Mitarbeitern aus den Schlüsselindustrien von FTI durch, welche Unternehmen mit einem Gesamtumsatz von 21,5 Billionen US-Dollar und 3,69 Millionen Mitarbeitern weltweit repräsentieren.

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay

Neue nachhaltige Ideen…

Der nachhaltige Boom des globalen Batteriemarktes geht weiter, denn die ganze Welt braucht mobile Energie und Speicher. Allein zwischen 2020 und 2030 wird sich die Nachfrage mehr als verachtzehnfachen, mit einem jährlichen Wachstum von 34 %. Der Hauptgrund für diese Entwicklung ist die Umstellung der Automobilindustrie auf batterieelektrische Fahrzeuge. Dabei greifen rund 80 % der Hersteller auf Lithium-Ionen-Batterien zurück. Zu diesen Ergebnissen kommt die Publikation „Battery Monitor 2023“ von Roland Berger und der RWTH Aachen. Um der langjährigen Erfahrung asiatischer Fabriken entgegenzuwirken, haben in den vergangenen Jahren innovative Produkt- und Prozesstechnologien im Batteriesektor an Bedeutung gewonnen. Infolgedessen ist ein zunehmender Trend zu Patenten aus den USA und Europa festzustellen. Besonders im Bereich der Fertigungstechnologien sind diese Innovationen relevant. Den Unternehmen muss ein erfolgreicher Spagat zwischen einer effizienten, vergleichsweise kostengünstigen und einer nachhaltigen Batterieproduktion gelingen. Nur so können sie mittelfristig in diesem dynamischen Markt ihre Position sichern. Laut der Untersuchung stehen im Fokus der aktuellen Entwicklungen vor allem technische Innovationen für eine effizientere Produktion und alternative Batteriematerialien.

Genau hier setzt auch die innovative Batterietechnologie des Joint-Ventures von Altech Advanced Materials und dem Fraunhofer-Institut IKTS an. Die neue Festkörperbatterie für den stationären Betrieb „Cerenergy“ geht gerade in die Kommerzialisierung. Die neuartige Batterie ist frei von kritischen Rohstoffen wie Kobalt, Grafit und Lithium und benötigt auch kein Kupfer. „Unsere Batterie ist aufgrund der Leistungsfähigkeit, Langlebigkeit und Sicherheit perfekt für den stationären Einsatz in Stromnetzen, bei erneuerbaren Energien und in der Industrie geeignet und besteht lediglich aus Kochsalz, Keramik und Nickel. Sie ist nicht brennbar und behält ihre volle Leistung über den gesamten Lebenszyklus von über 15 Jahren“, erklärte Uwe Ahrens von Altech Advanced Materials im Gespräch mit unserer Redaktion.  In diesem Kontext sind quasi Netzspeicherbatterien der Missing Link der Energiewende. Doch es gibt laut Ahrens noch weitere Einsatzfelder, Stichwort E-Mobilität: Wenn jetzt begonnen wird, LKW-Flotten zu elektrifizieren, müssen diese auch schnell geladen werden, ohne dass die Netze bei den Speditionen und den Autohöfen in die „Knie gehen“, da diese nicht in der Lage sind, eine so große Menge Strom in kurzer Zeit zu leiten. „Unsere Batterie ist für diesen Anwendungsfall prädestiniert. Da sie nicht brennbar ist, kann sie ohne sonst erforderliche Sicherheitsabstände in die bestehende Tankinfrastruktur integriert und für die entsprechende Ladeinfrastruktur für den Schwerlastverkehr genutzt werden.“ Mit Blick auf den Klimawandel und die damit verbundene Energiewende, werden in den nächsten Jahren viele globale Herausforderung auf die Gesellschaften zukommen. Einen gemeinschaftlichen und innovativen Weg bietet die All Electric Society Alliance, die sich als Forschungsallianz die Sensibilisierung der Gesellschaft im Kontext der Energiewende und der All Electric Society (AES), auf die Fahne geschrieben hat.

Dazu erklärte uns Prof. Dr.-Ing. Mirko Bodach von der Westsächsischen Hochschule Zwickau: „Die Allianz ist eine offene Anlaufstelle für die All Electric Society. Egal ob Kommune, KMU, global Player, NGO, Energieversorger oder Forschungseinrichtung: Jeder ist eingeladen, mitzuwirken und seine Expertise einzubringen. Denn nur wenn alle an einem Strang ziehen, ist die Realisierung der AES und somit die Bewältigung des Klimawandels möglich.“ Laut Prof. Bodach ist eine fundamentale Grundlage für eine solche Transformation die interdisziplinäre Zusammenarbeit: „Damit meine ich nicht, dass sich unterschiedliche Fachdisziplinen mal eben kurz unterhalten. Es braucht eine tiefgreifendere, verwobene Bearbeitungsstruktur. Nur, wenn alle betreffenden Akteure gemeinsam agieren, kann eine CO2-neutrale Energieversorgung erreicht werden.“ In diesem Kontext stellen sich momentan viele Unternehmen aus energieintensiven Branchen die Frage, wie die Klimaziele der Bundesregierung und der EU erreichbar sind.

Die Energiewirtschaft zum Beispiel, steht vor der enormen Herausforderung, die Energiewende nachhaltig zu finanzieren und gleichzeitig die Versorgungssicherheit aufrechtzuerhalten. Laut einem aktuellen Positionspapier des Verbands kommunaler Unternehmen sowie von Deloitte und dem Bundesverband der Energie- und Wasserwirtschaft sind Investitionen im Energiesektor von geschätzt 600 Milliarden Euro erforderlich, um die ambitionierten Ziele der Bundesregierung für das Jahr 2030 zu erreichen. Diese Summe wird bis 2045 voraussichtlich auf mindestens eine Billion Euro ansteigen. Damit geraten die Finanzierungsmöglichkeiten an ihre Grenzen, auch im Hinblick auf die Inflationstendenzen und die aktuelle Zinssituation. Unternehmen müssen sich darauf einstellen, verschiedene Finanzierungsinstrumente und Investorengruppen zu orchestrieren. Sowohl auf der Kapital suchenden als auch auf der Kapital gebenden Seite wird die Finanzierung der Energiewende neue Kompetenzen und einen Kulturwandel abverlangen – unter anderem müssen die Akteure ins Finanzmarkt- und ESG-Reporting einsteigen. Wenn also der Ausbau der erneuerbaren Energien, und der Netzinfrastruktur, der Einstieg in die Wasserstoffwirtschaft, die Dekarbonisierung der Wärmeerzeugung sowie die Umgestaltung des Verkehrssektors gelingen sollen, müssen mehr Anreize, Verlässlichkeit und Sicherheiten für alle Beteiligten von der Bundesregierung geschaffen werden. „Um die Transformation insbesondere in den industriellen Sektoren zu unterstützen, sind zum Beispiel sogenannte Carbon Contracts for Difference (CCfD) geplant. Die Bundesregierung arbeitet an entsprechenden Gesetzesvorhaben. Gerade in der Anlaufphase sollen sie das Unternehmensrisiko von Investitionen in treibhausgasarme Produktionsverfahren mindern“, erklärte in diesem Kontext Wolfgang Vitzthum, Director ‚ESG & Sustainable Finance Solutions’, von der Commerzbank. CCfD sind Klimaschutzverträge zwischen Staat und Unternehmen der energieintensiven Industrie. Mit ihnen sollen die Mehrkosten klimafreundlicher Produktionsverfahren gegenüber herkömmlichen Verfahren ausgeglichen werden. Die Energiewende wird ohne eine Beteiligung von uns Bürgern nicht möglich werden. Investitionen in die Sanierung und Wärmedämmung von Gebäuden mit umweltfreundlicher Energie stellen aber jetzt schon viele Familien und Hausbesitzer vor große Probleme. Ab März 2024 hilft nun auch die Bundesregierung mit der Heizungsförderung für Privatpersonen durch die KFW. Ein weiterer wichtiger Baustein für die Energiewende sind Energiegemeinschaften. Innerhalb von Energiegemeinschaften sollen Bürgerinnen und Bürger Strom und Wärme gemeinsam erzeugen, speichern, handeln und nutzen. Dahinter steht eigentlich der Grundgedanke der Genossenschaften und diese haben sich schon beim Ausbau erneuerbarer Energien bewährt. Dass, Energiegemeinschaften en Vogue sind, bestätigt auch Simon Bartmann Co-CEO von Bullfinch. „Hier sehen wir die Zukunft des Marktes und wollen Milliarden in diese Infrastruktur investieren – vergleichbar mit Investitionen in Glasfaser, 5G oder regionale Kraftwerke. Wir verstehen es als unsere Aufgabe die Infrastruktur zur Verfügung zu stellen. Gemeinsam mit unseren Partnern haben wir die Projektgesellschaft Solarausbau Deutschland gegründet. In den ersten Regionen, wie Norddeutschland, bauen wir bereits erfolgreich die Energie-Infrastruktur der Zukunft. Mit unseren Service Points  u. a. in der Stadt Varel rollen wir die  Projekte lokal mit hoher Qualität aus.“ Bullfinch begleitet Stadtwerke, Energie-Dienstleister und Installateure beim Einbau und bei der Finanzierung von Solaranlagen, Speichern und Wärmepumpen. Es fehlt vor allem noch an einem gesetzlichen Rahmen, der die Gründung und den Betrieb von Energiegemeinschaften in Deutschland ermöglicht. Wer wissen möchte, wie Energiegemeinschaften funktionieren, kann einen Blick nach Österreich werfen, dort sind die wichtigsten Fragen schon geklärt.

 

Autor: Bernhard Haselbauer

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

Aufmacherbild/Quelle/ Lizenz
Quelle: Istock_gremlin

Zero Trust, viel mehr als nur Identität!

Ilona Simpson, CXO Advisor bei Netskope, schreibt über den Zero-Trust-Ansatz und wie  Unternehmen damit Daten nachhaltig schützen und zu mehr Sicherheit gelangen.

 

Zero Trust ist das neueste Schlagwort in der Cybersicherheit. Obwohl sich der Staub gelegt hat, mangelt es immer noch an einer einheitlichen Vorstellung davon, was jeder unter dem Begriff versteht. Während der Konsens weitgehend positiv ist, dass ein Zero-Trust-Ansatz der richtige Weg ist, um ein Unternehmen und seine Daten zu schützen, gibt es immer noch viele Unklarheiten darüber, wie ein solcher Ansatz aussieht.

Insbesondere scheint es mir zwei grundsätzliche Missverständnisse zu geben. Das erste ist, dass Zero Trust etwas ist, das man kaufen kann. Zero Trust ist keine Software, Hardware oder Cloud-Anwendung, es ist ein Ansatz, ein Ethos. Um eine Zero-Trust-Strategie zu erreichen, arbeiten Sie am besten mit Partnern zusammen, die diese grundlegende Nuance richtig verstehen. Das zweite Missverständnis besteht darin, dass Zero Trust nur die neueste Art ist, die Identitätsmanagementkomponente eines Sicherheitsstapels zu bezeichnen.

Es besteht kein Zweifel daran, dass Identität ein grundlegender Bestandteil eines effektiven Zero-Trust-Ansatzes ist, aber es besteht auch die Gefahr, dass sich Unternehmen so sehr auf dieses eine Element konzentrieren, dass sie vergessen, dass es noch andere gibt.
Diese Fehleinschätzung kann zu potenziellen Schwachstellen führen, die wiederum zu schwerwiegenden Cybersecurity-Ereignissen führen können – genau die Art von Ereignissen, die das Unternehmen durch die Einführung von Zero Trust von vornherein zu vermeiden versuchte.

Seit vielen Jahren nutzen Unternehmen die Multi-Faktor-Authentifizierung (MFA), um den Schutz sensibler Daten zu gewährleisten. Die Bedrohungslandschaft entwickelt sich jedoch weiter und einige Experten schätzen inzwischen, dass bis zu 70 % der MFA-Optionen durch Social Engineering und Phishing gehackt werden können. Die Identität ist wichtig, aber es wird immer unzuverlässiger, sich auf sie als Hauptdeterminante in einer Sicherheitsrichtlinie zu verlassen. Außerhalb der Welt der Cybersicherheit würden wir unser Vertrauen nicht auf der Grundlage einer einzigen Beurteilung in jemanden setzen. Vertrauen ist ein vielschichtiger Prozess, der im Laufe der Zeit aufgebaut werden muss. Ebenso muss es mehrere Formen der Verifizierung geben, um Zero Trust zu erreichen. Zero Trust muss mit der Annahme beginnen, dass Ihr System kompromittiert werden kann und wird. Je mehr Schutzmaßnahmen ergriffen werden, desto mehr Vertrauen können wir in sie setzen. Entscheidend ist jedoch, dass ein einziger Punkt zur Durchsetzung von Richtlinien verwendet wird, um den Datenverkehr zu kontrollieren, der von diesen verschiedenen Maßnahmen ausgeht.

Ilona Simpson über „Zero Trust“

Echtes Zero Trust wird nur erreicht, wenn ein Unternehmen einen integrierten, ganzheitlichen Ansatz verfolgt, der jeden Berührungspunkt, Benutzer und jedes Gerät berücksichtigt. Wichtig ist, dass Vertrauensentscheidungen auf der Grundlage dieser detaillierten Erkenntnisse ständig angepasst werden. Durch die Einbeziehung aller acht Elemente in ihren Zero-Trust-Ansatz (einschließlich Identität) können Unternehmen mit weitaus größerem Vertrauen operieren. Damit wird Sicherheit zu einem echten Faktor, der Innovationen  und Anpassungen an die Anforderungen des Unternehmens ermöglicht, sei es die Einführung neuer Anwendungen, die Integration von KI, die Expansion in neue Märkte oder die Förderung von Hybridarbeit.

 

 

Die Identitätsauthentifizierung ist eine der ersten und am häufigsten verwendeten Maßnahmen für Zero Trust und sollte ein Kernstück jeder Strategie sein. Es gibt sieben weitere Elemente, die Unternehmen in die Durchsetzung ihrer Richtlinien einbauen sollten, um eine wirklich sichere, robuste Zero-Trust-Infrastruktur zu gewährleisten:

  1. Gerät

Es kommt nicht nur darauf an, welches Gerät Sie verwenden. Auch ein vollständig authentifizierter Benutzer auf einem kompromittierten Gerät stellt ein Sicherheitsrisiko dar. Zero Trust sollte Firmen- und Privatgeräte unterscheiden und den Gerätezustand, Patch-Level und Sicherheitskonfigurationen prüfen, bevor Zugriff gewährt wird.

  1. Standort

Mit hybrider Arbeit sollten Unternehmen damit rechnen, dass Nutzer versuchen, von verschiedenen Standorten aus auf Daten und Hardware zuzugreifen.

  1. App

Sicherheitsteams sollten bestimmte Apps für die Nutzung im Unternehmen überprüfen und genehmigen und ggf. erweiterte Kontrollen und/oder Beschränkungen für nicht genehmigte Anwendungen einführen, um einen möglichen Datenverlust zu verhindern.

  1. Instanz

Viele Unternehmen erlauben ihren Mitarbeitern die Nutzung ihrer persönlichen Cloud-Anwendungen, etwa persönliche Instanzen von Microsoft 365. Dies kann jedoch zu Problemen führen, insbesondere wenn vertrauliche Unternehmensdaten in einer persönlichen App freigegeben werden. Daher sollte auch jede Instanz jeder App verstanden werden.

  1. Aktivität

Zero Trust erstreckt sich darauf, wie Anwendungen miteinander interagieren und wie sie auf Daten zugreifen. Selbst innerhalb der Sitzung eines einzelnen Benutzers sollten die Aktionen, die eine Anwendung im Namen dieses Benutzers durchführt, einer genauen Prüfung unterzogen werden.

  1. Verhalten

Die Identität kann den Nutzern den Erstzugang gewähren, das Verhalten danach sollte kontinuierlich überprüft werden (unter sorgfältiger Beachtung des Datenschutzes der Mitarbeiter). Wenn ein Mitarbeiter (oder eine Organisation) plötzlich auf große Datenmengen zugreift oder sensible Dateien herunterlädt, sollten die Alarmglocken läuten, selbst wenn der Benutzer ursprünglich authentifiziert war.

  1. Daten

Das Herzstück von Zero Trust sind Daten – es geht darum, die Integrität und Vertraulichkeit der Daten zu gewährleisten. Das bedeutet, Daten im Ruhezustand und bei der Übertragung zu verschlüsseln und dass Datenzugriffsmuster auf Anomalien überwacht werden müssen.

https://www.netskope.com/de/

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Sicherer und verantwortungsvoller Einsatz von KI

Im Interview erklärt  Philipp Adamidis,  CEO und Mitgründer von QuantPi, wie seine Plattform den sicheren, verständlichen und effizienten Einkauf sowie Einsatz von KI für Organisationen ermöglicht.

 

Herr Adamidis, wie wird aus KI eine vertrauenswürdige KI?

Damit KI vertrauenswürdiger wird, müssen wir sie vor allem verständlich und nachvollziehbar machen. Stellen Sie sich etwa eine KI-gestützte App vor, die Hautkrebs erkennt. Vertrauen entsteht, wenn unter anderem Nutzer wissen, woher die Trainingsbilder stammen, z. B. von Dermatologen, und dass sie vielfältig sind –verschiedene Hautfarben, Alter– etc. Zudem sollte die App erklären, warum sie ein Bild als verdächtig einstuft, z. B. wegen unregelmäßige Form“. Und natürlich muss die App gründlich getestet und laufend überwacht werden, um Fehlfunktionen zu erkennen. Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.

Wie funktioniert in diesem Kontext Ihre „AI Trust Platform“?

Unsere Plattform ermöglicht den sicheren, verständlichen und effizienten Einkauf und Einsatz von KI für Organisationen. Sie verbindet KI-Governance-, Compliance- und technische Tests, um eine ganzheitliche und hochautomatisierte Lösung anzubieten, die die Leistung von KI-Systemen nachvollziehbar validiert – ohne dabei geistiges Eigentum oder private Daten offenlegen zu müssen!

Welche Vorteile haben Ihre Kunden davon?

Unsere Kunden profitieren in erster Linie davon, dass im Unternehmen eingesetzte KI-Systeme einheitlich überprüft werden, um einen hohen Qualitätsstandard zu gewährleisten. Somit lassen sich finanzielle, rufschädigende und rechtliche Risiken vermeiden, die durch KI-Systeme verursacht werden könnten. Zusätzlich zur Sicherstellung der Leistung und Einhaltung von Standards im großen Maßstab ermöglicht unsere Testtechnologie auch, dass KI-Experten ihre knapp bemessenen Ressourcen für anspruchsvolle Aufgaben und Innovationen nutzen können, statt für zeitaufwendige Tests.

Wie setzen Sie die Fördergelder des Europäischen Innovationsrats (EIC) ein?

Mit dem Fördergeld erweitern wir unsere KI-Testtechnologie und bauen die erste automatisierte Risikomanagement-Plattform für generative KI-Systeme, welche die Umsetzung von Verordnungen wie dem EU AI Act erleichtern wird. Da die technologische Entwicklung auf diesem Gebiet besonders rasant voranschreitet, müssen auch wir unsere Testtechnologie stetig erweitern. Wir sind fest davon überzeugt, dass wir mit unserer Lösung einen wichtigen Beitrag zur flächendeckenden Nutzung von KI leisten werden. Denn nur wenn KI sicher und verständlich ist, wird sie auf die breite Akzeptanz der Gesellschaft stoßen und unser Zusammenleben in Zukunft bereichern.

Herr Adamidis, welche Risiken entstehen bei der Vernachlässigung von Vertrauenswürdigkeit und Governance bei KI-Projekten?

Wie vorhin angesprochen, können enorme finanzielle, rufschädigende und rechtliche Risiken entstehen, wenn KI-Projekte Vertrauenswürdigkeit und Governance vernachlässigen. Viele Banken führen die KI-Revolution an, daher nehmen wir mal ein KI-gestütztes Kreditantragsverfahren als Beispiel. Versäumt man es, umfassende Tests und Governance-Praktiken in die Implementierung einzubeziehen, kann dies beispielsweise dazu führen, dass einzelnen Personen aufgrund von Merkmalen wie ihrer ethnischen Zugehörigkeit oder Wohnort schlechtere Bonitätsbewertungen zugewiesen werden, obwohl ihre finanzielle Lage stabil ist. Dies kann zu Klagen, Geldstrafen und Reputationsschäden führen – das Problem ist, dass die KI eine Blackbox ist und Unternehmen ohne ausführliche Tests und Übersichten möglicherweise gar nicht wissen, welche schlechten Praktiken sie anwenden.

Wo liegen die Herausforderungen die Black Boxes der KI transparent zu gestalten?

KI verknüpft Millionen von Parametern miteinander und macht es somit extrem schwierig, ihre Entscheidungsprozesse nachzuvollziehen. Angesichts der Komplexität sind Tests unglaublich zeitaufwendig und rechenintensiv. Da beide Ressourcen begrenzt und teuer sind, fällt es Unternehmen verständlicherweise schwer, das Thema Transparenz auf angemessene Weise anzugehen. Das Fehlen standardisierter Testmethoden trägt zudem dazu bei, dass es nahezu unmöglich ist, die wahren Fähigkeiten und Grenzen von KI-Lösungen zu beurteilen. Wenn es um den Kauf einer KI-Lösung geht, behaupten viele Anbieter, dass sie die relevanten Dimensionen getestet haben, aber mit welchen Daten und unter Berücksichtigung welcher Werte oder ethischen Grundsätze? Mit QuantPi arbeiten wir an der Lösung dieser Probleme. Wir beteiligen uns an der Entwicklung von Standards, wie z. B. der DIN SPEC 92001-3 über erklärbare KI, die agnostisch angewendet werden können und eine vergleichbare Basis für Transparenz schaffen  und wir ermöglichen es Unternehmen, Tests selbst effizienter und übersichtlicher durchzuführen.

 

 

 

 

Philipp Adamidis betont: „Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.“

 

 

 

 

 

 

 

 

 

 

Nach welchen Kriterien wird getestet?

Um eine verantwortungsvolle und vertrauenswürdige KI zu gewährleisten, legen wir den Schwerpunkt auf diverse Tests in den Dimensionen wie Bias, Robustheit, Erklärbarkeit und Datenqualität. Für regulierte Branchen oder Anwendungen bieten wir außerdem die Prüfung von KI-Systemen anhand relevanter Verordnungen und Standards an.

Wir nehmen diese Standards, wandeln sie in einen testbaren Katalog von Anforderungen (sowohl quantitativ als auch qualitativ) um und ermöglichen es Unternehmen, ihre Compliance- oder Qualitätssicherungsprozesse für KI-Systeme zu skalieren. Kunden können so die für sie relevanten Compliance-Anforderungen auswählen, z. B. den EU AI Act oder bestimmte ISO-Normen oder auch ihre eigenen Ethikrichtlinien mit unserer Plattform prüfen lassen.

Welche Möglichkeiten bieten Sie Ihren Partnern?

Unsere Partner, so wie unsere direkten Kunden, erhalten einen umfassenden und technisch validierten Einblick in die Risiken, Nutzen und den Compliance-Status von ihren KI-Systemen.

Da unsere Partner oft über fundierte Branchenkenntnisse verfügen, sind Sie in der Lage, mit uns Ihr volles Potenzial auszuschöpfen. Das ermöglicht Ihnen, Ihre Kunden bei wichtigen Entscheidungen zu unterstützen und ganzheitliche Angebote im Bereich der KI-Governance anzubieten. Manche Partner erstellen auch eigene KI-Assessments und skalieren den Inhalt dieser durch unsere technischen KI-Tests. Hinzu kommen Zertifizierungs- und Auditpartner, die z.B. unsere Platform nutzen, um einheitliche Nachweise zu Prüfungen konkreter KI-Systeme zu erhalten. Während Anwendungsfälle unserer Technologie und die Darstellungsformen der Testergebnisse von Partner zu Partner unterschiedlich sind, sorgen diese grundsätzlich für die Beschleunigung einer verantwortungsvollen KI-Transformation von Unternehmen.

Herr Adamidis, was haben Sie sich mit QuantPi zum Ziel gesetzt?

Unsere Vision ist es, der Gesellschaft eine sichere und selbstbestimmte Zukunft mit intelligenten Maschinen zu ermöglichen. Um dies zu erreichen, haben wir uns das 3-Jahres-Ziel gesetzt, führende Unternehmen bei der Entwicklung vertrauenswürdiger und konformer KI zu unterstützen. Warum führende Unternehmen? Weil diese einen immensen Einfluss darauf haben, wie wir unser tägliches Leben gestalten. Wir müssen sicherstellen, dass die Prozesse, die uns umgeben, von Systemen angetrieben werden, die streng validiert und überwacht sind. Unsere Absicht ist es keineswegs, Innovation abzubremsen, sondern ihren Fortschritt auf verantwortungsvolle Weise zu unterstützen.

Bitte gehen Sie kurz auf Ihre Gründungsgeschichte ein.

Während unserer akademischen Laufbahn an der Universität des Saarlandes lernten Artur Suleymanov, Dr. Antoine Gautier und ich uns kennen. Das ist mittlerweile fast 8 Jahre her und von Anfang an waren wir als Technologie-Enthusiasten vom transformativen Potential der KI überzeugt und haben unsere Tage und Nächte mit diesem Thema verbracht.

Unsere Ambition war es, unsere eigene KI zu entwickeln und sie auf dem Markt zu etablieren. Nach den ersten gescheiterten Versuchen, Kunden von der Vertrauenswürdigkeit der KI-Black-Boxen zu überzeugen, hatten wir unseren Aha-Moment und erkannten die Notwendigkeit, dieses Vertrauensproblem auf technologischer Ebene anzugehen.

Als Teil des Ökosystems des weltweit führenden CISPA Helmholtz-Instituts für Cybersicherheit fanden wir die perfekte Umgebung für wegweisende Forschung im Bereich Sicherheit für KI. Schließlich gründeten wir 2020 QuantPi mit dem Ziel, Künstliche Intelligenz auch außerhalb der Forschung vertrauenswürdig zu machen.

www. quantpi.com

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

 

Dekarbonisierung: Kern einer erfolgreichen Strategie für die grüne Transformation

Der Klimawandel ist unumkehrbar, die Klimaziele der EU sind ambitioniert. Gleichzeitig sprechen sich immer mehr Investoren und Konsumenten für mehr Nachhaltigkeit aus. Dies sind die entscheidenden Treiber für die grüne Transformation. Damit Unternehmen diesen Anforderungen zunehmend gerecht werden können, müssen sie ihren Prozessen so viel CO₂ wie möglich entziehen. Dekarbonisierung ist hier das Stichwort. Eine immense Herausforderung für die deutsche Wirtschaft. Die entscheidende Frage für eine erfolgreiche und profitable Zukunft lautet: Wie können Unternehmen das umsetzen und finanzieren?

Net-Zero1 werden, lautet das große Ziel. Aber wo genau sollen Unternehmer ansetzen? Der nachstehende Wegweiser für ein strukturiertes Vorgehen in vier Schritten hilft Unternehmen, die auf sie zurollende Welle der Dekarbonisierung in den Griff zu bekommen.

Schritt 1: Dekarbonisierung zur Chefsache erklären

Nachhaltigkeit ist ein strategisches Top-Thema und damit Chefsache. Denn jetzt werden die Weichen für die grüne Transformation gestellt, die das Geschäftsmodell auf lange Sicht prägen. Um volle Wirkung zu entfalten, muss die CO₂-Reduktion in allen Bereichen und auf allen Ebenen eines Unternehmens gemeinsam angegangen werden. Außerdem kann nur an der Unternehmensspitze entschieden werden, ob und gegebenenfalls welche strategischen Zukäufe für grüne Produktionskapazitäten nötig sind.

Schritt 2: Eine auf Transformationsfinanzierung spezialisierte Bank einschalten

Je früher Unternehmen und Bank gemeinsam Kennzahlen und Ziele für die grüne Transformation festlegen, desto eher besteht Klarheit über den Investitionsbedarf. Dabei sind die Erwartungen des Banken- und Kapitalmarktes mitzuberücksichtigen. Erst wenn Dekarbonisierungs- und Finanzierungsstrategie Hand in Hand gehen, wird Net-Zero zum Erfolgsmodell. Wie in anderen CO₂-intensiven Sektoren ist der Investitionsbedarf zum Beispiel in der Papier- und Verpackungsindustrie enorm. Das liegt an dem hohen Energieverbrauch und der Notwendigkeit, die Produktionsverfahren anzupassen, um CO₂-frei produzieren zu können. Eine solche Transformation kann ein Unternehmen schnell an die Grenzen seiner Verschuldungsfähigkeit bringen. Nur eine Bank, die alle Kapitalmarkt- und Förderinstrumente in die Finanzierungsstrategie integriert, kann einem Unternehmen entscheidende Vorteile sichern. Neben EU-Taxonomie-konformen, grünen und ESG-linked-Finanzierungsinstrumenten bieten sich Bundes- und KfW-Förderung an. Eine gefestigte und vertrauensvolle Beziehung zwischen Bank und Kunde ist an der Stelle insbesondere für Mittelständler entscheidend. Nicht alle sind am Kapitalmarkt aktiv. Deshalb sind hier bilaterale Kredite besonders gefragt.

Schritt 3: Transparenz über den CO₂-Status-Quo schaffen

Ausgangspunkt einer jeden Dekarbonisierungsstrategie ist der CO₂-Fußabdruck des Unternehmens. Das Standardformat, um zunächst den Status Quo abzubilden, ist die CO₂-Bilanz nach Greenhouse Gas Protocol. Sie gibt Aufschluss über die direkten und indirekten Emissionen eines Unternehmens. Damit können für alle Produktionsstandorte und Unternehmensbereiche die einzelnen Teilemissionsmengen berechnet sowie Verantwortlichkeiten von Führungskräften dafür festgelegt werden. Das ist Voraussetzung für Schritt vier.

Schritt 4: Konkrete Maßnahmen anstoßen und dann Stakeholder informieren

Dekarbonisierungs- und Finanzierungsstrategien stehen. Der CO₂-Ausstoß ist bekannt. Jetzt kann die Umsetzung beginnen. Zunächst stehen Energieeffizienzmaßnahmen im Fokus. Ebenso wichtig ist es, die Energieversorgung auf Grün umzustellen und Energie aus nachhaltigen Quellen selbst zu produzieren. Der aufwendigste Teil ist die Anpassung der Produktionsanlagen auf grüne Primärenergie. Nicht zu vermeidende Emissionen können durch ein sogenanntes Offsetting²  ausgeglichen werden. Auch sollten Dekarbonisierungsmaßnahmen in der Lieferkette eingefordert werden. Um die Transformation insbesondere in den industriellen Sektoren zu unterstützen, sind sogenannte Carbon Contracts for Difference³ (CCfD) geplant.  Die Bundesregierung arbeitet an entsprechenden Gesetzesvorhaben. Gerade in der Anlaufphase sollen sie das Unternehmensrisiko von Investitionen in treibhausgasarme Produktionsverfahren mindern. Last but not least sind die Stakeholder zu informieren. Nachhaltigkeit ist Überzeugungsarbeit. Regelmäßige Berichtsformate sind deshalb unerlässlich, um die Glaubwürdigkeit der eigenen Dekarbonisierungsstrategie herauszustellen.

 

Infografik: Dekarbonisierungspfad und -hebel in der Praxi

Fazit

Dekarbonisierungsstrategien entwickeln sich immer weiter. Zur Wahrheit gehört, dass insbesondere energieintensive Branchen bei der Umsetzung an technische Grenzen stoßen werden. Entscheidend ist aber, schon heute anzufangen und das eigene Unternehmen nach Möglichkeiten zu durchforsten, um CO₂ einzusparen. Das Machbare sollte umgesetzt und in der Kapitalstruktur berücksichtigt werden. Das honorieren Investoren, Banken, Geschäftspartner und Kunden. Es gibt keine Zeit zu verlieren. Es ist Zeit, etwas zu bewegen!

 

Jetzt werden die Weichen für die grüne Transformation gestellt, die das Geschäftsmodell auf lange Sicht prägen. Net-Zero werden, lautet das große Ziel. Aber wo genau sollen Unternehmer ansetzen?

 

 

Die Autoren:

Christine Rademacher, Bereichsleiterin Financial Engineering und Mitglied im Board Lending sowie Wolfgang Vitzthum, Director ,ESG & Sustainable Finance Solutions’ bei der Commerzbank, betonen: „Unser Wegweiser für ein strukturiertes Vorgehen in vier Schritten hilft Unternehmen, die auf sie zurollende Welle der Dekarbonisierung in den Griff zu bekommen.“

 

www.commerzbank.com/firmenkunden

 

——————————————————————————————————-

1Netto-Null (Net-Zero) ist strenger als Klimaneutralität. Die Reduktion von CO₂ kommt bei Net-Zero immer an erster Stelle. Ein CO₂-Ausgleich über zertifizierte Klimaprojekte ist nur in Ausnahmefällen möglich.

²Offsetting bedeutet, CO₂-Emissionen durch zertifizierte Klimaprojekte auszugleichen.

³ CCfD sind Klimaschutzverträge zwischen Staat und Unternehmen der energieintensiven Industrie. Mit ihnen sollen die Mehrkosten klimafreundlicher Produktionsverfahren gegenüber herkömmlichen Verfahren ausgeglichen werden. Das erste vorbereitende Verfahren des Förderprogramms wurde von der Bundesregierung am 06. Juni 2023 gestartet.

——————————————————————————————————-

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

Aufmacherbild/Quelle/ Lizenz
Bild von Acton Crawford auf Unsplash

 

Der beste Zeitpunkt mit KI zu starten ist jetzt!

2024 ist das Jahr der Umsetzung von KI. Aber wie nutze ich KI optimal für mein Business? Der Experte und Vordenker Maximilian Vogel erklärt im Interview, welche Chancen KI und ML heute bieten. Und gibt Tipps, wie Unternehmen das Potenzial richtig nutzen, um massive Effizienzgewinne zu erzielen.

 

Herr Vogel, wie kann ich das Potenzial von KI und ML nutzen, im Hinblick auf Effizienzsteigerung und Automatisierung?

KI kann Prozesse in Sales, Logistik, Finanzen oder Marketing weit über 50 % automatisieren, also Effizienzsteigerungen von deutlich über 100 % erreichen. Eine multidimensionale KI besteht aus einzelnen AI-Workern, die komplexe Aufgaben lösen können – also z. B. einen Versicherungsfall von der Einreichung bis zur Regulierung zu bearbeiten. Ein AI-Worker kann einen Task über viele Einzeltätigkeiten und viele Tage hinweg verfolgen: Mails lesen, Schadensbilder bewerten, Informationen aus Datenbanken besorgen und Rückfragen an involvierte Parteien stellen.

Wie setze ich das in die Praxis um? 2023 war das Jahr des Redens über KI. International ist 2024 das Jahr der Umsetzung. In Deutschland verlieren wir uns oft noch in Grundsatzfragestellungen und die alten Kann-ich-, Darf-ich-Diskussionen, anstatt KI zu entwickeln, empirisch zu verproben und aus Ergebnissen zu lernen. Ich empfehle, einen Bereich mit großem Automatisierungspotential zu identifizieren und direkt – alleine oder mit einem Partner – in ein kleines Umsetzungsprojekt zu starten, das bei Erfolg ausgebaut werden kann.

Maximilian Vogel: „Ich empfehle, einen Bereich mit großem Automatisierungspotential zu identifizieren und direkt – alleine oder mit einem Partner – in ein kleines Umsetzungsprojekt zu starten.“

Wie sollten Unternehmen und Manager hier vorgehen?

Ganz einfach:
1. Think Business: Das heißt, eine KI-getriebene Plattform von der Aufgabe, vom Prozess, von Effizienzeffekten heraus zu denken – und nicht von der Technologie her.

2. Start small: Also mit einem Proof of Concept starten, der zu einer Beta ausgebaut werden kann und dann zu einem produktiven System.

3. Vendor lock-in vermeiden: Egal wie gut ein Anbieter ist – die KI-Lösung des Unternehmens sollte so gebaut werden, dass sie diesem gehört. Sie sollte nicht so tief in die Modelle oder Hosting-Lösung des Anbieters integriert sein, dass ein späterer Wechsel sehr schwierig oder unmöglich ist.

Welche KI/ML-Projekte lagen und liegen Ihnen am Herzen?

Ein Herzensprojekt für mich war die Unterstützung von BMW bei der Entwicklung des CarExperts, einer KI-getriebenen Assistentenlösung im Auto, die in der Lage ist, auf Basis von sogenannter Retrieval Augmented Generation die Fragen des Fahrers zu beantworten und mit ihm natürlichsprachliche Konversation zu betreiben.

Ein weiteres Projekt, das wir gemeinsam mit einigen großartigen Partnern realisiert haben: Ein AI-Worker verwaltet Marken, bewertet Konflikte und verteidigt die Marken gegen konkurrierende Markeneinträge. Der AI-Worker führt hier keine Handlangertätigkeit aus, sondern macht eine Arbeit, für die intensive markenrechtliche Vorbildung erforderlich ist. Und tatsächlich hat sich gezeigt: Auch das funktioniert mit KI!

Herr Vogel, welches Mindset sollte ich für das erste Projekt mitbringen und was sollte ich vermeiden?

Alle reden über KI, aber falsche Vorstellungen und Ängste verhindern noch den systematischen Einsatz in vielen Unternehmen. Nahezu jeder hat inzwischen die unglaublichen Fähigkeiten generativer KI-Systeme ausprobiert. In den meisten Unternehmen nutzen Mitarbeiter Plattformen wie ChatGPT – erlaubt oder heimlich – auch für berufliche Tätigkeiten. Dennoch verhindern oft alte Denkmuster einen produktiven Umgang mit neuen Technologien: Wir wissen immer ganz genau, was man nicht darf, was man nicht soll, was problematisch ist und verwenden das als Ausrede dafür, erst einmal nichts zu tun: Datenschutz, sogenannte Halluzinationen oder Bias der Modelle, Qualität und Struktur der unternehmenseigenen Daten. In Wirklichkeit sind diese Fragestellungen für die meisten Business-Anwendungen lösbar bzw. bereits gelöst. Das Wichtigste für ein produktives KI-Projekt ist nicht tiefes Fachwissen im Bereich machine learning – das kann man sich dazu holen – sondern eine Vision, was man erreichen will. Offenheit. Die Bereitschaft, Dinge auszuprobieren; zu lernen; und schnell umzusteuern, wenn sich neue technologische Möglichkeiten bieten oder etwas nicht funktioniert.

OK, und wie starte ich jetzt?

Starten Sie klein, aber so schnell wie möglich – in einem großen Feld, in dem sie später skalieren können, aber mit einer überschaubaren ersten Fragestellung. Gehen Sie bei Erfolg in eine Beta und skalieren sie das Vorhaben dann. Verzetteln Sie sich nicht in umfangreiche Strategieausarbeitung in Bezug auf Technologien, Anwendungsbereiche, Vendoren – die KI-Landschaft ändert sich schneller, als Sie Ihre Folien gerade ziehen können. Verfolgen Sie dennoch ambitionierte Visionen – aber aus einer Business-Sicht. Etwa „Ich möchte im Salesbereich 90 % der kleineren Angebotsanfragen komplett automatisiert bearbeiten lassen, meine Teams sollen nur noch die großen, komplexen und werthaltigen Anfragen manuell bearbeiten.“ Suchen Sie sich Umsetzungspartner – intern oder extern – die ihre Vision teilen.Verbinden Sie – aber nicht gleich am Anfang – die KI-Plattform über Schnittstellen mit Ihren existierenden Systemen. KI kann nicht jeden Edge Case gut bearbeiten – schaffen Sie eine Schnittstelle zu menschlichen Teams für schwer lösbare Fragestellungen.

Inwieweit können Sie Unternehmen bei der Entwicklung neuer ML & KI Strategien und Lösungen unterstützen?

Wir unterstützen seit fünf Jahren Großunternehmen und große Mittelständler bei der Entwicklung KI-getriebener Lösungen. Das sind einerseits Conversational AI Systeme, die auf Basis von generativer KI mit Nutzern kommunizieren können. Auf der anderen Seite sind es Automatisierungslösungen auf Basis multidimensionaler KI, also AI-Worker, die einen großen Task teilweise über Tage und viele Interaktionsschritte fallabschließend bearbeiten können.

Wir unterstützen unsere Kunden und Partner hauptsächlich in der Konzeption der Lösung, der Modell- und Framework-Auswahl, der Entwicklung, dem Prompt Engineering, der Anbindung an Schnittstellen und in MLOps und technischem Betrieb der Lösung. Für Fragestellungen der Hardwareintegration haben wir Partner.

Gibt es aktuelle Beispiele?

Neben den beiden oben genannten vielleicht noch zwei: Wir entwickeln für das Startup Adele eine KI-getriebene Lösung, die ältere und pflegebedürftige Patienten betreut. Und wir bauen aktuell für ein großes Road-Logistikunternehmen eine multidimensionale Worker-AI, die auf Kundenanfragen eigenständig Angebote erstellt.

Was bedeutet KI/ML und nachhaltige Entwicklung für Sie?
Welche Bedeutung haben die neuen Technologien Rund um KI/ML im Hinblick auf die nachhaltige Entwicklung von Unternehmen und Gesellschaft?

Für eine Green AI müssen wir einerseits den riesigen Fußabdruck der Modelle in Training und Inferenz verringern. Kleinere, effizientere Modelle sind hier eine Lösung. Auf der anderen Seite kann uns KI massiv dabei unterstützen, Ressourcen effizienter zu nutzen: Licht oder Heizung nur anzuschalten, wenn sie gebraucht wird, Sekundärrohstoffe zu trennen, etc.

Inwieweit werden die neuen Technologien unsere Wirtschaft und unseren Standort verändern?

Die generative KI und hier vor allem die multidimensionalen Worker werden weltweit zu massiven Effizienzgewinnen auch im Bereich der intellektuell anspruchsvollen Tätigkeiten führen. Die Mehrzahl der Firmen in Deutschland ist im Moment noch zögerlich – aber es gibt auch hier eine Reihe von Unternehmen, die das Thema ernsthaft, visionär und aggressiv angehen. Leider kann die EU im Bereich der Basistechnologien für AI wie AI-Modelle oder KI-Chips kaum mit den USA oder Ostasien konkurrieren. Und leider verlieren wir weiter den Anschluss: Unsere Kapitalmärkte gerade für Technologieunternehmen sind unterentwickelt und wir machen IT-Unternehmen durch immer neue Regelungen – oft sicherlich gut gemeint – das Leben schwer. Ein aktuelles Beispiel ist der EU AI Act, der es in einigen Anwendungsbereichen deutlich komplizierter macht, KI in Europa auf den Markt zu bringen. Wir müssen uns entscheiden, ob wir vorne mitspielen wollen oder ob wir Hochtechnologie einfach weitgehend aus Übersee beziehen wollen. Wenn wir wieder mitspielen wollen, müssen wir schnell und grundlegend umsteuern, ein bisschen Forschungsförderung hier und da wird das Bild nicht ändern.

https://big-picture.com/ki

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Eine Megawattbatterie aus Salz für die Energiewende

Im Interview erklärt Uwe Ahrens, Vorstand der börsennotierten Altech Advanced Materials AG, die Vorzüge der innovativen Großbatterie für Industrie und Energiewirtschaft.

 

Herr Ahrens, was ist das Revolutionäre an Ihrer neuen Batterietechnologie?

Wir bringen gerade mit unserem Joint- Venture-Partner, dem Fraunhofer-Institut IKTS, eine Festkörperbatterie für den stationären Betrieb namens CERENERGY in die Kommerzialisierung. Diese neuartige Batterie ist frei von kritischen Rohstoffen wie Kobalt, Grafit und Lithium und benötigt auch kein Kupfer. Unsere Batterie ist aufgrund der Leistungsfähigkeit, Langlebigkeit und Sicherheit perfekt für den stationären Einsatz in Stromnetzen, bei erneuerbaren Energien und in der Industrie geeignet und besteht lediglich aus Kochsalz, Keramik und Nickel. Sie ist nicht brennbar und behält ihre volle Leistung über den gesamten Lebenszyklus von über 15 Jahren. Somit ist die Lebensdauer weitaus höher als die von aktuell eingesetzten Batteriespeichern. CERENERGY ist extrem robust und kann ohne externe Systeme zur Kühlung oder Heizung unter jeglichen klimatischen Bedingungen betrieben werden und benötigt zudem keine Anlagen zum Feuerschutz, da sie nicht brennbar ist. Sie löst alle Herausforderungen für einen Zwischenspeicher für regenerative Energiequellen, die wir aktuell so dringend brauchen.

Uwe Ahrens: „Unsere Batterie ist aufgrund der Leistungsfähigkeit, Langlebigkeit und Sicherheit perfekt für den stationären Einsatz in Stromnetzen, bei erneuerbaren Energien und in der Industrie geeignet“.

 

Welche Vorteile bringt der Einsatz als Netzbatteriespeicher?

Unsere CERENERGY-Batterie ist eine Plug-and-Play-Lösung. Sie kann sogar im geladenen Zustand an ihren Bestimmungsort transportiert werden. Da keine externen Systeme benötigt werden, kann sie in kürzester Zeit in Betrieb gehen und ist im Unterhalt sehr günstig und effizient. Und da keine Brandgefahr von der Batterie ausgeht, kann sie auch neben Tankanlagen stehen und so einen Beitrag in der E-Mobility leisten. Die Megawattsysteme in Containerbauweise können sogar übereinandergestapelt werden und sind absolut witterungsbeständig. Zudem ist herauszustellen, dass Nutzer von CERENERGY einen höheren Ertrag erwirtschaften können. Die Batterie verliert über die gesamte Lebensdauer nicht an Leistung. Mehrere Ladezyklen innerhalb von 24 Stunden sind zudem möglich, ohne dass die Batterie Schaden nimmt.

Welche Technologie steckt dahinter und wie lange hat die Entwicklung gedauert?

Die aktuelle Entwicklung unserer Festkörperbatterie basiert auf dem technologischen Prinzip der sogenannten „Zebra“-Batterie, die bereits in den 70er Jahren entwickelt wurde, aber es nie zur breiten Anwendung geschafft hat. Das IKTS hat diese Technologie aufgegriffen und über acht Jahre zur optimierten industriellen Anwendung weiterentwickelt. Wichtige technologische Details wurden gelöst und ein stabiler Produktionsprozess zur Massenherstellung entwickelt, der nun die Kommerzialisierung ermöglicht. Die eigentlichen Batteriezellen bestehen aus einem festen Keramikrohr, dem Festkörperelektrolyt, durch den Natrium-Ionen geleitet werden können. Zwischen der Außenfläche des Keramikrohres und der Metallhülle bildet sich die Anode jedes Mal neu und baut sich beim Entladen wieder verlustfrei ab.

 

Was sind die nächsten Schritte zur Markteinführung?

Prototypen der CERENERGY-Batteriezellen laufen seit Jahren stabil. Das Design und Engineering der industriellen Produktionsanlagen sind abgeschlossen. Das Grundstück für das Werk in Schwarze Pumpe in Sachsen ist erworben, die Bauanträge sind gestellt und die Anlagen durchkonzipiert sowie alle Unterlieferanten ausgewählt. Die endgültige Machbarkeitsstudie wollen wir zeitnah abschließen und dann noch im laufenden Jahr die Finanzierung umsetzen. Hierfür haben wir eine Reihe von Förderanträgen auf Landes-, Bundes und auch EU-Ebene gestellt und gehen von einem positiven Bescheid noch in diesem Jahr aus. Mit einer strukturierten Finanzierung, bestehend aus Eigenkapital, Fremdkapital und Fördermitteln, gehen wir von einer schnellen Umsetzung des Projektes aus.

Wie viel Batteriemodule sind in einer ersten Produktionslinie geplant?

In der ersten Ausbaustufe unseres geplanten Werkes für CERENERGY mit einer ersten Produktionsstraße gehen wir von einer jährlichen Produktionsleistung von 120 MWh aus. Diese Leistung wollen wir dann sukzessive erhöhen. Unser Werk wird so ausgelegt sein, dass wir zügig weitere Produktionsstraßen errichten können. Wir denken auch jetzt schon weiter und haben uns in direkter Nachbarschaft eine Kaufoption für ein weiteres Gelände gesichert. Dann reden wir über Kapazitäten im Gigawattbereich.

Herr Ahrens, welche Bedeutung haben Netzbatteriespeicher im Kontext unserer nachhaltigen Entwicklung?

Netzspeicherbatterien sind das Missing Link der Energiewende. Im Prinzip ist die Erzeugung von Strom aus regenerativen Energiequellen wie Wind und Sonne gelöst. Nur scheint nicht immer in Deutschland die Sonne und der Wind weht auch nicht gleichmäßig. Dazu kommt, dass der erneuerbare Strom nicht an dem Ort und zu der Zeit ist, an dem er gebraucht wird. Der Strom kann nicht geleitet werden, weil die Stromnetze schon voll sind. Dies ist hinreichend bekannt. Fakt ist, dass die Bundesnetzagentur die Kosten des ungenutzten Stroms – Redispatch genannt – im Jahr 2022 auf über 4 Mrd. EUR beziffert. Was wir demnach benötigen, sind Speicher, um Spitzen auszugleichen, die Netze zu stabilisieren und den Strom dann zu liefern, wenn der Bedarf am höchsten ist.  Nur mit großen stationären Batterie-Speichern lässt sich diese Energie nutzen und die Energiewende realisieren.  Andernfalls führt der weitere Ausbau der erneuerbaren Energien nur zu noch mehr ungenutzten Energieüberschuss und damit zu höheren Kosten. Der Bedarf an Netzspeichern ist da und ökonomisch als auch volkswirtschaftlich sinnvoll.

 

Wie wird sich Ihrer Meinung nach der Markt für Energiespeicher in den nächsten Jahren entwickeln?

Der Netzbatterie-Markt wächst weltweit enorm. Laut einer aktuellen Studie von Bloomberg NEF hat die Energiespeicherung ein weltweites Potential von 620 Mrd. US-Dollar bis 2040. Das Problem ist also weniger die Nachfrage, sondern vielmehr das Angebot an adäquaten Speicherlösungen. Kritische Stoffe wie Lithium, Kobalt und Graphit schwanken schon jetzt enorm im Preis. Abgesehen davon, dass die Abhängigkeiten zu Drittstaaten sehr hoch ist. Das zeigt allein schon das Beispiel Graphit. Zu rund 90 % wird der Weltmarkt für diesen wichtigen Batteriestoff aus Asien bedient. Da entstehen Abhängigkeiten, die auch aus geopolitischer vermieden werden sollten. Es ist absehbar, dass die entscheidenden Rohstoffe nicht ausreichen werden, um den Bedarf zu decken. Wir brauchen also Alternativen in Europa, die ohne diese kritischen Stoffe auskommen.

Welchen Zielmarkt sprechen Sie mit Ihren neuen Festkörperbatterien an?

Wir konzentrieren uns im ersten Schritt auf Betreiber von Energienetzen und großen Solar- und Windparks. Diese haben den dringenden Bedarf, die Energiemengen aus der erneuerbaren Energiegewinnung aus Wind und Solar zu puffern und zeitversetzt in die Netze einzuspeisen. Darüber hinaus gibt es auch eine sehr große Nachfrage durch die Stromabnehmer vor Ort mittels der Speicher teure Energiespitzen zu kappen. Dieses sogenannte Peakshaving kann die Stromkosten von Betrieben deutlich senken.

Stichwort E-Mobilität – auch hier gibt es konkrete Anwendungsfelder: Wenn jetzt begonnen wird, LKW-Flotten zu elektrifizieren, müssen diese auch schnellgeladen werden, ohne dass die Netze bei den Speditionen und den Autohöfen in die „Knie gehen“, da diese nicht in der Lage sind, eine so große Menge Strom in kurzer Zeit zu leiten. Unsere CERENGY-Batterie ist für diesen Anwendungsfall prädestiniert. Da sie nicht brennbar ist, kann Sie ohne sonst erforderliche Sicherheitsabstände in die bestehende Tankinfrastruktur integriert werden und für die entsprechende Ladeinfrastruktur für den Schwerlastverkehr genutzt werden. Weitere Anwendungsfelder können kommunale Niederspannungsnetze sein oder energieintensive Industrien, die von Gas auf Strom umstellen. Auch der Einsatz als Notstromaggregate in Krankenhäusern oder anderen öffentlichen Gebäuden ist aufgrund der absoluten Sicherheit möglich.

Mit welcher Lebensdauer der Batterien kann gerechnet werden? 

Die Lebensdauer einer Batterie wird üblicherweise in Ladezyklen angegeben. Mit CERENERGY können deutlich über 7.500 Ladezyklen realisiert werden. Umgerechnet sind das mehr als 15 Jahre – gegebenenfalls auch deutlich mehr, da während des Ladeprozesses über die Jahre hinweg keine Komponenten der Batteriezelle verbraucht oder verschmutzt werden. Die CERENERGY-Batterie altert nicht. Die von uns angestrebte Lebensdauer entspricht in etwa dem Doppelten, was heute bei den gebräuchlichen Lithium-Ionen-Batterien möglich ist und das bei 100 % Leistung über die gesamte Lebensdauer.

Mit welchen Kosten müssen Industriekunden rechnen?

CERENERGY ist unter Vollkostenbetrachtung die effizienteste und günstigste Festkörperbatterie am Markt. Während des gesamten Lebenszyklus einer Batterie muss man ja nicht nur den Kaufpreis beachten. Hinzu kommen Wartungs- und Instandhaltungskosten und Kosten für die Entsorgung. Auch die Anzahl der Ladezyklen, die innerhalb der Garantieleistung möglich sind, ist eine wichtige Kennzahl.
Eine marktübliche Lösung heute braucht eine Kühlung bzw. Heizung, einen Wasseranschluss und regelmäßige Pflege mit Wechsel von Verschließteilen. All diese Wartungskosten der Nebenaggregate gibt es bei unserem System nicht, weil diese schlicht und ergreifend nicht benötigt werden. Die CERENGERY-Batterie kann innerhalb von 24 Stunden mehrfach geladen und entladen werden, ohne dass die Batterie Schaden nimmt. Andere Systeme sind häufig auf einen Zyklus begrenzt. Da die Batterie aufgrund der unkritischen Rohstoffe sowie der Nicht-Brennbarkeit einfach vollständig recyclebar ist, fallen keine Entsorgungskosten an. Hier ist herauszustellen, dass der Nickelanteil geschätzt zu 98 % zurückgewonnen und wieder verwertet werden kann.

 

Weltweit sorgen sich viele Unternehmen um die Knappheit von Rohstoffen. Wie sehr betrifft das Ihr Unternehmen?

Unsere Rohstoffe werden wir komplett aus Europa beziehen. Dazu haben wir bereits entsprechende Lieferanten ausgewählt und Absichtserklärungen abgeschlossen. Es gibt somit keine Abhängigkeiten zu Drittstaaten oder komplexe Lieferketten, die unterbrochen werden können. Das war uns sehr wichtig. Wir sind davon überzeugt, dass eine europäische Batterieproduktion so autark wie möglich sein sollte. Dazu wollen wir einen Beitrag leisten.

www.altechadvancedmaterials.com

 

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.