Waldzustand: Nur jeder fünfte Baum ist gesund
Ergebnisse der Waldzustandserhebung 2023
Hintergrund Waldzustandserhebung:
Waldzustandserhebung
https://www.bmel.de/SharedDocs/Downloads/DE/Broschueren/waldzustandserhebung-2023.html
Experten äußern sich: Die Nachteile einer bargeldlosen Gesellschaft in Dänemark
In den malerischen Straßen Kopenhagens, wo Fahrräder oft Autos überwiegen, spiegelt eine dramatische Veränderung im Verbraucherverhalten einen größeren Trend wider, der das Land erfasst. Dänemark steht kurz davor, eine der ersten bargeldlosen Gesellschaften der Welt zu werden, in der elektronische Zahlungen zur Norm werden.
Doch hinter diesem technologischen Fortschritt verbirgt sich ein wachsendes Problem – die digitale Kluft. Sie betrifft zahlreiche Dänen, insbesondere ältere Menschen, Familien mit niedrigem Einkommen und Einwanderer.
Dänemarks Weg zu einer bargeldlosen Gesellschaft wurde durch den weit verbreiteten Internetzugang, eine Smartphone-Durchdringung von 98.1% und ein starkes Vertrauen in digitale Lösungen ermöglicht.
Seit 2017 sind Banking-Apps und mobile Zahlungsdienste wie MobilePay allgegenwärtig und vereinfachen Transaktionen auf ein einfaches Wischen oder Tippen. Daten zeigen einen starken Rückgang der Bargeldtransaktionen. Jüngsten Berichten zufolge machen in Dänemark weniger als 20% aller Geldtransaktionen Bargeld aus.
Der Übergang ist jedoch nicht für alle reibungslos. Einige Bevölkerungsgruppen haben Schwierigkeiten mit diesen digitalen Veränderungen, was zu finanzieller Ausgrenzung und erhöhter Verwundbarkeit führt. Zu den hauptsächlich betroffenen Gruppen gehören:
Josh Gordon, ein Technologieexperte bei Geonode, reflektiert die Auswirkungen dieses Wandels. „Obwohl Dänemarks Bewegung hin zu digitalen Zahlungen für ihre Bequemlichkeit und Sicherheit gelobt wird, ist es entscheidend sicherzustellen, dass diejenigen, die für einen solchen Übergang noch nicht bereit sind, nicht ausgegrenzt werden. Banken und politische Entscheidungsträger müssen inklusive Systeme schaffen, die allen Bürgern gerecht werden, unabhängig von ihrer digitalen Kompetenz“, schlägt Gordon vor.
Der Aufbau eines wirklich inklusiven digitalen Finanzsystems erfordert koordinierte Anstrengungen auf mehreren Ebenen. Zu berücksichtigende Strategien sind:
Das Potenzial Dänemarks, eine vollständig bargeldlose Gesellschaft zu werden, zeichnet das Bild eines futuristischen, effizienten und möglicherweise umweltfreundlicheren Stadtlebens. Es erfordert jedoch auch eine sorgfältige Bewertung der sozialen Gerechtigkeit. Für den Erfolg einer bargeldlosen Gesellschaft darf niemand zurückgelassen werden und es muss sichergestellt werden, dass die Bequemlichkeit für viele nicht zu Hindernissen für einige wird.
Während Dänemark diesen Übergang durchläuft, beobachtet die Welt aufmerksam, wie dieses kleine nordische Land einen großen Schritt in die Zukunft der Finanz- und Gesellschaftsstruktur macht. Werden die Vorteile einer bargeldlosen Gesellschaft ausreichen, um die digitale Kluft zu überbrücken, oder werden sie die Kluft noch vertiefen? Nur die Zeit wird es zeigen, aber die heute unternommenen Schritte werden zweifellos die Inklusivität der digitalen Welt von morgen prägen.
Weitere Informationen unter.
Aufmacherbild / Quelle / Lizenz
Image by Duc Tinh Ngo from Pixabay
Von Lars Rückemann, Vorstand codecentric AG
Unternehmen stehen derzeit vor zwei Mammutaufgaben, die es gleichzeitig zu bewältigen gilt: Digitalisierung und nachhaltige Transformation. Während die Digitalisierung schon länger auf der Agenda von Organisationen steht, wächst in letzter Zeit auch beim Thema Nachhaltigkeit der wirtschaftliche und regulatorische Druck erheblich. Kunden, Partner, Mitarbeiter und nicht zuletzt der Gesetzgeber erwarten heute, dass ein Unternehmen sowohl digitalisiert als auch nachhaltig arbeitet. Die gute Nachricht ist jedoch, dass beide Prozesse nicht isoliert voneinander zu betrachten sind, sondern in der sogenannten Twin Transformation verbunden werden können.
Lars Rückemann ist seit Februar 2020 im Vorstand der codecentric AG. Zuvor sammelte er über 25 Jahre Erfahrung in der Software-Entwicklung und war als Standortleitung und Head of Business Development in Solingen tätig. Als Vorstand fokussiert sich Lars Rückemann auf die Methoden und Technologien. Das beinhaltet die Förderung von Innovation, CSR sowie der Weiterentwicklung des Service-Portfolios des Unternehmens. Zudem verantwortet Lars Rückemann die strategischen Beteiligungen an Technologie-Startups der codecentric AG und steht im engen Austausch mit den Gründerteams. Bildrechte: Codecentric
Denn bei näherer Betrachtung zeigt sich, dass Nachhaltigkeit und Digitalisierung keineswegs voneinander getrennte Projekte sind. Stattdessen beeinflussen sie sich gegenseitig und können voneinander profitieren. Die Twin Transformation bietet großes Potenzial, indem sie Synergien identifiziert und wirksam macht.
Auf der einen Seite sind digitale Tools ein wichtiger Bestandteil vieler Nachhaltigkeitspläne. Das beginnt bei ganz banalen Dingen wie der Einsparung von Papier durch die Nutzung digitaler Dokumente und endet bei großen, strategischen Fragen wie der Verlagerung von Anwendungen und Prozessen in die Cloud. Klar ist aber, dass kaum ein Nachhaltigkeitskonzept ohne eine digitale Komponente auskommt – und das zu Recht. Denn der technologische Fortschritt bietet an vielen Stellen die Möglichkeit, Ressourcen zu sparen und energieeffizienter zu arbeiten. Auf diese Weise wird Nachhaltigkeit zu einem echten Treiber der digitalen Transformation.
Auf der anderen Seite muss auch die Digitalisierung nachhaltig erfolgen, da sie sonst nicht zukunftsfähig ist. Der Energieverbrauch von Rechenzentren und digitaler Infrastruktur nimmt stetig zu, ganz zu schweigen von den Emissionen, die durch den Aufbau entstehen. Digitalisierung ist also nicht automatisch nachhaltig, sondern erfordert eine aktive Verknüpfung von Technologie und Ressourcenmanagement. Daher hat das Umweltbundesamt mit den KPI4DCE eine Reihe von Indikatoren veröffentlicht, mit denen sich die Umweltauswirkungen von Rechenzentren messen lassen. Diese Daten können dafür genutzt werden, um die Klimarelevanz der eigenen IT-Infrastruktur zu messen und Verbesserungen anzustoßen. Dies ist ein gutes Beispiel dafür, wie eng die Themen Digitalisierung und Nachhaltigkeit miteinander verknüpft sind.
Doch wie so oft ist auch die Twin Transformation an vielen Stellen leichter gesagt als getan. In der Praxis gibt es einige Hürden, die Unternehmen überwinden müssen. Denn auch wenn viele Synergien und Gemeinsamkeiten bestehen, sind die Inhalte und Vorgaben der Transformationsprozesse teils sehr unterschiedlich.
Hinzu kommt, dass sich beide Prozesse oft nicht in derselben Phase befinden. Die Digitalisierung steht bei den meisten Unternehmen bereits seit Jahrzehnten auf der Agenda, während die nachhaltige Transformation erst vor wenigen Jahren in den Fokus gerückt ist. Die Digitalisierung ist also in den meisten Fällen weiter fortgeschritten und wurde nicht von Anfang an unter dem Aspekt der Nachhaltigkeit betrachtet.
Aus diesem Grund haben sich häufig unterschiedliche Verantwortlichkeiten für beide Prozesse entwickelt, und es sind Silos entstanden. Im schlimmsten Fall führt dies sogar zu Ressortdenken und Budgetkonflikten, bei denen das vorhandene Geld entweder nur für die Digitalisierung oder für Nachhaltigkeitsprojekte ausgegeben wird.
Twin Transformation bedeutet daher auch sicherzustellen, dass beide Prozesse zur langfristigen Entwicklung der Organisation beitragen und eine Symbiose bilden.,
Um das volle Potenzial der Twin Transformation auszuschöpfen, sollten Unternehmen an einigen Stellschrauben drehen. Da es sich in beiden Fällen um abteilungsübergreifende Prozesse handelt, gilt es zunächst, bestehende Silos aufzubrechen und zu einer transparenten Darstellung des Status Quo zu gelangen. Welche Ziele sollen erreicht werden und welche Zwischenschritte sind dafür notwendig? So können gemeinsame Ziele definiert, aber auch mögliche Widersprüche identifiziert werden. Darüber hinaus können Organisationen auf diese Weise feststellen, in welcher Phase sich die beiden Prozesse befinden und inwieweit sie im Zeitplan liegen.
Dafür ist es sinnvoll, die Verantwortlichkeiten für beide Projekte enger zu verzahnen, indem etwa Nachhaltigkeits- und Digitalisierungsmanager in einem gemeinsamen Transformationsteam zusammenarbeiten. Darauf aufbauend lässt sich ein gemeinsamer Zeitplan mit Fern- und Zwischenzielen definieren, an dem sich die unterschiedlichen Transformationsprozesse mit ihren je eigenen Zeitplänen, Zielen und Maßnahmen orientieren können.
Ein gutes Anwendungsbeispiel für das Zusammenspiel von Digitalisierung und Nachhaltigkeit ist die Cloud. Sie steht im Fokus vieler Digitalisierungsvorhaben. Zum einen versprechen sich Unternehmen von der Cloud natürlich eine höhere Effizienz und eine bessere Performance. So werden komplexe Berechnungen und die Verarbeitung großer Datenmengen durch die Cloud erst ermöglicht. Aber auch der Umweltaspekt spielt eine immer größere Rolle. Zwar geben in einer Bitkom-Studie 64 Prozent der Unternehmen an, dass sie die Cloud vor allen Dingen nutzen wollen, um Kosten zu sparen. Aber fast ebenso viele Unternehmen (63 Prozent) erwarten sich durch die Cloud-Nutzung eine Reduktion des eigenen CO2-Ausstoßes. Die digitale Transformation wird also bereits genutzt, um Nachhaltigkeitsziele zu erreichen.
Gleichzeitig kann eine Cloud jedoch auch zum Energiefresser werden, wenn sie nicht richtig genutzt wird. Das treibt Kosten und Emissionen in die Höhe. Es sollte daher unbedingt auf einen ressourcenschonenden Umgang geachtet werden – etwa indem man Auslastungsspitzen verhindert, Leerlaufzeiten minimiert und die richtige Cloud-Region wählt. Das spart Kosten und verbessert die Performance.
Damit die Twin Transformation gelingt, müssen Unternehmen ganzheitlich und langfristig denken. Denn der Wandel zu einem zukunftsorientierten und nachhaltigen Unternehmen ist nicht auf einzelne Kernbereiche wie IT oder Betrieb beschränkt, sondern erfasst die gesamte Organisation und wird sie über Jahre beschäftigen. Hier sind zweifelsohne ein langer Atem sowie ein klares Konzept gefragt. Mit ein paar Nachhaltigkeitsinitiativen oder einzelnen (als Heilsbringer gepriesenen) digitalen Tools ist es sicherlich nicht getan. Vielmehr bedarf es eines durchdachten Frameworks, das Digitalisierung und Nachhaltigkeit systematisch zusammenführt. Hat sich ein Unternehmen einen solchen klar definierten Rahmen gegeben, steht einer erfolgreichen Twin Transformation nichts mehr im Wege.
https://creativecommons.org/licenses/by-nd/4.0/deed.de#
Datenhoheit und Kundenzentrierung als zentrale Komponenten zukunftsfähiger Marketingstrategien
Wie geht es ohne den Third Party Cookie weiter? Diese Frage beschäftigt die Marketer nach wie vor. Denn die digitale Marketinglandschaft steht vor einer tiefgreifenden Transformation, die eine grundlegende Neugestaltung der Strategien und Technologien erfordert. Die zentralen Komponenten hierbei heißen: Datenhoheit und Beziehungszentrierung. Die passenden Lösungsansätze bietet das aktuelle Whitepaper „Beyond the 3rd Party Cookie“, das die unabhängige Digitalberatung elaboratum gemeinsam mit Utiq, einem Joint Venture der vier größten europäischen Telekommunikationsanbieter Telekom, Vodafone, Telefónica und Orange, sowie dem Softwareentwickler JENTIS erarbeitet hat.
Themen-Experten/David Berger (c)elaboratum
„Unternehmen, die jetzt proaktiv handeln und ihre Strategien anpassen, werden in der Lage sein, ihre Marktposition in einer zunehmend datenschutzbewussten Welt zu stärken.“
1. Herausforderungen und Marktveränderungen: Die Abhängigkeit von Third Party Cookies hat die Marketingbranche bisher geprägt. Mit verschärften Datenschutzanforderungen und veränderten Browser-Policies müssen Unternehmen ihre Ansätze überdenken und sich auf weniger invasive, datenschutzkonforme Methoden konzentrieren.
2. Datenschutz als Priorität: Die Verschärfung der Datenschutzgesetze und das wachsende Bewusstsein der Verbraucher*innen erfordern einen Wandel von invasiven Tracking-Methoden zu Strategien, die Privatsphäre und Transparenz in den Mittelpunkt stellen.
3. Neue Technologien und Ansätze: In Reaktion auf das Ende der Third Party Cookies gewinnen Technologien wie das serverseitige Tracking, auf das JENTIS spezialisiert ist, und First-Party-ID-Lösungen, wie Utiq sie anbietet, an Bedeutung. Diese ermöglichen es, die Funktionalität von Cookies zu ersetzen, während sie gleichzeitig Compliance mit Datenschutzstandards sicherstellen.
4. Strategische Neuausrichtung: Unternehmen sind gefordert, eine stärkere Fokussierung auf First-Party-Daten und den Aufbau langfristiger Kundenbeziehungen zu legen. Der Shift hin zu einem datenschutzorientierten R(elationship)-Commerce eröffnet neue Wege zur Kundenbindung und - interaktion.
5. Implementierungsanforderungen: Die erfolgreiche Umsetzung neuer Tracking-Methoden und Technologien erfordert eine nahtlose Integration in bestehende Systeme und eine klare strategische Ausrichtung. Nur durch eine sorgfältige Planung und Anpassung können Unternehmen die Vorteile der neuen Technologien voll ausschöpfen.
6. Zukünftige Chancen: Trotz der Herausforderungen bieten die Änderungen auch Chancen für ein vielfältigeres und nachhaltigeres Marketing. Eine kooperative Entwicklung von Branchenstandards und die Einführung neuer Technologien können zu einer effektiveren und datenschutzkonformen Kundenansprache führen.
Die Studienautoren David Berger und André Schulz, Senior Managing Consultants bei elaboratum, erklären: „Die im Whitepaper vorgestellten technischen Lösungen zeigen, wie Publisher und Werbetreibende auch ohne Third Party Cookies künftig ihre Zielgruppen effektiv erreichen. Personalisierung, Targeting und Marketing-Attribution bleiben weiterhin möglich und werden durch die verbesserte Kontrolle der Datenverarbeiter sogar datenschutzfreundlicher gestaltet. Dies stellt sicher, dass die Datenschutzbedürfnisse der Nutzer besser berücksichtigt werden. Unternehmen, die jetzt proaktiv handeln und ihre Strategien anpassen, werden in der Lage sein, ihre Marktposition in einer zunehmend datenschutzbewussten Welt zu stärken.“
Weitere Informationen und kostenloser Download des Whitepapers:
Aufmacherbild / Quelle / Lizenz
Image by Merhan Saeed from Pixabay
Studie zu Generativer KI: Großteil der deutschen Unternehmen sieht sie als positiv für den Geschäftserfolg
96 Prozent der deutschen Unternehmen gehen davon aus, dass sie ihren Geschäftserfolg mithilfe von Generativer KI positiv beeinflussen können. Das ist ein Ergebnis einer Studie, die der Bundesverband Digitale Wirtschaft (BVDW) e. V. in Zusammenarbeit mit der Hochschule der Medien Stuttgart (HdM) durchgeführt hat.
KI hat in vielen Unternehmen einen zentralen Stellenwert
Die Ergebnisse der Studie zeigen, dass die Bedeutung innovativer Technologien für die Wettbewerbsfähigkeit und Zukunftsfähigkeit von Unternehmen steigt. So sagen mehr als 60 Prozent der Befragten, dass Generative KI einen zentralen Stellenwert in ihrer Gesamtstrategie hat. 40 Prozent geben an, dass Anwendungen mit Generativer KI in ihren jeweiligen Unternehmen mehrmals pro Woche zum Einsatz kommen, lediglich 7 Prozent nutzen sie nie.
Technisch sind die meisten Unternehmen auf KI gut vorbereitet
Die Studie zeigt auch, dass für die KI-Nutzung ein entsprechendes Mindset wichtig ist. 95 Prozent pflegen eine offene Einstellung gegenüber dem Einsatz von Generativer KI, 73 Prozent bieten ihren Mitarbeitenden selbst KI-Schulungen und -Weiterbildungen an, um sie für den Umgang mit KI-Technologien vorzubereiten. Ethische Überlegungen spielen beim KI-Einsatz ebenfalls eine bedeutende Rolle; 62 Prozent der befragten Unternehmen sagen, dass sie ethische Richtlinien im Umgang mit Generativer KI beachten.
Was die technischen Voraussetzungen für die KI-Nutzung angeht, sind die meisten Unternehmen bereits gut vorbereitet. 79 Prozent der Befragten sagen, dass ihr Unternehmen bereits auf die Integration und Nutzung Generativer KI ausgelegt ist. Auffällig ist, dass rund zehn Prozent der Befragten nicht wissen, ob die vorhandene digitale Infrastruktur ihres Unternehmens geeignet ist, um Generative KI zu unterstützen.
„Die Ergebnisse der Befragung unterstreichen die Notwendigkeit, das Bewusstsein und das Verständnis für Generative KI in der deutschen Wirtschaft weiter zu schärfen,“ sagt Eva Werle, Vizepräsidentin des BVDW. „Die kontinuierliche Aufklärungsarbeit und den Dialog zwischen den Akteuren der digitalen Wirtschaft gilt es zu fördern, um Deutschland als Standort für digitale Innovationen zu stärken.“
Prof. Dr. Felix Weißmüller von der Hochschule der Medien Stuttgart bietet zusammen mit Sebastian Fetz (Perelyn) Studierenden Praxisseminare im Bereich der Künstlichen Intelligenz an. Gemeinsam haben sie im Rahmen eines solchen Seminars die Zusammenarbeit zur Studie initiiert. Weißmüller sagt: „Dieses Projekt illustriert das enorme Potenzial, das in der Verknüpfung akademischer Forschung mit praxisorientierten Anwendungen liegt.”
Zur Methodik der Datenerhebung
Für die Studie wurden 73 Entscheider*innen aus verschiedenen Branchen mittels eines Online-Fragebogens befragt, um den aktuellen Einsatz und die Wahrnehmung Generativer KI in deutschen Unternehmen zu evaluieren. Die Datenerhebung fand im Zeitraum vom 18. Januar bis zum 2. März 2024 statt und wurde mithilfe des Tools HdM Survey durchgeführt, das auf der Open-Source-Software LimeSurvey basiert. Die Auswahl der Teilnehmenden erfolgte aus dem Netzwerk des BVDW, rund die Hälfte der Befragten stammt aus der Marketingbranche.
Die Ergebnisse der Studie können Sie hier herunterladen.
Aufmacherbild / Quelle / Lizenz
Image by Alexandra_Koch from Pixabay
So kauft Deutschland
Online, stationär oder doch am liebsten beides? Wo kaufen wir am liebsten ein und warum? Diese und weitere Fragen stellte die Offerista Group gemeinsam mit ShopFully gleich in acht europäischen Ländern – darunter Deutschland. Die globale Einkaufsstudie “The State of Shopping 2024” wurde im Februar 2024 in den europäischen Ländern Deutschland, Österreich, Frankreich, Italien, Spanien, Bulgarien, Rumänien und Ungarn durchgeführt.
88 Prozent der Deutschen tätigen ihre Einkäufe im stationären Handel, wobei jede dritte Person es sogar vorzieht, ausschließlich vor Ort einzukaufen (34 Prozent). Für mehr als die Hälfte der deutschen Befragten stellt der Mix aus Online- und Offline-Shopping die bevorzugte Art des Einkaufens dar (54 Prozent). Im Vergleich zu allen anderen befragten Ländern liegt Deutschland hier vorne. Den reinen Online-Einkauf bevorzugen nur wenige Europäer. In Deutschland setzen nur 12 Prozent der Befragten ausschließlich auf Online-Shopping. Für die Deutschen ist insbesondere der Einkauf von Lebensmitteln und Getränken im Vor-Ort-Geschäft wichtig (97 Prozent), gefolgt von Drogerieartikeln (93 Prozent) und Wohnmöbeln (86 Prozent). Elektronik (45 Prozent), Produkte aus der Abteilung Kinder und Spielzeug (45 Prozent) sowie Kleidung (35 Prozent) werden auch gern online gekauft.
Menschen, die Online-Shopping bevorzugen, tun dies in Deutschland aufgrund der Lieferung nach Hause (61 Prozent) sowie dem Mangel an Warteschlangen und Menschenmassen (48 Prozent). Geschäfte werden von den meisten Deutschen bevorzugt, weil sie dort die Möglichkeit haben, Produkte vor dem Kauf zu sehen, anzufassen oder auszuprobieren (79 Prozent). Im Gegensatz zum europäischen Durchschnitt von 16 Prozent, trägt bei den Deutschen auch der Kundenservice im Laden stark dazu bei, vor Ort zu kaufen (40 Prozent). Wenn die Deutschen online kaufen, dann wählen 44 Prozent die Click-and-Collect-Option immer oder manchmal aus. Davon lassen sich 73 Prozent vor Ort im Geschäft zu weiteren Käufen hinreißen.
Das Konsumklima in Europa und auch in Deutschland ist nach wie vor angespannt. So glauben 68 Prozent der Deutschen, dass sich ihre Kaufkraft im Jahr 2024 nicht verbessern wird. Einschränken wollen die Deutschen ihre Ausgaben hauptsächlich für Wohnmöbel (60 Prozent) und Elektronik (44 Prozent). Innerhalb dieses Konsumklimas haben Angebote für sehr viele Deutsche einen hohen Stellenwert bei ihrer Kaufentscheidung (87 Prozent). Um mehr Informationen zu erhalten, recherchieren 79 Prozent der Deutschen die Produkte online, bevor sie in einem Geschäft einkaufen. Die deutschen Verbraucher:innen probieren häufig neue Marken aus (21 Prozent), wobei attraktive Preise und Rabatte die wichtigsten Faktoren für das Testen einer neuen Marke darstellen (55 Prozent).
Insgesamt sind die deutschen Konsument:innen im Hinblick auf die Wahl einer Marke besonders flexibel, wenn es Werbeaktionen gibt (66 Prozent). Dabei ist die Relevanz von Angeboten ganzjährig für die deutschen Konsument:innen gegeben. So schauen 64 Prozent der befragten Deutschen das ganze Jahr über nach Sonderangeboten, und nicht nur zu wichtigen Shopping-Zeiten wie dem Black Friday, Weihnachten oder dem Sommerschlussverkauf. Aus diesem Grund ist es für Einzelhändler auch besonders wichtig, das ganze Jahr über sichtbar zu sein.
„Während ein Großteil der deutschen Shopper online ihre Kaufentscheidung treffen, wird bevorzugt im stationären Geschäft eingekauft. Die digitale Shopper-Aktivierung über alle Kanäle der Customer Journey hinweg ist daher für den stationären Handel essentiell. „
„Der Einzelhandel durchläuft einen Transformationsprozess, getrieben von dem sich rasant ändernden Mediennutzungs- und Einkaufsverhalten der Konsument:innen. Während ein Großteil der deutschen Shopper online ihre Kaufentscheidung treffen, wird bevorzugt im stationären Geschäft eingekauft. Die digitale Shopper-Aktivierung über alle Kanäle der Customer Journey hinweg ist daher für den stationären Handel essentiell. Unsere Studie hat gezeigt, dass es für Händler und Marken wichtig ist, das ganze Jahr über sichtbar zu sein. Besonders im Hinblick auf das angespannte Konsumklima und das eingeschränkte Einkaufsbudget ist es wichtig, Angebote und Promotionen über verschiedene Kanäle entsprechend zu bewerben – und zwar das ganze Jahr hinweg“, so Benjamin Thym, CEO der Offerista Group.
1111
Für die Studie wurden 10.985 Personen ab 18 Jahren in Bulgarien, Deutschland, Frankreich, Italien, Österreich, Rumänien, Spanien und Ungarn im Februar 2024 in einer Online-Umfrage befragt.
Fotonachweis: © Offerista Group
Aufmacherbild / Quelle /Lizenz
Image by Gerd Altmann from Pixabay
Am 25. Januar 2024 haben die große Flaggschiffmission LISA (Laser Interferometer Space Antenna) und die M-Klasse-Mission EnVision im Wissenschaftsprogramm der Europäischen Weltraumorganisation ESA eine weitere, wichtige Hürde genommen. Das LISA-Observatorium zum Aufspüren von sogenannten Gravitationswellen wurde nun zusammen mit der EnVision-Mission zur Erkundung der Venus durch das Science Programme Committee (SPC) der ESA in einer „Mission Adoption“ formal in die Umsetzungsphase überführt. Damit können nun das detaillierte Design, der Bau und später die umfangreichen Tests von Sonden, Nutzlast und Bodeninfrastruktur in vollem Umfang begonnen werden. Die Deutsche Raumfahrtagentur im Deutschen Zentrum für Luft- und Raumfahrt (DLR) ist der größte Beitragszahler im Wissenschaftsprogramm der ESA und dadurch finanziell maßgeblich an der LISA-Mission und in Teilen an EnVision beteiligt. Dadurch werden wichtige Teile dieser beiden europäischen Raumfahrtgroßprojekte in Deutschland umgesetzt. Bei EnVision ist das DLR in Berlin maßgeblich an einem Hauptinstrument beteiligt. Die Leitung und Koordination der gesamten sogenannten VenSpec Suite liegt beim DLR-Institut für Planetenforschung. Das DLR-Institut für Optische Sensorsysteme hat die Multispektralkamera zur Suche nach aktiven Vulkanen und zur Kartierung der Mineralogie entwickelt und gebaut.
Bereits 2017 wurde LISA als eine der drei großen Flaggschiff-Missionen im Wissenschaftsprogramm der ESA ausgewählt. Seitdem haben intensive Arbeiten zum technischen Konzept und dessen Umsetzung stattgefunden. Auch die bereits seit den 1990er Jahren laufende wissenschaftliche Vorbereitung einschließlich der äußerst komplexen Datenverarbeitung und -analyse wurde seitdem in einem weltweiten Konsortium von mehr als 1500 Wissenschaftlerinnen und Wissenschaftlern intensiv fortgesetzt. Die ESA, wie auch die beteiligten nationalen Institutionen aus verschiedenen europäischen Ländern sowie der NASA in den USA und deren industrielle Auftragnehmer werden nun ihre jeweiligen Teams deutlich aufstocken, um die noch notwendigen, umfangreichen Entwicklungsarbeiten bis zum geplanten Start der Mission Mitte 2035 anzugehen.
LISA soll nach der Inbetriebnahme im All ab Ende 2035 niederfrequente Gravitationswellen aus dem Weltraum nachweisen und die Natur ihrer Quellen mit großer Genauigkeit bestimmen. Gravitationswellen als Schwingungen der Raumzeit werden durch schnelle zeitliche Änderungen in der räumlichen Verteilung sehr großer Massen wie zum Beispiel bei der Verschmelzung zweier stellarer oder auch supermassiver Schwarzer Löcher hervorgerufen. Die winzigen Amplituden einer Gravitationswelle lassen sich nur durch eine höchst empfindliche Laserinterferometrie nachweisen. Bei LISA wird dieses Laserinterferometer durch drei baugleiche Sonden aufgespannt, die ein nahezu gleichseitiges Dreieck mit rund 2,5 Millionen Kilometer Seitenlänge bilden. Damit wird LISA das bei weitem größte je von Menschen gebaute Observatorium sein.
LISA wird im Wissenschaftsprogramm der ESA unter Beteiligung der NASA und mit Beistellungen zur Nutzlast aus mehr als zehn europäischen Ländern unter anderem in Deutschland entwickelt und gebaut. Der industrielle Hauptauftragnehmer der ESA für die Gesamtmission wird im Januar 2025 aus einem deutschen beziehungsweise einem deutsch-italienischen Industriekonsortium ausgewählt: Airbus in Friedrichshafen und OHB in Bremen und Oberpfaffenhofen zusammen mit Thales-Alenia in Italien. Ein wissenschaftliches Konsortium ist maßgeblich an der Entwicklung von LISA beteiligt und baut zudem die Datenverarbeitung und -archivierung der Mission auf. Dabei kommt dem deutschen Beitrag zur Mission eine entscheidende und missionskritische Bedeutung zu. Dieser umfangreiche Beitrag zu LISA besteht wesentlich aus der führenden Rolle des Max-Planck-Instituts für Gravitationsphysik / Albert-Einstein-Institut (AEI) in Hannover bei der Entwicklung des interfero-metrischen Nachweissystems (IDS – Interferometric Detection System), dessen Komponenten von verschiedenen Partnern in Europa bereitgestellt werden.
Das vom AEI entwickelte Herzstück des IDS ist neben dem optischen System, das vom Partner aus Großbritannien geliefert werden soll, das zentrale Phasenmeter der Mission. Dabei besteht eine enge Kooperation mit der Dänischen Technischen Universität (DTU) in Kopenhagen. Außerdem wird das Institut in Hannover in Zusammenarbeit mit niederländischen Partnern einen kritischen Mechanismus für die Nutzlast liefern. Das AEI unterstützt zudem die Mission und die ESA bei vielen Fragestellungen zum Systemdesign, wobei deren umfangreiche Erfahrungen aus der Entwicklung und dem Betrieb des Technologiedemonstrators LISA Pathfinder einfließen. Mit dieser Vorläufer-mission wurden von 2015 bis 2017 die entscheidenden Messprinzipien für LISA sehr erfolgreich im All erprobt. Zusammen mit der deutschen Raumfahrtindustrie hat das Albert-Einstein-Institut auch bei dieser Mission eine führende Rolle gespielt. Die gesamte Beteiligung des AEI an LISA, das auch die wissenschaftliche Leitung (Principal Investigator) der Gravitationswellenmission stellt, wird maßgeblich durch Zuwendungen der Deutschen Raumfahrtagentur im DLR aus Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) unterstützt.
Während die IoT Venture GmbH bereits detaillierte, datengestützte Analysen für ihre Partner in der Fahrradbranche bereitstellt, soll die quartalsweise Veröffentlichung eines Data Reports zukünftig als regelmäßiger Impulsgeber für die Branche dienen. Branchenexperten und Interessierte, wie beispielsweise Städte und Institutionen, können so von wertvollen Insights und Analysen profitieren.
Data Report by IoT Venture
Die IoT Venture GmbH, ein führendes Tech-Unternehmen im Bereich Internet of Things, kündigt heute die Veröffentlichung ihres ersten Data Reports an, eines quartalsweise erscheinenden Analysedokuments, das Einblicke in die Nutzung von E-Bikes bietet. Durch die integrierten GPS-Tracker generiert IoT Venture detaillierte Daten, die nun in aggregierter und anonymisierter Form einen umfassenden Einblick in Trends und Muster zum Nutzerverhalten bieten.
„Mit unserem ‚Data Report‘ möchten wir die Branche nicht nur informieren, sondern auch aktiv dabei unterstützen, das Fahrerlebnis für E-Bike-Nutzerinnen und -Nutzer weiter zu verbessern und den E-Bike-Markt als Ganzes voranzubringen“,
erklärt Jürgen Veith, CEO der IoT Venture.
Das neue Format beleuchtet verschiedene Aspekte, darunter beispielsweise die durchschnittlich zurückgelegte Kilometeranzahl pro Fahrt, CO2-Einsparungen sowie die Dauer und die bevorzugten Wochentage der Nutzung. Heatmaps verdeutlichen die Intensität der Nutzung im urbanen Umfeld.
Interessierte Leserinnen und Leser, die zukünftige Reports nicht verpassen möchten, können diese über die Website der IoT Venture abonnieren und erhalten somit regelmäßige Updates mit den neuesten Erkenntnissen direkt in ihr E-Mail-Postfach.
IoT Venture plant den Report sukzessive auszubauen. Zukünftige Fokusthemen beinhalten unter anderem die Analyse von Wegetypen wie Asphalt-, Schotter-, Wald- oder Wiesenwege.
Branchenexperten sind dazu aufgerufen, sich aktiv an der inhaltlichen Gestaltung der zukünftigen Reports zu beteiligen. „Auch wir möchten vom Wissen der Branche profitieren und nehmen Vorschläge und Fragestellungen, die in unsere Analyse einfließen sollen, gerne entgegen“, so Veith.
Abonnieren Sie den Data Report by IoT Venture hier:
https://iot-venture.com/data-report/
Aufmacherbild: IoT Venture
Die grüne Dividende: 5 Nachhaltige Anlagetrends im Holzsektor
Das gute alte Sparbuch hat längst ausgedient und die moderne Finanzwelt bietet eine Vielzahl von Anlagemöglichkeiten, die sowohl profitabel als auch nachhaltig sind. Besonders im Bereich Holz, einem der wichtigsten Rohstoffe weltweit, eröffnen sich diverse Investitionsmöglichkeiten, die nicht nur finanzielle Renditen versprechen, sondern auch einen positiven Beitrag zum Umweltschutz leisten. Angesichts des steigenden Bewusstseins für ökologische Verantwortung und der wachsenden Nachfrage nach nachhaltigen Produkten hat sich das Investieren in Holz und Forstwirtschaft als eine zukunftsträchtige Option etabliert.
Der Rohstoff Holz, der als Basis für zahlreiche Produkte von Papier bis hin zu Bauholz dient, wird in einer Welt mit steigender Bevölkerungszahl und zunehmendem ökologischem Bewusstsein immer wichtiger. Experten prognostizieren, dass die globale Nachfrage nach Holz in den kommenden Jahrzehnten erheblich steigen wird. Dies liegt nicht nur an der steigenden Bevölkerungszahl, sondern auch an der zunehmenden Anerkennung von Holz als nachhaltigem Baumaterial und der Suche nach alternativen Energiequellen wie Biomasse.
Eine besonders innovative Investitionsmöglichkeit bietet das Crowdinvesting in Holzbau-Projekte, bei dem Kleinanleger direkt in nachhaltige Bauvorhaben investieren können. Aktuell können Anleger dies beim Crowdinvesting-Angebot von timpla by Renggli tun. In Zusammenarbeit mit den Plattformen GLS Crowd und WIWIN, hat das Unternehmen eine Crowdinvesting-Kampagne ins Leben gerufen, die es Privatanlegern ermöglicht, mit einem Beitrag ab 250 Euro in den seriellen Holzbau zu investieren.
Diese Kampagne zielt nicht nur darauf ab, in den Bau selbst zu investieren, sondern vielmehr in die Zukunft und die nachhaltige Entwicklung des Bauwesens. Die Anleger haben somit die Chance, Teil einer Bewegung zu werden, die darauf ausgerichtet ist, die Bauindustrie zu revolutionieren und zugleich einen bedeutsamen Beitrag zum Schutz unseres Klimas zu leisten.
Dieser innovative Ansatz öffnet die Türen für Anleger, die nach Möglichkeiten suchen, ihr Portfolio nicht nur finanziell, sondern auch mit Blick auf die ökologische und gesellschaftliche Verantwortung zu diversifizieren. Durch die Beteiligung an Projekten, die sich dem nachhaltigen Holzbau verschreiben, investieren sie in die Realisierung von Bauvorhaben, die langfristig darauf abzielen, die CO2-Emissionen zu reduzieren und den Einsatz erneuerbarer Ressourcen zu fördern. Damit haben Anleger nicht nur eine Investitionsmöglichkeit, sondern eine Gelegenheit, aktiv an der Gestaltung einer nachhaltigeren Zukunft mitzuwirken.
Aufmacherbild/Quelle / Lizenz
Renggli, Zürich, Freilager @ Gataric Fotografie
Silo AI und appliedAI Initiative verkünden Partnerschaft
Europas größte Initiative für die Anwendung vertrauenswürdiger KI, appliedAI, startet eine Partnerschaft mit Europas größtem privatem KI-Labor, Silo AI, um so ein europäisches Ökosystem zur KI-Implementierung aufzubauen. Ziel ist es, den Unternehmen eine Anlaufstelle zu bieten, bei der sie Unterstützung unabhängig von ihrer KI-Implementierungsphase finden.
Die Implementierung von KI in Unternehmen erreicht häufig nicht das erforderliche Maß für eine signifikante Wertschöpfung. Um dies zu ermöglichen, ist ein größerer Pool an KI-Experten nötig, der das gesamte Spektrum der erforderlichen Maßnahmen entlang der KI-Journey abdecken kann.
Die neue Partnerschaft von Silo AI, Europas größtem privatem KI-Labor, und appliedAI, der größten europäischen Initiative für die Anwendung vertrauenswürdiger KI, setzt hier an. Gemeinsam bauen die Partner das größte Ökosystem zur KI-Implementierung in Europa auf, das sowohl Enablement- als auch Deployment-Services abdeckt. In diesem KI-Zentrum wird fortan die Expertise gebündelt und dadurch werden die KI-Fähigkeiten auf dem Kontinent gestärkt. Unternehmen, die die Implementierung von KI vorantreiben wollen, finden im Ökosystem den passenden Partner und können so von den erweiterten Kompetenzen und stärkeren Skalierungsmöglichkeiten profitieren.
Die Partnerschaft fokussiert sich zunächst auf Deutschland und die Niederlande. Die Zusammenführung modernster KI-Fähigkeiten und renommierter deutscher und niederländischer Unternehmen stärkt die nachhaltige Wettbewerbsfähigkeit der europäischen Industrie.
Peter Sarlin, CEO und Mitgründer von Silo AI: „appliedAI ist ein wichtiger europäischer Akteur in KI-Vorbereitungs- und -Enablement-Aktivitäten, während Silo AI mehrere hundert produktionsreife KI-Systeme und -Modelle entwickelt und darüber hinaus maßgeblich zur Skalierung von KI beigeträgt. Durch die Partnerschaft mit appliedAI möchten wir unsere Erfahrung in den deutschen Markt bringen und Unternehmen in der DACH-Region bei der Implementierung und Skalierung ihrer KI-Projekte unterstützen. Gemeinsam können wir für unsere Kunden ein langfristiger KI-Partner sein, der sie von den frühen Phasen des Enablements bis hin zur Skalierung des KI-Einsatzes in allen Betriebsabläufen begleitet.“
Auch Dr. Andreas Liebl, CEO und Co-Founder von appliedAI, freut sich auf die Zusammenarbeit: „Da wir eine ähnliche Vision verfolgen, passen wir gut zusammen und ergänzen uns ideal in unseren Stärken. Silo AI bringt hervorragende Expertise in der langfristigen Entwicklung von KI-Produkten mit, insbesondere im skandinavischen Raum. Damit werden die technischen Kompetenzen von appliedAI sehr gut erweitert.“
Über Silo AI
Silo AI ist Europas größtes privates KI-Labor, das sich zum Ziel gesetzt hat, Europa zu einem KI-Vorreiter zu machen. Silo AI ist ein zuverlässiger KI-Partner, der Wettbewerbsvorteile in die Produktforschung und -entwicklung bringt.
Das Team entwickelt KI-gesteuerte Lösungen und Produkte für intelligente Geräte, autonome Fahrzeuge, Industrie 4.0 und Smart Cities. Silo AI bietet seinen Kunden einen einzigartigen Zugang zu erstklassigen KI-Modellen und -Fachwissen sowie zur Silo OS-Infrastruktur, um die KI-Entwicklung und -Bereitstellung zu beschleunigen.
Mit SiloGen entwickelt Silo AI marktführende Open-Source-LLMs mit dem Ziel, die digitale Unabhängigkeit Europas zu stärken und den Zugang zu LLMs zu demokratisieren
Weiter Informationen zu Silo AI finden Sie unter: https://www.silo.ai/
Weitere Informationen zu Applied AI finden Sie unter: www.appliedai.de
Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay
Gastbeitrag von André Heid:
Getrieben von Digitalisierung und Nachhaltigkeitsbemühungen sowie einem neuen Verständnis von Lebensqualität und Arbeitsmodellen, verändert sich das Wohnen in Deutschland grundlegend – sowohl im Großen als auch im Kleinen. In diesem Artikel betrachten wir Megatrends und ihre Auswirkungen näher und gehen dabei gesondert auf die energetische Sanierung ein, da sie einen Eckpfeiler in Hinblick auf Nachhaltigkeit darstellt.
Digitalisierung und Nachhaltigkeit sind zwei Megatrends, die die Art und Weise, wie wir leben und arbeiten, revolutionieren. Während sich unsere Wohnbedürfnisse durch die Digitalisierung verändert haben – man denke etwa an Home-Office und Online-Weiterbildungen – ist das Thema Nachhaltigkeit zu einem zentralen Anliegen geworden, das nicht nur ökologisch, sondern auch wirtschaftlich motiviert ist.
Im Folgenden gehen wir auf einige Entwicklungen ein, die durch Digitalisierung und Nachhaltigkeit angestoßen wurden und den Immobilienmarkt in den vergangenen Jahren sehr beschäftigt haben.
Die Entwicklung hin zu einem bewussteren Umgang mit Ressourcen und der Einsatz innovativer Technologien schaffen neue Möglichkeiten und Herausforderungen für die Immobilienwelt.
Folgende Trends haben sich hinsichtlich Bauweisen und Wohnformen herauskristallisiert:
Die Verwendung nachhaltiger Baumaterialien spielt eine zentrale Rolle bei der Entwicklung zukunftsfähiger Wohnformen. Materialien wie Holz aus nachhaltiger Forstwirtschaft, recycelter Stahl oder umweltfreundliche Isolationsmaterialien tragen nicht nur zur Reduzierung der CO₂-Emissionen bei, sondern verbessern auch die Energieeffizienz und das Raumklima in Gebäuden.
Modulares Bauen ist eine innovative Bauweise, die in der modernen Immobilienlandschaft immer mehr an Bedeutung gewinnt. Vorgefertigte Module werden in Fabriken hergestellt und vor Ort zusammengesetzt. Die Bauweise eignet sich für Wohngebäude und Bürogebäude gleichermaßen.
Diese Methode ermöglicht eine schnelle Bauzeit, verringert den Abfall auf der Baustelle und verbessert die Qualität durch die Fertigung unter kontrollierten Bedingungen. Zudem bleiben die Gestaltung und Erweiterbarkeit der Immobilien verhältnismäßig sehr flexibel. |
Passivhäuser stehen für eine Bauweise, die den Energiebedarf für Heizung und Kühlung auf ein Minimum reduziert. Durch eine hochwertige Wärmedämmung, eine luftdichte Gebäudehülle und eine kontrollierte Wohnraumlüftung mit Wärmerückgewinnung erreichen diese Gebäude eine außerordentliche Energieeffizienz. Passivhäuser sind somit ein Paradebeispiel für nachhaltiges Bauen.
Im Zuge der Digitalisierung gewinnen Smart Homes zunehmend an Bedeutung. Durch die Vernetzung von Haustechnik und Geräten lassen sich Energieverbrauch und Wohnkomfort optimieren. Auch die Sicherheit im Eigenheim profitiert von smarten Technologien – vor allem von selbstverriegelnden Türen und Fenstern sowie sich automatisch aktivierenden Alarmsystemen im Haus.
Zu häufig genutzten Technologien gehören:
Smart-Home-Systeme ermöglichen die Fernsteuerung von Heizung, Beleuchtung und Sicherheitssystemen über Smartphone oder Tablet. Durch den Einsatz von KI und IoT-Technologien können diese Systeme lernen, sich an die Gewohnheiten der Bewohner anzupassen, was das Wohnen persönlicher sowie energieeffizienter macht.
Ein eindrückliches Beispiel: In Verbindung mit Künstlicher Intelligenz (KI) werden etwa Kühlschränke in Zukunft dazu in der Lage sein, ihren Inhalt zu analysieren und entsprechende Rezepte vorzuschlagen bzw. selbstständig Lebensmittel nachzubestellen. |
Urban Farming und die Integration grüner Technologien in Wohngebäuden sind weitere Aspekte der Nachhaltigkeit im Immobilienmarkt. Besonders interessant sind:
Die Grünflächen tragen zu einer verbesserten Lebensqualität in städtischen Gebieten bei und fördern die lokale Nahrungsmittelproduktion sowie Biodiversität.
Die energetische Gebäudesanierung ist ein besonders wichtiger Punkt und spielt eine übergeordnete Rolle bzw. steht im Mittelpunkt der Bemühungen um einen nachhaltigeren Immobilienmarkt.
Die Notwendigkeit der Sanierung besteht bei sehr vielen Gebäuden in Deutschland, denn laut einer Auswertung eines Immobilienportals haben 42 % der Immobilien eine schlechte Energieeffizienzklasse.
Die energetische Sanierung umfasst u. a. die folgenden Maßnahmen:
Alte Heizkessel verbrauchen oft unnötig viel Energie. Der Wechsel zu einer modernen Heizungsanlage, wie einer Wärmepumpe, einem Pelletkessel oder einer Gas-Brennwerttherme, kann den Energiebedarf erheblich senken. In Kombination mit erneuerbaren Energien, wie Solarenergie für Warmwasser und Heizung, lässt sich die Effizienz weiter steigern.
Ein gutes Raumklima fördert die Gesundheit. Lüftungsanlagen mit Wärmerückgewinnung sorgen nicht nur für stetigen Luftaustausch, sondern nutzen die Wärme der abgeführten Luft, um die frische Außenluft vorzuwärmen. Dies spart Heizkosten und verhindert gleichzeitig Feuchtigkeitsprobleme und Schimmelbildung.
Die Gebäudefassade spielt eine entscheidende Rolle bei der thermischen Isolierung. Neben der Dämmung der Außenwände können auch die Nachrüstung von Außenrollos oder das Anbringen eines vorgehängten Fassadensystems zur Energieeinsparung beitragen.
Die Installation von Photovoltaik- (PV) Anlagen auf dem Dach oder an der Gebäudefassade ermöglicht die Produktion von Strom aus Sonnenenergie. Solarthermieanlagen hingegen nutzen die Sonnenenergie zur Warmwasserbereitung und unterstützen die Heizung. Beide Technologien reduzieren den Bedarf an extern bezogener Energie und tragen zur Senkung der Betriebskosten bei.
Förderprogramme und Zuschüsse – etwa des BAFA im Zuge der Bundesförderung für effiziente Gebäude – unterstützen Immobilieneigentümer bei der Umsetzung dieser Maßnahmen, da diese in der Regel hohe Kosten verursachen. Allerdings schonen sie nicht nur die Umwelt, sondern tragen langfristig zur Kosteneinsparung bei. |
Die Urbanisierung setzt sich fort und das Leben in der Stadt wandelt sich. Bis 2050 leben mehr als zwei Drittel der Weltbevölkerung in Städten. Auch eine alternde Bevölkerung – Stichwort demografischer Wandel – und immer mehr Single-Haushalte stellen den Wohnimmobilienmarkt vor Herausforderungen. Barrierefreies Wohnen und Gemeinschaftsprojekte sind mögliche Antworten.
Gleichzeitig gewinnen flexible Wohnkonzepte an Bedeutung. Tiny Houses und Co-Living-Spaces bieten Antworten auf die steigenden Immobilienpreise und das Bedürfnis nach mehr Flexibilität.
Städte weltweit erkennen die Notwendigkeit, Grünflächen zu integrieren und zu erweitern, um die Lebensqualität ihrer Bewohner zu verbessern und dem Hitzeinsel-Effekt entgegenzuwirken.
Intelligente Städte oder Smart Cities nutzen Daten, um Energie, Verkehr, Sicherheit, Gesundheit, Verwaltung etc. zu optimieren und so die Lebensqualität und Nachhaltigkeit von Ballungszentren zu verbessern. Big Data, KI und Cloud-Computing spielen dabei eine wichtige Rolle.
Auch Parks, vertikale Gärten und begrünte Dächer dienen nicht nur der Erholung und Freizeit, sondern verbessern auch die städtische Luftqualität und tragen zur Biodiversität bei.
In der Stadtplanung wird zunehmend Wert auf Nachhaltigkeit und Umweltschutz gelegt, was sich in Konzepten wie der „15-Minuten-Stadt“ zeigt, in der alle wichtigen Einrichtungen des täglichen Bedarfs in 15 Gehminuten erreichbar sind. |
Die Digitalisierung fördert auch die Entwicklung flexibler Wohnkonzepte. Plattformen für Wohnungstausch oder temporäres Wohnen erlauben es Menschen, ihren Wohnort flexibel zu wechseln, ohne langfristige Miet- oder Kaufverträge einzugehen.
Diese Flexibilität passt zu einem Lebensstil, der durch digitale Mobilität und Remote Work geprägt ist. Wohnen und Arbeiten werden in Zukunft noch stärker gemeinsam gedacht.
Die Zukunft des Wohnens ist grün, vernetzt, intelligent und flexibel. Die Digitalisierung revolutioniert nicht nur die Art und Weise, wie wir leben und arbeiten, sondern bringt auch tiefgreifende Veränderungen in unseren Wohnbedürfnissen und -vorstellungen mit sich. Die Anpassungsfähigkeit von Wohnräumen, die (nachträgliche) Integration von Technologie und die Vernetzung von Diensten sind zentrale Aspekte, die das zukünftige Wohnen prägen werden.
André Heid ist zertifizierter Immobiliensachverständiger und Geschäftsführer der Heid Immobilien GmbH. Er unterstützt Käufer und Verkäufer von Immobilien dabei, deren Wert zu ermitteln und angemessene Kaufs- und Verkaufspreise für sie zu erzielen. Er ist Experte zu allen Fragen rund um Immobilien – Immobilienrecht, Wertermittlung, Gutachten, Kauf, Verkauf, Schenkung u.v.m.
https://creativecommons.org/licenses/by-nd/4.0/deed.de#
Aufmacherbild:
Bild von Wolfgang 1958 auf Pixabay
Ob Klimaresilienz, Chancen der Digitalisierung, optimierte Abwasserreinigung oder globale Wassergerechtigkeit – die Umwelttechnologiemesse IFAT Munich 2024 ist erneut ein Spiegel aktueller Themenfelder der Wasser- und Abwasserwirtschaft.
Die Umwelttechnologiemesse IFAT Munich wird vom 13. bis 17. Mai 2024 erneut zeigen, welche Herausforderungen und Marktimpulse die internationale Wasser- und Abwasserwirtschaft derzeit bewegen. Zu den diesjährigen Leitthemen der Münchner Branchenschau gehören die Anpassungen an die Folgen des Klimawandels. Im Veranstaltungsprogramm der Messe finden sich dazu gleich mehrere Termine, die Teilaspekte aus dieser drängenden gesellschaftlichen Aufgabe aufgreifen. Beispielsweise richten die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfälle e.V. (DWA), der Deutsche Städtetag, der Deutsche Städte- und Gemeindebund, der Deutsche Landkreistag, der Deutsche Verein des Gas- und Wasserfaches (DVGW) und der Verband kommunaler Unternehmen am 16. Mai ab 09:30 Uhr den „Tag der resilienten Kommunen“ aus. Dessen Vorträge und Podiumsdiskussionen finden auf der Blue Stage – einer Bühne eigens für Wasserthemen – in der Halle B2 statt.
Für mehr Klimaresilienz sind Städte und Gemeinden unter anderem aufgefordert, mit den Auswirkungen von zunehmenden und verschärften Trockenphasen und Starkniederschlägen zurechtzukommen. Ein hoffnungsvolles Konzept hierfür ist die wasserbewusste Stadt, auch als Schwammstadt bezeichnet. Für deren Umsetzung liefern IFAT-Aussteller hilfreiche Bausteine. Beispiele sind die Baumrigole ViaTree der Mall GmbH aus Donaueschingen, das Rigolensystem EcoBloc der Otto Graf GmbH aus Teningen und die Regenwasserbehandlungsanlage Stormclean der ACO GmbH aus Büdelsdorf.
Eine bedeutende marktgestaltende Wirkung können ferner neue gesetzliche Vorgaben haben – namentlich auf EU-Ebene. Ein aktuelles Beispiel ist die Europäische Kommunalabwasserrichtlinie. Diese wurde nach über 30 Jahren umfassend überarbeitet, der Kompromiss aus Brüssel liegt nun vor. „Die dabei vorgesehenen Veränderungen werden einen erheblichen Einfluss auf die Abwasserbehandlung in Europa haben, insbesondere für die Entfernung von anthropogenen Spurenstoffen, bei der Steigerung der Energieeffizienz und Eigenenergieerzeugung auf kommunalen Kläranlagen oder für die Behandlung von Mischwasser“, betont DWA-Präsident Prof. Dr. Uli Paetzel. Vor diesem Hintergrund veranstaltet die Vereinigung am 14. Mai um 16:30 Uhr auf der Blue Stage eine Session, bei der Entwicklungen und Entscheidungen zur Umsetzung der Kommunalabwasserrichtlinie unter rechtlichen, technischen und betrieblichen Gesichtspunkten erläutert und diskutiert werden.
Auch auf Seiten der Aussteller widmet man sich den anspruchsvolleren Anforderungen. So präsentiert die Huber SE aus Berching unter anderem den neu entwickelten Tuchfilter RotaFilt. Dieser scheidet feine suspendierte Stoffe wie Schlammflocken und Mikroplastik zuverlässig ab und entfernt Phosphor per Flockungsfiltration. Und die ProMinent GmbH aus Heidelberg zeigt, wie Mikroschadstoffe wie Medikamentenrückstände mit Ozon beseitigt werden und wie die Ozonerzeugung mit modularen Anlagen besonders wirtschaftlich betrieben wird.
Auch in der Wasser- und Abwasserwirtschaft ist die digitale Transformation in vollem Gange. Der Münchner Branchentreff gibt in selten verfügbarer Breite Antworten auf Fragen wie: Wo stehen wir in diesem Prozess? Welche Chancen und Risiken sind damit verbunden? Wohin kann in Zukunft die digitale Reise gehen? Räumlich verdichtet findet sich dieses Fokusthema in der Spotlight Area „Digitalisierung in der Wasserwirtschaft“ am Eingang West des Münchener Messegeländes. Auf dem von der DWA organisierten Sonderausstellungsbereich direkt hinter den Verbändeständen stehen Best-Practice-Lösungen im Mittelpunkt. Unter anderem präsentiert der DVGW dort das Projekt „Quelle der Zukunft. Wasser für Generationen“. Hierbei will die Bodensee-Wasserversorgung mit neuen Anlagen die Trinkwasserversorgung von rund vier Millionen Menschen auch für die nächsten Jahrzehnte sicherstellen. Die Besucherinnen und Besucher können durch Augmented Reality in die Anlagen visuell eintauchen und die Anwendung digitaler Techniken erleben.
Raum für zukunftsweisende digitale Entwicklungen bietet nicht zuletzt die lokale Hochwasser-Frühwarnung. Am Stand des Unternehmens Endress + Hauser aus Weil am Rhein können sich Interessierte dazu über das System Netilion Flood Monitoring informieren. Bei diesem hilft Künstliche Intelligenz, auf der Grundlage von vor Ort durch Pegelmessgeräte sowie Regen- und Bodenfeuchtsensoren erhobenen Daten – verknüpft mit Wettervorhersagen und Informationen zur Geländebeschaffenheit – Hochwasserlagen frühzeitig und präzise einzuschätzen. Digitale Zwillinge gehören zur den Schlüsselkonzepten der Industrie 4.0 – auch in der Wasserwirtschaft. So demonstriert die Siemens AG aus Erlangen auf der Messe ein solches virtuelles Modell, das den gesamten Anlagenlebenszyklus abbildet. Mit diesem lassen sich schlanke Prozesse realisieren – vom Design und Engineering über Betrieb und Instandhaltung bis hin zur Optimierung.
Wasser hat auch eine geopolitische Dimension – heute vielleicht mehr denn je. So kann es bei Wassermangel oder ungleicher Verteilung des blauen Goldes zu regionalen oder nationenübergreifenden Spannungen kommen. Faktoren, wie der fortschreitende Klimawandel, die wachsende Weltbevölkerung oder auch kriegerische Auseinandersetzungen, verschärfen die Situation. Im Umkehrschluss hat eine gerechte und nachhaltige Wassernutzung das Potenzial, ein harmonisches Zusammenleben auf allen Ebenen zu fördern. Nicht von ungefähr stand der diesjährige Weltwassertag am 22. März unter dem Motto „Wasser für Frieden“. „Viele Technologien und Systeme unserer Aussteller können als Beiträge zu mehr globaler Wassergerechtigkeit und damit zu mehr Frieden gesehen werden“, sagt Philipp Eisenmann, Exhibition Director der IFAT Munich. Wie zum Beispiel das mobile, palettengroße Wasseraufbereitungssystem PurAID des Herstellers Pureco aus Budpest/Ungarn. Das kostengünstige, modulare System eignet sich für die Wasserversorgung in ländlichen und abgelegenen Gebieten. Es entfernt Arsen, Eisen, Mangan, Ammoniak, Fluor, Bakterien und Viren aus Grundwasser, Brunnenwasser und bereits vorhandenem, aber verschmutztem Netzwasser. Im Veranstaltungsprogramm widmen sich unter anderem die European Water Association (EWA) und die International Water Association (IWA) diesem Themenkreis: Am 14. Mai um 14:30 Uhr organisieren sie gemeinsam auf der Blue Stage die Podiumsdiskussion „Invest in Water – Invest in Security“. „Wir haben internationale Akteure eingeladen, über ihre Maßnahmen und Erfahrungen bei der weltweiten Unterstützung des Wassersektors zu berichten, die darauf abzielen, Sicherheit und Frieden zu fördern“, schildert EWA-General-Sekretär Johannes Lohaus.
Weitere Informationen zur IFAT Munich finden Sie auf: www.ifat.de
Aufmacherbild: Bild von kalhh auf Pixabay
Unternehmen fokussieren sich zunehmend auf Cybersicherheit – Zugleich zeigt Studie von FTI Consulting erhebliche Kommunikationslücken zwischen Chief Information Security Officer (CISO) und Top-Management auf
Fehlende Kommunikation als Risikofaktor: In Führungsetagen geht mehr als jeder dritte Befragte davon aus, dass Cybersicherheits-Verantwortlic
Zwischen Top-Management und Cybersicherheits-Verantwortlic
Angesichts einer sich rasch entwickelnden Risikolandschaft, neuer gesetzlicher Vorschriften und erhöhter öffentlicher Aufmerksamkeit investieren Top-Manager vermehrt in Cybersicherheit. Zugleich sind viele aber der Meinung, dass ihre CISOs wichtigen, sicherheitsrelevanten Kommunikationsanforderungen nicht gerecht werden.
„Keine Frage, Top-Management und CISOs sind sich der Bedeutung von Cybersicherheitsrisiken bewusst“, sagt Meredith Griffanti, Global Head of Cybersecurity & Data Privacy Communications bei FTI Consulting. „Dennoch müssen Unternehmen noch mehr tun, damit Manager und CISOs auch die gleiche Sprache sprechen.“
Im Rahmen der CISO-Studie wurden knapp 800 C-Level-Manager aus neun Ländern und sieben Industrien befragt. Der Studie zufolge wünschen sich nahezu die Hälfte (45%) der befragten deutschen Führungskräfte von ihren CISOs die Fähigkeit, Fachjargon in verständliche Sprache zu übersetzen. Die Risiko-Dimension verdeutlicht ein weiteres Ergebnis der Studie: Darin gaben nur 2% der befragten deutschen CISOs an, dass ihre Unternehmen in den vergangenen zwölf Monaten keinen Cyberangriff erlebt hatten.
„Sicherheit ist das gemeinsame Ziel von CISOs und Top-Management. Doch unsere Studie zeigt, dass sie häufig aneinander vorbei kommunizieren“, sagt Hans-Peter Fischer, Senior Managing Director und Leiter des Bereichs Cyber Security bei FTI in Deutschland. Schließlich spricht der CISO einen Fachjargon, den die Führungsebene und der Vorstand oft nicht verstehen. So entsteht leicht ein endloser Kreislauf, in dem der CISO versucht, die Dinge einfacher – oder besser – darzustellen, als sie tatsächlich sind. „Das wiederum kann dazu führen, dass zum einen CISOs ihr Management von gewissen Investitionen nicht oder nur schwer überzeugen können. Und zum anderen der Vorstand kein genaues Bild hat, wo das Unternehmen am anfälligsten ist,“ so Hans-Peter Fischer weiter. Die Schulung der Präsentations- und Kommunikationsfähigkeiten von CISOs ist somit von entscheidender Bedeutung für ein gemeinsames Verständnis und die richtige Priorisierung von Cybersicherheitsthemen im Unternehmen. Neben einem besseren Verständnis wünschen sich deutsche Vorstandsvertreter aber auch eine bessere Verankerung des Themas in der Unternehmenskultur, um Risiken im Bereich Informations- und Cybersicherheit zu reduzieren. So sehen 28% der Befragten in Deutschland Trainingsbedarf zur Frage, wie eine proaktive und adaptive Cybersicherheits-Kultur geschaffen werden kann.
Die befragten deutschen Unternehmen besorgt am meisten das unzureichende Verständnis von Informationssicherheits- und Cybersicherheitsrisiken der Mitarbeiter (45%). Die Schwierigkeit, die richtigen Talente im Bereich Cybersicherheit und Datenschutz zu finden (41%) rangiert auf Rang 2 der Sorgen-Skala.
Der Studie zufolge sind 94 % der befragten Top-Manager der Meinung, dass das Thema Cybersicherheit in den letzten 12 Monaten an Bedeutung gewonnen hat. Bei der Mehrheit genießt Cybersicherheit eine hohe Priorität. Das Top-Management stellt finanzielle Mittel bereit, um dieser neuen Realität Rechnung zu tragen. Durchschnittlich wollen sie Cybersicherheitsbudgets in den kommenden ein bis zwei Jahren um etwa ein Viertel (23%) und in den nächsten drei bis fünf Jahren um mehr als ein Drittel (36%) erhöhen.
Die zentralen Ergebnisse der „CISO Redefined“-Reihe bestätigen eine Kommunikations-lücke zwischen Top-Management und CISOs:
„Klare, offene Kommunikation im Führungskreis ist ein Muss für jedes Unternehmen, um die gestiegenen Risiken im Bereich der Cybersicherheit angemessen zu bewerten und sich dagegen zu schützen,“ sagt Oliver Müller, Senior Managing Director und Leiter des Bereichs Krisen-, Litigation- und Cybersicherheitskommunikation bei FTI Deutschland. „Wenn Führungskräfte keinen Einblick in die Bedrohungen haben, mit denen sie konfrontiert sind, verpassen Unternehmen die Möglichkeit, die richtigen Ressourcen einzusetzen, um ihre Widerstandsfähigkeit und Abwehrbereitschaft zu maximieren.“
Die vollständige Untersuchung können Sie hier herunterladen:
https://fticommunications.com/ciso-redefined-navigating-c-suite-perceptions-and-expectations/
Methodik der Umfrage
FTI Consulting’s Digital & Insights Practice führte im November 2023 eine Online-Umfrage unter 787 C-Suite-Führungskräften in Organisationen mit mehr als 500 Mitarbeitern aus den Schlüsselindustrien von FTI durch, welche Unternehmen mit einem Gesamtumsatz von 21,5 Billionen US-Dollar und 3,69 Millionen Mitarbeitern weltweit repräsentieren.
Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay
Der nachhaltige Boom des globalen Batteriemarktes geht weiter, denn die ganze Welt braucht mobile Energie und Speicher. Allein zwischen 2020 und 2030 wird sich die Nachfrage mehr als verachtzehnfachen, mit einem jährlichen Wachstum von 34 %. Der Hauptgrund für diese Entwicklung ist die Umstellung der Automobilindustrie auf batterieelektrische Fahrzeuge. Dabei greifen rund 80 % der Hersteller auf Lithium-Ionen-Batterien zurück. Zu diesen Ergebnissen kommt die Publikation „Battery Monitor 2023“ von Roland Berger und der RWTH Aachen. Um der langjährigen Erfahrung asiatischer Fabriken entgegenzuwirken, haben in den vergangenen Jahren innovative Produkt- und Prozesstechnologien im Batteriesektor an Bedeutung gewonnen. Infolgedessen ist ein zunehmender Trend zu Patenten aus den USA und Europa festzustellen. Besonders im Bereich der Fertigungstechnologien sind diese Innovationen relevant. Den Unternehmen muss ein erfolgreicher Spagat zwischen einer effizienten, vergleichsweise kostengünstigen und einer nachhaltigen Batterieproduktion gelingen. Nur so können sie mittelfristig in diesem dynamischen Markt ihre Position sichern. Laut der Untersuchung stehen im Fokus der aktuellen Entwicklungen vor allem technische Innovationen für eine effizientere Produktion und alternative Batteriematerialien.
Genau hier setzt auch die innovative Batterietechnologie des Joint-Ventures von Altech Advanced Materials und dem Fraunhofer-Institut IKTS an. Die neue Festkörperbatterie für den stationären Betrieb „Cerenergy“ geht gerade in die Kommerzialisierung. Die neuartige Batterie ist frei von kritischen Rohstoffen wie Kobalt, Grafit und Lithium und benötigt auch kein Kupfer. „Unsere Batterie ist aufgrund der Leistungsfähigkeit, Langlebigkeit und Sicherheit perfekt für den stationären Einsatz in Stromnetzen, bei erneuerbaren Energien und in der Industrie geeignet und besteht lediglich aus Kochsalz, Keramik und Nickel. Sie ist nicht brennbar und behält ihre volle Leistung über den gesamten Lebenszyklus von über 15 Jahren“, erklärte Uwe Ahrens von Altech Advanced Materials im Gespräch mit unserer Redaktion. In diesem Kontext sind quasi Netzspeicherbatterien der Missing Link der Energiewende. Doch es gibt laut Ahrens noch weitere Einsatzfelder, Stichwort E-Mobilität: Wenn jetzt begonnen wird, LKW-Flotten zu elektrifizieren, müssen diese auch schnell geladen werden, ohne dass die Netze bei den Speditionen und den Autohöfen in die „Knie gehen“, da diese nicht in der Lage sind, eine so große Menge Strom in kurzer Zeit zu leiten. „Unsere Batterie ist für diesen Anwendungsfall prädestiniert. Da sie nicht brennbar ist, kann sie ohne sonst erforderliche Sicherheitsabstände in die bestehende Tankinfrastruktur integriert und für die entsprechende Ladeinfrastruktur für den Schwerlastverkehr genutzt werden.“ Mit Blick auf den Klimawandel und die damit verbundene Energiewende, werden in den nächsten Jahren viele globale Herausforderung auf die Gesellschaften zukommen. Einen gemeinschaftlichen und innovativen Weg bietet die All Electric Society Alliance, die sich als Forschungsallianz die Sensibilisierung der Gesellschaft im Kontext der Energiewende und der All Electric Society (AES), auf die Fahne geschrieben hat.
Dazu erklärte uns Prof. Dr.-Ing. Mirko Bodach von der Westsächsischen Hochschule Zwickau: „Die Allianz ist eine offene Anlaufstelle für die All Electric Society. Egal ob Kommune, KMU, global Player, NGO, Energieversorger oder Forschungseinrichtung: Jeder ist eingeladen, mitzuwirken und seine Expertise einzubringen. Denn nur wenn alle an einem Strang ziehen, ist die Realisierung der AES und somit die Bewältigung des Klimawandels möglich.“ Laut Prof. Bodach ist eine fundamentale Grundlage für eine solche Transformation die interdisziplinäre Zusammenarbeit: „Damit meine ich nicht, dass sich unterschiedliche Fachdisziplinen mal eben kurz unterhalten. Es braucht eine tiefgreifendere, verwobene Bearbeitungsstruktur. Nur, wenn alle betreffenden Akteure gemeinsam agieren, kann eine CO2-neutrale Energieversorgung erreicht werden.“ In diesem Kontext stellen sich momentan viele Unternehmen aus energieintensiven Branchen die Frage, wie die Klimaziele der Bundesregierung und der EU erreichbar sind.
Die Energiewirtschaft zum Beispiel, steht vor der enormen Herausforderung, die Energiewende nachhaltig zu finanzieren und gleichzeitig die Versorgungssicherheit aufrechtzuerhalten. Laut einem aktuellen Positionspapier des Verbands kommunaler Unternehmen sowie von Deloitte und dem Bundesverband der Energie- und Wasserwirtschaft sind Investitionen im Energiesektor von geschätzt 600 Milliarden Euro erforderlich, um die ambitionierten Ziele der Bundesregierung für das Jahr 2030 zu erreichen. Diese Summe wird bis 2045 voraussichtlich auf mindestens eine Billion Euro ansteigen. Damit geraten die Finanzierungsmöglichkeiten an ihre Grenzen, auch im Hinblick auf die Inflationstendenzen und die aktuelle Zinssituation. Unternehmen müssen sich darauf einstellen, verschiedene Finanzierungsinstrumente und Investorengruppen zu orchestrieren. Sowohl auf der Kapital suchenden als auch auf der Kapital gebenden Seite wird die Finanzierung der Energiewende neue Kompetenzen und einen Kulturwandel abverlangen – unter anderem müssen die Akteure ins Finanzmarkt- und ESG-Reporting einsteigen. Wenn also der Ausbau der erneuerbaren Energien, und der Netzinfrastruktur, der Einstieg in die Wasserstoffwirtschaft, die Dekarbonisierung der Wärmeerzeugung sowie die Umgestaltung des Verkehrssektors gelingen sollen, müssen mehr Anreize, Verlässlichkeit und Sicherheiten für alle Beteiligten von der Bundesregierung geschaffen werden. „Um die Transformation insbesondere in den industriellen Sektoren zu unterstützen, sind zum Beispiel sogenannte Carbon Contracts for Difference (CCfD) geplant. Die Bundesregierung arbeitet an entsprechenden Gesetzesvorhaben. Gerade in der Anlaufphase sollen sie das Unternehmensrisiko von Investitionen in treibhausgasarme Produktionsverfahren mindern“, erklärte in diesem Kontext Wolfgang Vitzthum, Director ‚ESG & Sustainable Finance Solutions’, von der Commerzbank. CCfD sind Klimaschutzverträge zwischen Staat und Unternehmen der energieintensiven Industrie. Mit ihnen sollen die Mehrkosten klimafreundlicher Produktionsverfahren gegenüber herkömmlichen Verfahren ausgeglichen werden. Die Energiewende wird ohne eine Beteiligung von uns Bürgern nicht möglich werden. Investitionen in die Sanierung und Wärmedämmung von Gebäuden mit umweltfreundlicher Energie stellen aber jetzt schon viele Familien und Hausbesitzer vor große Probleme. Ab März 2024 hilft nun auch die Bundesregierung mit der Heizungsförderung für Privatpersonen durch die KFW. Ein weiterer wichtiger Baustein für die Energiewende sind Energiegemeinschaften. Innerhalb von Energiegemeinschaften sollen Bürgerinnen und Bürger Strom und Wärme gemeinsam erzeugen, speichern, handeln und nutzen. Dahinter steht eigentlich der Grundgedanke der Genossenschaften und diese haben sich schon beim Ausbau erneuerbarer Energien bewährt. Dass, Energiegemeinschaften en Vogue sind, bestätigt auch Simon Bartmann Co-CEO von Bullfinch. „Hier sehen wir die Zukunft des Marktes und wollen Milliarden in diese Infrastruktur investieren – vergleichbar mit Investitionen in Glasfaser, 5G oder regionale Kraftwerke. Wir verstehen es als unsere Aufgabe die Infrastruktur zur Verfügung zu stellen. Gemeinsam mit unseren Partnern haben wir die Projektgesellschaft Solarausbau Deutschland gegründet. In den ersten Regionen, wie Norddeutschland, bauen wir bereits erfolgreich die Energie-Infrastruktur der Zukunft. Mit unseren Service Points u. a. in der Stadt Varel rollen wir die Projekte lokal mit hoher Qualität aus.“ Bullfinch begleitet Stadtwerke, Energie-Dienstleister und Installateure beim Einbau und bei der Finanzierung von Solaranlagen, Speichern und Wärmepumpen. Es fehlt vor allem noch an einem gesetzlichen Rahmen, der die Gründung und den Betrieb von Energiegemeinschaften in Deutschland ermöglicht. Wer wissen möchte, wie Energiegemeinschaften funktionieren, kann einen Blick nach Österreich werfen, dort sind die wichtigsten Fragen schon geklärt.
Autor: Bernhard Haselbauer
https://creativecommons.org/licenses/by-nd/4.0/deed.de#
Aufmacherbild/Quelle/ Lizenz
Quelle: Istock_gremlin
Ilona Simpson, CXO Advisor bei Netskope, schreibt über den Zero-Trust-Ansatz und wie Unternehmen damit Daten nachhaltig schützen und zu mehr Sicherheit gelangen.
Zero Trust ist das neueste Schlagwort in der Cybersicherheit. Obwohl sich der Staub gelegt hat, mangelt es immer noch an einer einheitlichen Vorstellung davon, was jeder unter dem Begriff versteht. Während der Konsens weitgehend positiv ist, dass ein Zero-Trust-Ansatz der richtige Weg ist, um ein Unternehmen und seine Daten zu schützen, gibt es immer noch viele Unklarheiten darüber, wie ein solcher Ansatz aussieht.
Insbesondere scheint es mir zwei grundsätzliche Missverständnisse zu geben. Das erste ist, dass Zero Trust etwas ist, das man kaufen kann. Zero Trust ist keine Software, Hardware oder Cloud-Anwendung, es ist ein Ansatz, ein Ethos. Um eine Zero-Trust-Strategie zu erreichen, arbeiten Sie am besten mit Partnern zusammen, die diese grundlegende Nuance richtig verstehen. Das zweite Missverständnis besteht darin, dass Zero Trust nur die neueste Art ist, die Identitätsmanagementkomponente eines Sicherheitsstapels zu bezeichnen.
Es besteht kein Zweifel daran, dass Identität ein grundlegender Bestandteil eines effektiven Zero-Trust-Ansatzes ist, aber es besteht auch die Gefahr, dass sich Unternehmen so sehr auf dieses eine Element konzentrieren, dass sie vergessen, dass es noch andere gibt.
Diese Fehleinschätzung kann zu potenziellen Schwachstellen führen, die wiederum zu schwerwiegenden Cybersecurity-Ereignissen führen können – genau die Art von Ereignissen, die das Unternehmen durch die Einführung von Zero Trust von vornherein zu vermeiden versuchte.
Seit vielen Jahren nutzen Unternehmen die Multi-Faktor-Authentifizierung (MFA), um den Schutz sensibler Daten zu gewährleisten. Die Bedrohungslandschaft entwickelt sich jedoch weiter und einige Experten schätzen inzwischen, dass bis zu 70 % der MFA-Optionen durch Social Engineering und Phishing gehackt werden können. Die Identität ist wichtig, aber es wird immer unzuverlässiger, sich auf sie als Hauptdeterminante in einer Sicherheitsrichtlinie zu verlassen. Außerhalb der Welt der Cybersicherheit würden wir unser Vertrauen nicht auf der Grundlage einer einzigen Beurteilung in jemanden setzen. Vertrauen ist ein vielschichtiger Prozess, der im Laufe der Zeit aufgebaut werden muss. Ebenso muss es mehrere Formen der Verifizierung geben, um Zero Trust zu erreichen. Zero Trust muss mit der Annahme beginnen, dass Ihr System kompromittiert werden kann und wird. Je mehr Schutzmaßnahmen ergriffen werden, desto mehr Vertrauen können wir in sie setzen. Entscheidend ist jedoch, dass ein einziger Punkt zur Durchsetzung von Richtlinien verwendet wird, um den Datenverkehr zu kontrollieren, der von diesen verschiedenen Maßnahmen ausgeht.
Ilona Simpson über „Zero Trust“
Echtes Zero Trust wird nur erreicht, wenn ein Unternehmen einen integrierten, ganzheitlichen Ansatz verfolgt, der jeden Berührungspunkt, Benutzer und jedes Gerät berücksichtigt. Wichtig ist, dass Vertrauensentscheidungen auf der Grundlage dieser detaillierten Erkenntnisse ständig angepasst werden. Durch die Einbeziehung aller acht Elemente in ihren Zero-Trust-Ansatz (einschließlich Identität) können Unternehmen mit weitaus größerem Vertrauen operieren. Damit wird Sicherheit zu einem echten Faktor, der Innovationen und Anpassungen an die Anforderungen des Unternehmens ermöglicht, sei es die Einführung neuer Anwendungen, die Integration von KI, die Expansion in neue Märkte oder die Förderung von Hybridarbeit.
Die Identitätsauthentifizierung ist eine der ersten und am häufigsten verwendeten Maßnahmen für Zero Trust und sollte ein Kernstück jeder Strategie sein. Es gibt sieben weitere Elemente, die Unternehmen in die Durchsetzung ihrer Richtlinien einbauen sollten, um eine wirklich sichere, robuste Zero-Trust-Infrastruktur zu gewährleisten:
Es kommt nicht nur darauf an, welches Gerät Sie verwenden. Auch ein vollständig authentifizierter Benutzer auf einem kompromittierten Gerät stellt ein Sicherheitsrisiko dar. Zero Trust sollte Firmen- und Privatgeräte unterscheiden und den Gerätezustand, Patch-Level und Sicherheitskonfigurationen prüfen, bevor Zugriff gewährt wird.
Mit hybrider Arbeit sollten Unternehmen damit rechnen, dass Nutzer versuchen, von verschiedenen Standorten aus auf Daten und Hardware zuzugreifen.
Sicherheitsteams sollten bestimmte Apps für die Nutzung im Unternehmen überprüfen und genehmigen und ggf. erweiterte Kontrollen und/oder Beschränkungen für nicht genehmigte Anwendungen einführen, um einen möglichen Datenverlust zu verhindern.
Viele Unternehmen erlauben ihren Mitarbeitern die Nutzung ihrer persönlichen Cloud-Anwendungen, etwa persönliche Instanzen von Microsoft 365. Dies kann jedoch zu Problemen führen, insbesondere wenn vertrauliche Unternehmensdaten in einer persönlichen App freigegeben werden. Daher sollte auch jede Instanz jeder App verstanden werden.
Zero Trust erstreckt sich darauf, wie Anwendungen miteinander interagieren und wie sie auf Daten zugreifen. Selbst innerhalb der Sitzung eines einzelnen Benutzers sollten die Aktionen, die eine Anwendung im Namen dieses Benutzers durchführt, einer genauen Prüfung unterzogen werden.
Die Identität kann den Nutzern den Erstzugang gewähren, das Verhalten danach sollte kontinuierlich überprüft werden (unter sorgfältiger Beachtung des Datenschutzes der Mitarbeiter). Wenn ein Mitarbeiter (oder eine Organisation) plötzlich auf große Datenmengen zugreift oder sensible Dateien herunterlädt, sollten die Alarmglocken läuten, selbst wenn der Benutzer ursprünglich authentifiziert war.
Das Herzstück von Zero Trust sind Daten – es geht darum, die Integrität und Vertraulichkeit der Daten zu gewährleisten. Das bedeutet, Daten im Ruhezustand und bei der Übertragung zu verschlüsseln und dass Datenzugriffsmuster auf Anomalien überwacht werden müssen.
https://creativecommons.org/licenses/by-nd/4.0/deed.de#
Im Interview erklärt Philipp Adamidis, CEO und Mitgründer von QuantPi, wie seine Plattform den sicheren, verständlichen und effizienten Einkauf sowie Einsatz von KI für Organisationen ermöglicht.
Herr Adamidis, wie wird aus KI eine vertrauenswürdige KI?
Damit KI vertrauenswürdiger wird, müssen wir sie vor allem verständlich und nachvollziehbar machen. Stellen Sie sich etwa eine KI-gestützte App vor, die Hautkrebs erkennt. Vertrauen entsteht, wenn unter anderem Nutzer wissen, woher die Trainingsbilder stammen, z. B. von Dermatologen, und dass sie vielfältig sind –verschiedene Hautfarben, Alter– etc. Zudem sollte die App erklären, warum sie ein Bild als verdächtig einstuft, z. B. wegen „unregelmäßige Form“. Und natürlich muss die App gründlich getestet und laufend überwacht werden, um Fehlfunktionen zu erkennen. Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.
Wie funktioniert in diesem Kontext Ihre „AI Trust Platform“?
Unsere Plattform ermöglicht den sicheren, verständlichen und effizienten Einkauf und Einsatz von KI für Organisationen. Sie verbindet KI-Governance-, Compliance- und technische Tests, um eine ganzheitliche und hochautomatisierte Lösung anzubieten, die die Leistung von KI-Systemen nachvollziehbar validiert – ohne dabei geistiges Eigentum oder private Daten offenlegen zu müssen!
Welche Vorteile haben Ihre Kunden davon?
Unsere Kunden profitieren in erster Linie davon, dass im Unternehmen eingesetzte KI-Systeme einheitlich überprüft werden, um einen hohen Qualitätsstandard zu gewährleisten. Somit lassen sich finanzielle, rufschädigende und rechtliche Risiken vermeiden, die durch KI-Systeme verursacht werden könnten. Zusätzlich zur Sicherstellung der Leistung und Einhaltung von Standards im großen Maßstab ermöglicht unsere Testtechnologie auch, dass KI-Experten ihre knapp bemessenen Ressourcen für anspruchsvolle Aufgaben und Innovationen nutzen können, statt für zeitaufwendige Tests.
Wie setzen Sie die Fördergelder des Europäischen Innovationsrats (EIC) ein?
Mit dem Fördergeld erweitern wir unsere KI-Testtechnologie und bauen die erste automatisierte Risikomanagement-Plattform für generative KI-Systeme, welche die Umsetzung von Verordnungen wie dem EU AI Act erleichtern wird. Da die technologische Entwicklung auf diesem Gebiet besonders rasant voranschreitet, müssen auch wir unsere Testtechnologie stetig erweitern. Wir sind fest davon überzeugt, dass wir mit unserer Lösung einen wichtigen Beitrag zur flächendeckenden Nutzung von KI leisten werden. Denn nur wenn KI sicher und verständlich ist, wird sie auf die breite Akzeptanz der Gesellschaft stoßen und unser Zusammenleben in Zukunft bereichern.
Herr Adamidis, welche Risiken entstehen bei der Vernachlässigung von Vertrauenswürdigkeit und Governance bei KI-Projekten?
Wie vorhin angesprochen, können enorme finanzielle, rufschädigende und rechtliche Risiken entstehen, wenn KI-Projekte Vertrauenswürdigkeit und Governance vernachlässigen. Viele Banken führen die KI-Revolution an, daher nehmen wir mal ein KI-gestütztes Kreditantragsverfahren als Beispiel. Versäumt man es, umfassende Tests und Governance-Praktiken in die Implementierung einzubeziehen, kann dies beispielsweise dazu führen, dass einzelnen Personen aufgrund von Merkmalen wie ihrer ethnischen Zugehörigkeit oder Wohnort schlechtere Bonitätsbewertungen zugewiesen werden, obwohl ihre finanzielle Lage stabil ist. Dies kann zu Klagen, Geldstrafen und Reputationsschäden führen – das Problem ist, dass die KI eine Blackbox ist und Unternehmen ohne ausführliche Tests und Übersichten möglicherweise gar nicht wissen, welche schlechten Praktiken sie anwenden.
Wo liegen die Herausforderungen die Black Boxes der KI transparent zu gestalten?
KI verknüpft Millionen von Parametern miteinander und macht es somit extrem schwierig, ihre Entscheidungsprozesse nachzuvollziehen. Angesichts der Komplexität sind Tests unglaublich zeitaufwendig und rechenintensiv. Da beide Ressourcen begrenzt und teuer sind, fällt es Unternehmen verständlicherweise schwer, das Thema Transparenz auf angemessene Weise anzugehen. Das Fehlen standardisierter Testmethoden trägt zudem dazu bei, dass es nahezu unmöglich ist, die wahren Fähigkeiten und Grenzen von KI-Lösungen zu beurteilen. Wenn es um den Kauf einer KI-Lösung geht, behaupten viele Anbieter, dass sie die relevanten Dimensionen getestet haben, aber mit welchen Daten und unter Berücksichtigung welcher Werte oder ethischen Grundsätze? Mit QuantPi arbeiten wir an der Lösung dieser Probleme. Wir beteiligen uns an der Entwicklung von Standards, wie z. B. der DIN SPEC 92001-3 über erklärbare KI, die agnostisch angewendet werden können und eine vergleichbare Basis für Transparenz schaffen und wir ermöglichen es Unternehmen, Tests selbst effizienter und übersichtlicher durchzuführen.
Philipp Adamidis betont: „Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.“
Nach welchen Kriterien wird getestet?
Um eine verantwortungsvolle und vertrauenswürdige KI zu gewährleisten, legen wir den Schwerpunkt auf diverse Tests in den Dimensionen wie Bias, Robustheit, Erklärbarkeit und Datenqualität. Für regulierte Branchen oder Anwendungen bieten wir außerdem die Prüfung von KI-Systemen anhand relevanter Verordnungen und Standards an.
Wir nehmen diese Standards, wandeln sie in einen testbaren Katalog von Anforderungen (sowohl quantitativ als auch qualitativ) um und ermöglichen es Unternehmen, ihre Compliance- oder Qualitätssicherungsprozesse für KI-Systeme zu skalieren. Kunden können so die für sie relevanten Compliance-Anforderungen auswählen, z. B. den EU AI Act oder bestimmte ISO-Normen oder auch ihre eigenen Ethikrichtlinien mit unserer Plattform prüfen lassen.
Welche Möglichkeiten bieten Sie Ihren Partnern?
Unsere Partner, so wie unsere direkten Kunden, erhalten einen umfassenden und technisch validierten Einblick in die Risiken, Nutzen und den Compliance-Status von ihren KI-Systemen.
Da unsere Partner oft über fundierte Branchenkenntnisse verfügen, sind Sie in der Lage, mit uns Ihr volles Potenzial auszuschöpfen. Das ermöglicht Ihnen, Ihre Kunden bei wichtigen Entscheidungen zu unterstützen und ganzheitliche Angebote im Bereich der KI-Governance anzubieten. Manche Partner erstellen auch eigene KI-Assessments und skalieren den Inhalt dieser durch unsere technischen KI-Tests. Hinzu kommen Zertifizierungs- und Auditpartner, die z.B. unsere Platform nutzen, um einheitliche Nachweise zu Prüfungen konkreter KI-Systeme zu erhalten. Während Anwendungsfälle unserer Technologie und die Darstellungsformen der Testergebnisse von Partner zu Partner unterschiedlich sind, sorgen diese grundsätzlich für die Beschleunigung einer verantwortungsvollen KI-Transformation von Unternehmen.
Herr Adamidis, was haben Sie sich mit QuantPi zum Ziel gesetzt?
Unsere Vision ist es, der Gesellschaft eine sichere und selbstbestimmte Zukunft mit intelligenten Maschinen zu ermöglichen. Um dies zu erreichen, haben wir uns das 3-Jahres-Ziel gesetzt, führende Unternehmen bei der Entwicklung vertrauenswürdiger und konformer KI zu unterstützen. Warum führende Unternehmen? Weil diese einen immensen Einfluss darauf haben, wie wir unser tägliches Leben gestalten. Wir müssen sicherstellen, dass die Prozesse, die uns umgeben, von Systemen angetrieben werden, die streng validiert und überwacht sind. Unsere Absicht ist es keineswegs, Innovation abzubremsen, sondern ihren Fortschritt auf verantwortungsvolle Weise zu unterstützen.
Bitte gehen Sie kurz auf Ihre Gründungsgeschichte ein.
Während unserer akademischen Laufbahn an der Universität des Saarlandes lernten Artur Suleymanov, Dr. Antoine Gautier und ich uns kennen. Das ist mittlerweile fast 8 Jahre her und von Anfang an waren wir als Technologie-Enthusiasten vom transformativen Potential der KI überzeugt und haben unsere Tage und Nächte mit diesem Thema verbracht.
Unsere Ambition war es, unsere eigene KI zu entwickeln und sie auf dem Markt zu etablieren. Nach den ersten gescheiterten Versuchen, Kunden von der Vertrauenswürdigkeit der KI-Black-Boxen zu überzeugen, hatten wir unseren Aha-Moment und erkannten die Notwendigkeit, dieses Vertrauensproblem auf technologischer Ebene anzugehen.
Als Teil des Ökosystems des weltweit führenden CISPA Helmholtz-Instituts für Cybersicherheit fanden wir die perfekte Umgebung für wegweisende Forschung im Bereich Sicherheit für KI. Schließlich gründeten wir 2020 QuantPi mit dem Ziel, Künstliche Intelligenz auch außerhalb der Forschung vertrauenswürdig zu machen.
https://creativecommons.org/licenses/by-nd/4.0/deed.de#
Diese Seite benutzt Cookies. Mit der Nutzung dieser Seite stimmen Sie den Datenschutzeinstellungen zu.
OKEinstellungenWir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Webseite besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Webseite anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Webseite und auf die Dienste haben kann, die wir anbieten können.
Diese Cookies sind unbedingt erforderlich, um Ihnen über unsere Webseite verfügbare Dienste bereitzustellen und einige ihrer Funktionen zu nutzen.
Da diese Cookies für die Bereitstellung der Website unbedingt erforderlich sind, wirkt sich die Ablehnung auf die Funktionsweise unserer Webseite aus. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Dies wird Sie jedoch immer dazu auffordern, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Webseite erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten, aber um zu vermeiden, Sie immer wieder zu fragen, erlauben Sie uns bitte, ein Cookie dafür zu speichern. Sie können sich jederzeit abmelden oder sich für andere Cookies anmelden, um eine bessere Erfahrung zu erzielen. Wenn Sie Cookies ablehnen, entfernen wir alle gesetzten Cookies in unserer Domain.
Wir stellen Ihnen eine Liste der auf Ihrem Computer in unserer Domain gespeicherten Cookies zur Verfügung, damit Sie überprüfen können, was wir gespeichert haben. Aus Sicherheitsgründen können wir keine Cookies von anderen Domains anzeigen oder ändern. Sie können diese in den Sicherheitseinstellungen Ihres Browsers überprüfen.
Diese Cookies sammeln Informationen, die entweder in aggregierter Form verwendet werden, um zu verstehen, wie unsere Webseite verwendet wird oder wie effektiv unsere Marketingkampagnen sind, oder um unsere Webseite und Anwendung für Sie anzupassen, um Ihre Erfahrung zu verbessern.
Wenn Sie nicht möchten, dass wir Ihren Besuch auf unserer Website erfassen, können Sie das tracking in Ihrem Browser hier deaktivieren:
Wir verwenden auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten wie Ihre IP-Adresse erfassen, können Sie diese hier sperren. Bitte beachten Sie, dass dies die Funktionalität und das Erscheinungsbild unserer Website erheblich beeinträchtigen kann. Änderungen werden wirksam, sobald Sie die Seite neu laden.
Google Webfont-Einstellungen:
Google Map-Einstellungen:
Google reCaptcha-Einstellungen:
Einbettung von Vimeo- und Youtube-Videos:
Die folgenden Cookies werden ebenfalls benötigt - Sie können auswählen, ob Sie sie zulassen möchten:
Sie können unsere Cookies und Datenschutzeinstellungen im Detail auf unserer Datenschutzrichtlinie nachlesen.
Datenschutz