Wie Deutschland sich informiert: Von Leitartikeln zu Likes

 

 

Ergebnis

In einer zunehmend digitalisierten Welt stellt sich die Frage, wie sich die Deutschen heutzutage informieren. Da es jedoch große Unterschiede zwischen den Altersgruppen gibt, muss man sie bei dieser Frage getrennt betrachten. Bei den Älteren dominiert das Fernsehen nach wie vor als wichtigste Informationsquelle. In dieser Generation spielen zudem traditionelle Medien wie Radio und Printzeitungen eine zentrale Rolle. Im Gegensatz dazu setzen jüngere Menschen zunehmend auf soziale Medien – fast jeder zweite unter 30-Jährige nutzt sie, um sich über das aktuelle Weltgeschehen auf dem Laufenden zu halten. Plattformen wie Instagram und TikTok haben hier den klassischen Medien den Rang abgelaufen, während Fernsehen und Radio deutlich an Bedeutung verlieren.

Gründe

Dieser Wandel spiegelt eine grundlegende Veränderung in der Art und Weise wider, wie Informationen konsumiert werden. Die Jüngeren bevorzugen Plattformjournalismus, der Inhalte in kurzen, leicht verdaulichen Formaten bietet, die auf ihre kürzere Aufmerksamkeitsspanne abgestimmt sind. Viele ältere Bürger halten hingegen an den traditionellen Medien fest, an die sie sich im Laufe ihres Lebens gewöhnt haben. Diese Art der Mediennutzung ist fest in ihren täglichen Routinen verankert und bietet zudem eine klare Struktur, die im Gegensatz zur fragmentierten und oft unübersichtlichen Informationsflut auf sozialen Plattformen steht. Schließlich bleibt auch die Benutzerfreundlichkeit ein entscheidender Faktor. Fernsehen und Radio erfordern keine komplexen technischen Fähigkeiten, was sie für ältere Menschen, die möglicherweise weniger technikaffin sind, besonders attraktiv macht.

Prognose

In Zukunft wird sich das Informationsverhalten der Deutschen weiter in Richtung digitaler Kanäle verschieben. Soziale Medien und digitale Plattformen werden eine immer größere Rolle spielen. Zudem werden künftig immer öfter auch KI-Algorithmen Nutzerverhalten analysieren und personalisierte Nachrichteninhalte erstellen. Dies birgt aber auch die Gefahr, in sogenannten „Filterblasen“ zu leben, in denen man nur Informationen erhält, die den bestehenden Ansichten entsprechen.

Somit bleibt das Vertrauen in die Verlässlichkeit der Informationsquellen ein kritischer Faktor. Mit dem Anstieg von Desinformation und Fake News wird auch die Medienkompetenz der Bevölkerung an Bedeutung gewinnen müssen. Gleichzeitig werden traditionelle Medien wie das Fernsehen verstärkt digitale Angebote entwickeln, um auch jüngere Zielgruppen zu erreichen und sich an den veränderten Medienkonsum anzupassen.

 

 

 

Wider die Engpässe am Bau: Automatisierung und Ressourceneffizienz als Lösung

Gastbeitrag von Theodor Kaczmarczyk, CEO von MOD21 Deutschland.

 

  • Serielles Bauen ist günstiger, schneller und nachhaltiger
  • Ressourcenschonende Produktion und digitale Planung senken CO₂-Fußabdruck
  • Künstliche Intelligenz (KI), Vorfertigung und Building Information Modeling (BIM) beschleunigen den Herstellungsprozess

 

Jahr um Jahr wächst der Bedarf an Wohnraum und Gebäuden – sei es im privaten Bereich oder bei öffentlichen Einrichtungen wie Schulen, Kindergärten und Verwaltungsgebäuden. Allein im Wohnungsbau fehlen in Deutschland zehntausende Einheiten. Das ehrgeizige Ziel der Bundesregierung, jährlich 400.000 Wohnungen zu bauen, wird nicht erreicht: Im vergangenen Jahr waren es weniger als 300.000. Und für 2024 liegt die Schätzung von Expert:innen bei rund 250.000 Wohnungen.

 Gleichzeitig werden Ressourcen immer knapper, und die Baukosten steigen. Hier setzt das serielle, automatisierte Bauen an. Serielles Bauen, insbesondere der modulare Holzbau, bietet eine vielversprechende Lösung auf diese Herausforderungen. Diese Bauweise ermöglicht nicht nur eine ressourcenschonende Produktion, sondern trägt auch zur Erhöhung der Nachhaltigkeit und Effizienz über den gesamten Lebenszyklus eines Gebäudes bei. Technologische Innovationen wie Building Information Modeling (BIM), die Vorfertigung der Module in der Produktionshalle und der Einsatz von Künstlicher Intelligenz (KI) spielen dabei eine zentrale Rolle.

 

Autor: Theodor Kaczmarczyk, CEO von MOD21 Deutschland

 

Der modulare Holzbau ist ein Kernelement des seriellen, automatisierten Bauens. Er beruht auf der Vorfertigung standardisierter Module, die auf der Baustelle zu einem vollständigen Gebäude zusammengesetzt werden. Diese Bauweise spart nicht nur Zeit, sondern auch Material und Energie. Der nachwachsende Rohstoff Holz ist dabei von besonderer Bedeutung. Es bindet während seines Wachstums CO₂ und hilft somit, die Kohlenstoffbilanz eines Gebäudes deutlich zu verbessern. Gleichzeitig erfordert die Verarbeitung von Holz weniger Energie als traditionelle Baumaterialien wie Beton oder Stahl, was den Energieverbrauch und die CO₂-Emissionen weiter reduziert.

Modulare Holzbauten sind flexibel und lassen sich leicht an unterschiedliche Bedürfnisse anpassen. Diese Flexibilität macht sie nicht nur im Wohnungsbau, sondern auch für den Bau von Schulen, Kindergärten und Verwaltungsgebäuden attraktiv. Die Module können bei Bedarf erweitert, verkleinert oder umgenutzt werden, was langfristig eine effiziente Raumnutzung ermöglicht.

 

Ressourcenschonende Produktion und Kreislaufwirtschaft

Im Zentrum des seriellen Bauens steht die Vorfertigung von Bauelementen in einer kontrollierten Umgebung. Dies fördert eine ressourcenschonende Produktion: Bei der industriellen Vorfertigung wird der Materialeinsatz präzise geplant und Abfall auf ein Minimum reduziert. Außerdem kann der gesamte Bauprozess im Vergleich zur traditionellen Bauweise um bis zu 70 Prozent schneller abgeschlossen werden. Das spart nicht nur Zeit, sondern reduziert auch den Einsatz von Baugeräten und Fahrzeugen vor Ort – und somit den CO₂-Fußabdruck.

Ein weiterer Vorteil des modularen Bauens ist die Möglichkeit, Gebäude in einen Kreislauf zu integrieren. Die Module können am Ende der Nutzungsdauer demontiert und für neue Bauprojekte wiederverwendet werden. Dieser Ansatz fördert die Kreislaufwirtschaft und trägt zur Verringerung des Ressourcenverbrauchs bei, was in Zeiten wachsender Materialknappheit ein entscheidender Vorteil ist.

 

Mehr Komfort für die Mitarbeitenden durch Hallenfertigung

Ein weiterer Vorteil der serienmäßigen Vorfertigung ist der Komfort für die Mitarbeitenden. Anstatt sich ständig wechselnden Wetterbedingungen und oft herausfordernden Arbeitsbedingungen auf Baustellen auszusetzen, arbeiten Fachkräfte in modernen, gut ausgestatteten Produktionshallen. Diese stabile und angenehme Arbeitsumgebung steigert den Komfort und die Sicherheit der Mitarbeitenden. Die Hallenfertigung ermöglicht eine kontrollierte Temperatur, weniger Lärmbelästigung und ergonomische Arbeitsbedingungen, was nicht nur die Effizienz steigert, sondern auch die Mitarbeiterzufriedenheit erhöht. Dank zunehmender Automatisierung können Maschinen die monotonen oder körperlich anstrengenden Aufgaben übernehmen, wodurch sich das Fachpersonal auf anspruchsvollere Tätigkeiten konzentrieren kann.

 

Höhere Qualität durch kontrollierte Produktionsbedingungen

Die Vorfertigung in Hallen bietet zudem klare Vorteile für die Qualitätssicherung. In einer kontrollierten Umgebung können Arbeitsabläufe und Produktionsschritte präzise überwacht und kontinuierlich optimiert werden, was in dieser Form auf herkömmlichen Baustellen oft nicht möglich ist. Witterungseinflüsse, welche die Qualität beeinträchtigen können, entfallen, sodass eine konstante Präzision und Standardisierung der Bauelemente gewährleistet ist. Auch die Fehleranfälligkeit sinkt, da alle benötigten Materialien und Werkzeuge vor Ort verfügbar sind und die Arbeitsschritte effizient aufeinander abgestimmt werden.

 

Nachhaltigkeit und der Lebenszyklus von Gebäuden

Der Lebenszyklus eines Gebäudes umfasst Planung, Bau, Betrieb, Instandhaltung und Rückbau. Im seriellen Bau spielt die Nachhaltigkeit in jeder dieser Phasen eine entscheidende Rolle. Durch die Verwendung von ökologischen Baumaterialien wie Holz, die effiziente Vorfertigung der Module und die Wiederverwendbarkeit von Bauteilen, werden Gebäude insgesamt umweltfreundlicher und ressourceneffizienter.

Im Betrieb punkten serielle Gebäude ebenfalls: Durch den Einsatz modernster Technik können sie energieeffizient gestaltet werden, beispielsweise durch den Einsatz von Photovoltaikanlagen, Wärmepumpen oder intelligenten Heizsystemen. Auch die Wartung ist vereinfacht, da modulare Bauweisen oft standardisierte Bauteile nutzen, die sich schneller und kostengünstiger austauschen lassen. Insgesamt werden so nicht nur die Bau-, sondern auch die Betriebskosten gesenkt.

Ein Beispiel für die praktische Umsetzung dieser Ansätze ist das nachhaltige Abfallmanagement bei MOD21: Im Jahr 2023 konnten 99 Prozent der Holzabfälle recycelt werden. Zudem wurde das Produktionswerk komplett auf erneuerbare Energien umgestellt, wodurch die Elektrizitätsversorgung der Fertigung emissionsfrei bleibt. Ein weiteres Beispiel ist die neue Dämmstoffblasanlage, die Zellulosefasern, aber auch andere Arten von Dämmstoffen in die Konstruktion einbläst. Der große Vorteil ist die Reduzierung der Abfallmenge auf null.

 

Effizienzsteigerung durch Digitalisierung und Automatisierung

Eine Schlüsseltechnologie für die erfolgreiche Umsetzung des seriellen Bauens ist Building Information Modeling (BIM), da es eine präzise, digitale Planung des gesamten Bauprozesses ermöglicht. BIM vernetzt alle Beteiligten – von Architekten, Ingenieuren, Bauherren bis hin zu Bauunternehmern. Durch die gemeinsame Nutzung einer zentralen Datenplattform wird eine ganzheitliche und transparente Planung ermöglicht, die Fehler und Missverständnisse reduziert.

Im modularen Bau ist BIM besonders vorteilhaft, da hier der gesamte Produktions- und Bauprozess bis ins Detail vorab simuliert und optimiert werden kann. Die genaue Planung der Module, deren Transport und Montage werden so effizienter gestaltet. Für den Bau von öffentlichen Gebäuden wie Schulen und Kindergärten bedeutet dies eine erhöhte Planungs- und Kostensicherheit.

Darüber hinaus bietet BIM den Vorteil, dass der Lebenszyklus eines Gebäudes bereits in der Planungsphase berücksichtigt wird. Das ermöglicht eine genaue Vorhersage der Wartungs- und Betriebskosten und fördert die Planung von nachhaltigen, energieeffizienten Gebäuden. Dank frühzeitiger Fehleranalysen und Kollisionskontrollen liefert BIM mehr Planungssicherheit im Produktionsprozess, optimiert Energieverbrauch und reduziert Materialabfälle, wodurch CO₂-Emissionen reduziert werden.

Künstliche Intelligenz (KI) spielt eine ergänzende Rolle, indem sie den Bauprozess weiter automatisiert und optimiert. KI-gestützte Systeme können Bauprozesse optimieren, indem sie Daten aus der Planungs- und Bauphase analysieren und Verbesserungspotenziale aufzeigen. Durch die Analyse von Daten zu Lieferketten und Produktionsabläufen kann beispielsweise die Logistik effizienter gestaltet werden, indem Materialien rechtzeitig und kosteneffizient geliefert werden. Außerdem ermöglicht KI eine vorrausschauende Wartung von Gebäuden, indem sie Sensordaten analysiert und frühzeitig auf mögliche Schäden oder Abnutzungserscheinungen hinweist, was die Lebensdauer der Gebäude verlängert und Betriebskosten senkt.

 

Serielles Bauen als Zukunftsmodell

Auf einen Nenner gebracht: Serielles, automatisiertes Bauen bietet eine nachhaltige und effiziente Lösung für die drängendsten Probleme der Bauwirtschaft. Durch den Einsatz von ressourcenschonenden Baumaterialien, die industrielle Vorfertigung von Modulen und den Einsatz von Technologien wie BIM und Künstlicher Intelligenz werden nicht nur Bauzeit und -kosten reduziert, sondern auch der gesamte Lebenszyklus von Gebäuden optimiert.

Der modulare Holzbau bietet dabei flexible und nachhaltige Lösungen für verschiedene Anwendungsbereiche. In Zeiten knapper Ressourcen und eines steigenden Bedarfs an energieeffizienten Gebäuden stellt diese Bauweise ein vielversprechendes Modell dar, das langfristige Vorteile bietet und die Zukunft und Gegenwart des Bauwesens nachhaltig verändern kann.

 

 

Über MOD21

MOD21 wurde 2021 als Modulbau-Startup neu gegründet, fusionierte Anfang 2022 mit der ERBUD-Tochterfirma GWI Bauunternehmung und stellte sich danach grundlegend neu auf. Das Unternehmen mit Sitz in Düsseldorf und dem Produktionsstandort Ostaszewo bei Toruń in Polen ist eine Tochter der deutsch-polnischen ERBUD-Gruppe. Mit der Neuausrichtung des Geschäftsfeldes zum modularen Holzbau, werden Gebäude seit 2023 nicht mehr in konventioneller, sondern in modularer oder hybrider Bauweise realisiert. Das Leistungsspektrum von MOD21 umschließt die Fertigung von Raummodulen aus Holz zu fertigen Gebäuden in den Assetklassen Bildung, Wohnen, Unterkünfte, Büro und Gesundheit. MOD21 steht für ein zukunftsfähiges Konzept mit innovativen und nachhaltigen Lösungen im Zeichen des ökologischen Bauens. In Polen wurde MOD21 bereits für seine innovativen Umweltlösungen von der polnischen Sonderwirtschaftszone Pommern ausgezeichnet. Aktuell beschäftigt MOD21 in Deutschland 35 Mitarbeitende. In der Produktion soll bis 2024 die Zahl der Mitarbeitenden auf 150, bis 2026 sogar auf 300 anwachsen.

 

Weitere Informationen finden Sie unter MOD21.com

Zukunftstrends im IT-Service-Management für Unternehmen

In der dynamischen IT-Service-Management-Branche eröffnen sich ständig neue Möglichkeiten und Herausforderungen. Unternehmen müssen sich diesen Veränderungen anpassen, um wettbewerbsfähig zu bleiben. Ein aktueller Bericht beleuchtet die entscheidenden Trends, die das ITSM prägen.

 

In der heutigen digitalen Welt spielt das IT Service Management eine entscheidende Rolle für den Erfolg von Unternehmen. Angesichts der rasanten technologischen Fortschritte müssen Organisationen effizienter arbeiten und gleichzeitig ihre Servicequalität aufrechterhalten. Der Bericht hebt hervor, wie sich ITSM-Trends entwickeln und welche Chancen sich daraus für Unternehmen ergeben.

Aktuelle Trends im IT-Service-Management

Der Bericht identifiziert mehrere bedeutende Trends, die das IT-Service-Management derzeit beeinflussen. Einer der zentralen Aspekte ist die Integration von generativer KI, die Prozesse automatisiert und optimiert. Diese Technologie ermöglicht es Unternehmen, ihre Effizienz erheblich zu steigern und gleichzeitig die Servicequalität zu verbessern. Zudem wird deutlich, dass Cloud-Lösungen immer mehr an Bedeutung gewinnen und traditionelle On-Premises-Systeme ablösen. Diese Trends sind nicht nur relevant für große Konzerne, sondern auch für kleine und mittlere Unternehmen, die flexibel und agil bleiben möchten.

Ein weiterer wichtiger Trend ist die zunehmende Bedeutung von DevSecOps-Praktiken im ITSM. Diese Integration von Entwicklung, Sicherheit und Betrieb ermöglicht eine schnellere und sicherere Bereitstellung von Services. Unternehmen setzen verstärkt auf Self-Service-Portale und chatbot-gestützte Helpdesks, die durch Machine Learning kontinuierlich verbessert werden. Diese Entwicklung führt zu einer deutlichen Entlastung der IT-Teams und ermöglicht eine schnellere Problemlösung für Endanwender.

Besonders hervorzuheben ist auch der wachsende Einfluss von Edge Computing im ITSM-Bereich. Diese Technologie ermöglicht es, Datenverarbeitung näher am Entstehungsort durchzuführen, was zu geringeren Latenzzeiten und höherer Effizienz führt. In Kombination mit 5G-Netzwerken eröffnet dies völlig neue Möglichkeiten für Echtzeitanwendungen und IoT-Implementierungen. Unternehmen, die diese Technologien frühzeitig adaptieren, können sich einen bedeutenden Wettbewerbsvorteil verschaffen.

Praktische Anwendungen und Strategien

Um die neuesten ITSM-Trends effektiv umzusetzen, sollten Unternehmen gezielte Strategien entwickeln. Die Integration von KI-basierten Tools kann beispielsweise dazu beitragen, wiederkehrende Aufgaben zu automatisieren und Ressourcen effizienter zu nutzen. Ein weiteres Beispiel ist die Nutzung von Cloud-basierten Lösungen, die eine höhere Skalierbarkeit und Flexibilität bieten. Es ist wichtig, dass Unternehmen kontinuierlich in die Schulung ihrer Mitarbeiter investieren, um sicherzustellen, dass diese mit den neuesten Technologien vertraut sind. Durch den Austausch bewährter Praktiken zwischen Teams kann ebenfalls die Implementierung neuer Strategien erleichtert werden.

Herausforderungen und Lösungen

Trotz der vielen Vorteile gibt es bei der Implementierung neuer ITSM-Trends auch Herausforderungen zu bewältigen. Viele Unternehmen stehen vor der Aufgabe, ihre bestehende Infrastruktur anzupassen, was zeitaufwendig und kostenintensiv sein kann. Außerdem erfordert die Einführung neuer Technologien oft eine kulturelle Veränderung innerhalb der Organisation. Wichtig ist es daher, Change-Management-Strategien zu entwickeln, um mögliche Widerstände zu überwinden. Die Rolle des Managements ist entscheidend für den Erfolg solcher Transformationsprojekte.

Wie sieht die Zukunft des IT-Service-Managements aus?

Der Blick in die Zukunft zeigt deutlich, dass das IT-Service-Management sich weiterhin dynamisch entwickeln wird. Neue Technologien werden den Markt revolutionieren und bieten sowohl Chancen als auch Risiken. Unternehmen sollten darauf vorbereitet sein, schnell auf Veränderungen reagieren zu können und kontinuierlich in Weiterbildung zu investieren. Die Anpassungsfähigkeit wird ein entscheidender Faktor sein, um im digitalen Zeitalter erfolgreich zu bleiben. Es ist unerlässlich, stets einen Schritt voraus zu denken und proaktiv auf neue Trends einzugehen.

Unternehmen müssen sich kontinuierlich anpassen, um in der sich schnell verändernden IT-Landschaft erfolgreich zu bleiben. Die Integration neuer Technologien und die Entwicklung effektiver Strategien sind entscheidend, um die Herausforderungen der Zukunft zu meistern. Die Fähigkeit, schnell auf Veränderungen zu reagieren und in die Weiterbildung der Mitarbeiter zu investieren, wird den Unterschied zwischen Erfolg und Misserfolg ausmachen. Die Zukunft des IT-Service-Managements ist vielversprechend, und Unternehmen, die bereit sind, sich anzupassen und zu innovieren, werden davon profitieren.

Die Bedeutung von IT-Service-Management wird in den kommenden Jahren weiter zunehmen. Unternehmen, die in der Lage sind, die neuesten Trends zu nutzen und ihre Strategien entsprechend anzupassen, werden einen Wettbewerbsvorteil haben. Die kontinuierliche Weiterentwicklung und Anpassung an neue Technologien wird entscheidend sein, um im digitalen Zeitalter erfolgreich zu bleiben. Unternehmen sollten proaktiv auf neue Trends eingehen und sicherstellen, dass ihre Mitarbeiter über die notwendigen Fähigkeiten verfügen, um diese effektiv zu nutzen.

Die Energiewende als Balanceakt für Unternehmen

Gastbeitrag von Philip Gutschke.

Bis 2050 soll die Energie in Deutschland zu rund 60 Prozent aus erneuerbaren Energien stammen. Darüber hinaus soll die allgemeine Energieeffizienz deutlich erhöht werden. Welche Rolle nehmen deutsche Unternehmen dabei ein und wie kann der Balanceakt zwischen Wirtschaftswachstum und Klimafreundlichkeit gelingen? Philip Gutschke, Bereichsleiter der Energiebeschaffung bei wattline, gibt einen Einblick in dieses komplexe Thema.

Unternehmen in der Verantwortung

Unternehmen sind für rund 70 % des Primärenergieverbrauchs in Deutschland verantwortlich. Dementsprechend groß ist der Einfluss, den Unternehmen mit ihren Entscheidungen auf die Energiewende haben. Wer große Energiemengen verbraucht, sollte jetzt dafür sorgen, dass diese nicht mehr aus fossilen Brennstoffen wie Erdöl, Erdgas oder Kohle stammen. Dafür sind oft weitreichende Investitionen notwendig, um das eigene Unternehmen entsprechend umzurüsten.

 

Über den Autor:  Philip Gutschke ist Leiter der Energiebeschaffung bei der wattline GmbH. Er verfügt über mehr als 15 Jahre Erfahrung im Energiesektor und begann seine berufliche Laufbahn als Unternehmensberater. Bei einem Energieversorger vertiefte er sein Wissen und verantwortet heute die strategischen und operativen Einkaufsprozesse bei wattline.

 

Was Unternehmen nun unter einen Hut bekommen müssen

Es heißt nun also weg vom klassischen Wachstum mit allen Mitteln und hin zu einer nachhaltig wachsenden Wirtschaft mit erneuerbaren Energien. Denn um wirtschaftlich weiterhin erfolgreich zu sein und die Ziele für eine nachhaltigere Zukunft zu erreichen, müssen Unternehmen nun viele Aspekte gleichzeitig im Auge behalten:

  • Einhalten der gesetzlichen Vorgaben
  • Sicherstellen der Rentabilität
  • Erhalten der Wettbewerbsfähigkeit
  • Investieren in zukunftsfähige Lösungen
  • Bewahren eines positiven Corporate Images nach innen und außen

Eine wesentliche Rolle bei all diesen Punkten spielen die damit verbundenen Kosten. Die wattline-Studie zur Energiewende 2024 zeigt: Über die Hälfte der Führungskräfte sieht in den begrenzten finanziellen Ressourcen die größte Herausforderung bei der Umsetzung der Energiewende. Mehr als ein Drittel der Befragten nennt außerdem mangelnde Infrastruktur als weiteres Hindernis, um die Energiewende erfolgreich umzusetzen.

 

Nur ein kleiner Prozentsatz der Führungskräfte sieht in der Umsetzung der Energiewende keine Herausforderung (© www.wattline.de).

 

Nicht nur die Kosten stellen Unternehmen vor Herausforderungen

Unternehmen stehen nun vor der Aufgabe, zukunftssichere Technologien auszuwählen, die langfristig zu ihren individuellen Anforderungen passen. Diese Veränderungen gehen meist über die reine Frage nach der Energieversorgung hinaus: Neue Prozesse, wie beispielsweise eine neue Nachhaltigkeitsstrategie, gehen nicht selten auch mit einem kulturellen Wandel innerhalb des Unternehmens einher.

Das bedeutet, dass derartige Veränderungen von den Mitarbeitenden getragen werden müssen, um erfolgreich und nachhaltig implementiert zu werden. Herrscht aber im jeweiligen Fachbereich bereits ein Fachkräftemangel, kann dies Unternehmen weiter unter Druck setzen. Deshalb sind hier Unternehmen besonders in der Pflicht, ihre Teams inhaltlich rechtzeitig abzuholen und die Wichtigkeit der Maßnahmen zu verdeutlichen.

Tipp: Es empfiehlt sich, zumindest eine Person im Unternehmen zu haben, die als Ansprechperson für alle Fragen rund um die Energiewende zur Verfügung stehen kann. Dabei handelt es sich im Idealfall um eine Vertrauensperson, zu deren Aufgaben es gehört, sich regelmäßig im Bereich der Energiepolitik weiterzubilden.

Chancen ergreifen und nutzen

Auch wenn die Energiewende mit Herausforderungen für Unternehmen verbunden ist: Nicht zu handeln, wäre der falsche Ansatz. Über kurz oder lang wäre dies auch mit höheren Kosten verbunden, etwa, wenn dauerhaft der CO-Preis für die Nutzung fossiler Brennstoffe gezahlt werden muss.

Wer jetzt rechtzeitig in klimafreundliche Lösungen investiert, sichert sich auch einen klaren Wettbewerbsvorteil gegenüber der Konkurrenz, die dies nicht tut. Denn verantwortungsvoll agierende Unternehmen sind bei Kunden ebenso beliebt wie bei Investoren. Auch potenzielle neue Fachkräfte werden sich von einem zukunftsorientierten Unternehmen eher angesprochen fühlen.

Aktiv mitgestalten statt nur dabei

Einige Unternehmen können die neuen Anforderungen bereits aktiv für sich nutzen und bringen klimagerechte Innovationen auf den Markt. So entstehen zum Beispiel ganz neue Ideen für Energieträger, wie etwa eine Megawattbatterie aus Salz.

Auch die bewusste Entscheidung für den Bezug von Ökostrom oder Biogas trägt dazu bei, die Energiewende weiter voranzutreiben. Wer unabhängig von den Energiemarktpreisen werden möchte, investiert – sofern möglich – am besten gleich in die eigene Versorgung mit Sonnenenergie.

Wie der Balanceakt gut gelingen kann

Um den Balanceakt zwischen Wirtschaftlichkeit und Energiewende gut zu meistern, sollten Unternehmen strategisch vorgehen und die eigenen Möglichkeiten bestmöglich ausloten. Vor allem für kleine und mittlere Unternehmen kann es zudem hilfreich sein, sich mit anderen Unternehmen zusammenzuschließen und beispielsweise die Vorteile von Energie-Einkaufsgemeinschaften zu genießen.

Wer die Chancen der Energiewende für sich nutzen kann und sich entsprechend positioniert, wird als Unternehmen langfristig profitieren. Der springende Punkt dabei ist, stets offen zu sein und flexibel auf die neuen Bedingungen des Marktes zu reagieren.

Über den Autor: 

Philip Gutschke ist Leiter der Energiebeschaffung bei der wattline GmbH. Er verfügt über mehr als 15 Jahre Erfahrung im Energiesektor und begann seine berufliche Laufbahn als Unternehmensberater. Bei einem Energieversorger vertiefte er sein Wissen und verantwortet heute die strategischen und operativen Einkaufsprozesse bei wattline.

Präzise Waldanalyse aus der Luft mittels künstlicher Intelligenz

Forschungsteam der Hochschule München entwickelt neuartige Methode zur präzisen Waldanalyse aus der Luft mittels Künstlicher Intelligenz.

 

München – Eine präzise Analyse von Wäldern aus der Ferne ermöglicht die KI-basierte Methode eines Forschungsteams der Hochschule München (HM). Das Team des Instituts für Anwendungen des maschinellen Lernens und intelligenter Systeme (IAMLIS) entwickelte im Projekt Wald5DPlus unter der Leitung von Prof. Dr. Andreas Schmitt und Prof. Dr. Peter Krzystek von der Fakultät für Geoinformation einen umfangreichen Datensatz, der auf Satellitenbildern und Künstlicher Intelligenz (KI) aufbaut. Die Technologie eröffnet neue Möglichkeiten zur Kartierung und Analyse von Waldgebieten, ohne dass Forschende die Wälder betreten müssen.

 

Das Projektteam: Prof. Dr. Peter Krzystek, Sarah Hauser (M. Sc.) und Prof. Dr. Andreas Schmitt (v.l.n.r.). (Foto: Alexander Ratzing)

 

 

Daten aus der Luft
„Die Vermessung von Wäldern war bisher vor allem in schwer zugänglichen Gebieten sehr zeitaufwendig“, erklärt Prof. Dr. Andreas Schmitt, einer der Projektleiter. „Mit unserer Methode können wir den Zustand von Wäldern mit hoher Genauigkeit aus der Vogelperspektive erfassen.“ Das Forschungsteam nutzt dabei die Daten der Sentinel-1- und Sentinel-2-Satelliten der Europäischen Weltraumorganisation ESA. Ein speziell entwickelter Algorithmus gleicht witterungsbedingte Datenlücken aus, die durch Wolken entstehen. Ergänzend dazu wurden Drohnen- und Flugzeugdaten verwendet, um typische Waldmerkmale wie Baumarten, Höhen und Dichte zu berechnen.

 

Mit den Projektdaten von Wald5Dplus lassen sich Karten erstellen, welche die Entwicklung von bis zu zehn verschiedenen Merkmalen von Bäumen vorhersagen. (Grafik: Sarah Hauser)

 

Präzise Prognosen dank KI
„Wir setzen ein Puzzle aus verschiedenen Datenquellen zusammen,“ sagt Sarah Hauser, wissenschaftliche Mitarbeiterin im Projekt. „Erst durch das Zusammenspiel dieser Informationen erhalten wir ein vollständiges Bild des Waldes.“ Die KI-gestützte Analyse ermöglicht nicht nur eine detaillierte Bestandsaufnahme, sondern liefert auch präzise Prognosen über die zukünftige Entwicklung der Wälder. So kann beispielsweise vorhergesagt werden, wie sich der Waldbestand verändern wird – ein entscheidender Vorteil im Kampf gegen Waldschäden und für eine effiziente Bewirtschaftung.

Das Forschungsteam überprüft bei der Erkundung einer Versuchsfläche die KI-Analyse vor Ort. (Foto: Andreas Schmitt)

Werkzeug für effizienten Umweltschutz
„Unsere Methode hat sich als sehr effektiv erwiesen“, berichtet Schmitt. „An einer Versuchsfläche konnten wir beobachten, wie die KI korrekt das Wachstum von jungen Fichten unter alten Buchen vorhergesagt hat.“ Das Wald5DPlus-Projekt bietet somit große Chancen für die Forstwirtschaft und den Umweltschutz. Waldschäden durch Schädlinge oder extreme Wetterereignisse können frühzeitig erkannt und Maßnahmen zur Aufforstung besser geplant werden. Auch im wissenschaftlichen Bereich bietet der Datensatz wertvolle Erkenntnisse, beispielsweise zur Biodiversität und zum Einfluss des Klimawandels auf Wälder.

Öffentlich zugänglicher Datensatz
Das Forschungsteam der HM stellt den Datensatz mit allen notwendigen Skripten und vortrainierten Modelle der Öffentlichkeit zur Verfügung. „Unsere Ergebnisse sind über zenodo.org frei zugänglich“, erklärt Hauser. „So möchten wir Forschenden und Interessierten weltweit die Möglichkeit geben, eigene Analysen durchzuführen und zur Erhaltung der Wälder beizutragen.“

Wald5DPlus
Das Forschungsprojekt „Wald5Dplus – Ein KI-Benchmark-Datensatz für die kombinierte spektrale, polarimetrische und zeitliche Erfassung von Waldbeständen mittels Sentinel-1& -2“ wurde gefördert vom Bundesministerium für Wirtschaft und Klimaschutz. Der Projektträger ist die Raumfahrtagentur im DLR. Die Veröffentlichung ist abrufbar über zenodo.org: DOI: 10.5281/zenodo.10848838. Förderkennzeichen: 50EE2210.

 

Das Projekt wurde gefördert vom Bundesministerium für Wirtschaft und Klimaschutz.

 

Pressemitteilung der Hochschule München.

Checkliste zur Anbieterauswahl bei der digitalen Identitätsprüfung

Köln. Die Melissa Data GmbH engagiert sich weiter im Bereich der Betrugsprävention. Dazu hat der Anbieter globaler Datenqualitäts- und Adressmanagementlösungen eine Liste von Kriterien erstellt, die Anbieter von Lösungen zur digitalen Identitätsprüfung erfüllen sollten.

„Das Thema Online-Betrug gewinnt leider zunehmend an Bedeutung, weshalb Unternehmen mehr denn je gefordert sind, zuverlässige Präventionsmaßnahmen zu ergreifen“, berichtet Çağdaş Gandar, Geschäftsführer der Melissa Data GmbH, und ergänzt: „Hierzu gehört vor allem die Einführung einer digitalen Identitätsprüfung. Mit unserer Checkliste wollen wir Unternehmen dabei helfen, den passenden Anbieter zu finden.“

Konkret führt Melissa folgende Kriterien auf:

  1. Angemessene Betrugserkennungsfunktionen: Der Technologieanbieter sollte eine breite Palette an Betrugserkennungsfunktionen offerieren, um verschiedene Betrugsarten abzudecken, die für die jeweilige Branche relevant sind. Dazu gehören die Adressvalidierung, das Screening nach politisch exponierten Personen (PEP), der Abgleich mit Sanktionslisten und anderen nationalen und internationalen Beobachtungslisten sowie das Screening nach negativen Meldungen.
  2. Internationalität: Das Internet kennt bekanntlich keine Grenzen, so dass entsprechende Betrugsdelikte weltweit geplant und begangen werden. Daher sollte die Lösung zur digitalen Identitätsprüfung möglichst viele Länder abdecken.
  3. Flexibilität: Die Lösung zur digitalen Identitätsprüfung sollte sich an die konkreten Anforderungen und das Risikoprofil des Unternehmens anpassen lassen. Individuelle Konfigurationen sowie Regelwerke und Schwellwerte, die auf spezifische Geschäftsprozesse zugeschnitten werden können, sind dabei unerlässlich. Darüber hinaus sollte die Lösung skalierbar sein, um sich an unterschiedliche Transaktionsvolumina anzupassen.
  4. Warnmeldungen in Echtzeit: Die in der Lösung zur digitalen Identitätsprüfung integrierten Überwachungs- und Warnfunktionen sollten Betrugsvorfälle sofort melden, sodass Unternehmen umgehend darauf reagieren können.
  5. Hohe Integrationsfähigkeit: Eine nahtlose Integration in bestehende Systeme wie E-Commerce-Plattformen, Payment Gateways, Kundendatenbanken oder Risikomanagementsysteme ermöglicht einen effizienten Datenaustausch und optimierte Arbeitsabläufe.
  6. Datenschutz und Datensicherheit: Die Identitätsprüfung erfordert den Umgang mit sensiblen Kundendaten und Transaktionsinformationen. Daher sollte der Anbieter einer solchen Lösung technische und organisatorische Maßnahmen nachweisen, die den Datenschutz und die Datensicherheit gewährleisten.

Die Checkliste ist Bestandteil des neuen White Papers „Sicher und erfolgreich mit digitaler Identitätsprüfung“.
Hier zum Download: https://www.melissa.com/de/ressourcen/whitepapers/digitale-identitatetspruefung

Über Melissa:

Melissa ist ein führender Anbieter von Datenqualitäts-, Identitätsprüfungs- und Adressmanagementlösungen. Melissa unterstützt Unternehmen bei der Kundengewinnung und -bindung, bei der Validierung und Korrektur von Kontaktdaten, bei der Optimierung des Marketing-ROIs sowie beim Risikomanagement. Seit 1985 ist Melissa für Unternehmen wie die Mercury Versicherung, Xerox, Disney, AAA und Nestlé ein zuverlässiger Partner bei der Verbesserung der Kundenkommunikation.

Weitere Informationen: www.melissa.de

 

Dies ist eine Pressemitteilung der Melissa Data GmbH.

Weniger Lust auf lange Wege

 

Weniger Lust auf lange Wege: Freizeitziele müssen näher rücken

In einer Zeit, in der das eigene Zuhause zunehmend an Bedeutung gewinnt, nimmt die Bereitschaft der Bürger ab, lange Wege für Freizeitaktivitäten in Kauf zu nehmen. Zu diesem Ergebnis kommt eine aktuelle Untersuchung der gemeinnützigen Stiftung für Zukunftsfragen, für die über 3.000 Personen ab 18 Jahren repräsentativ befragt wurden.

Besonders bei kulturellen und sozialen Veranstaltungen ist ein deutlicher Rückgang der Anfahrtszeiten zu beobachten. Zwar nehmen Musicalbesucher weiterhin knapp eine Stunde Fahrtzeit in Kauf, doch dies entspricht fast einer halben Stunde weniger als vor zehn Jahren. Auch für Open-Air-Konzerte (-22 Minuten), Sportveranstaltungen (-19 Minuten) und Theaterbesuche (-11 Minuten) zeigen sich die Bürger zunehmend weniger bereit, längere Zeit im Auto, Zug oder Bus zu verbringen.

Auch die Bereitschaft, weite Strecken zu Verwandten (-16 Minuten) oder Freunden (-13 Minuten) zurückzulegen, ist gesunken, bleibt aber relativ hoch. Denn für keine andere Aktivität investieren die Bürger mehr Fahrtzeit. Die durchschnittliche Dauer hat dennoch abgenommen, was unter anderem auf die Nutzung digitaler Kommunikationsmittel zurückzuführen ist, die persönliche Treffen teilweise ersetzen.

Im Gegensatz zu den meisten Freizeitaktivitäten weisen einige Ziele eine stabile oder sogar leicht gestiegene Anfahrtsdauer auf. So hat sich die durchschnittliche Anfahrtszeit zu Naherholungsgebieten und Bars leicht erhöht, und zu Restaurants ist sie mit einem Plus von acht Minuten sogar deutlicher gestiegen.

Einordnung des wissenschaftlichen Leiters, Professor Dr. Ulrich Reinhardt:

„Die Analyse der Anfahrtszeiten zu verschiedenen Freizeitaktivitäten verdeutlicht die Verdichtung und Attraktivität der Angebote im Alltag vieler Bundesbürger. Lange Anfahrtszeiten müssen durch einen entsprechenden Mehrwert gerechtfertigt sein, was nicht immer der Fall ist. Gleichzeitig zeigen sich Veränderungen in den Präferenzen der Bürger: Während fast alle kulturellen und sozialen Aktivitäten an Attraktivität verlieren, gewinnen lokale und naturbezogene Freizeitmöglichkeiten an Bedeutung. Diese Entwicklungen spiegeln das Bedürfnis vieler Bürger nach Effizienz, aber auch nach Erholung, Bequemlichkeit und häuslicher Gemütlichkeit wider – getreu dem Motto: Schnell hin, und noch schneller zurück aufs Sofa.“

Digitale Transformation und KI

In den kommenden Jahren werden KI und Automatisierung unsere menschlichen Fähigkeiten erweitern

Ein echtes Hindernis auf dem Weg in die digitale Transformation ist die Cyberkriminalität. Durch Diebstahl von IT-Ausrüstung und Daten sowie durch Industriespionage und Sabotage entstanden im Jahr 2023 der deutschen Wirtschaft 206 Milliarden Euro Schaden. Das ergab die repräsentative Bitkom-Studie vom September 2023. Immer mehr Attacken kommen aus Russland und China. Erstmals fühlt sich eine Mehrheit von 52 Prozent der Unternehmen durch Cyberattacken in ihrer Existenz bedroht. Verfassungsschutz-Vizepräsident Sinan Selen sagte bei der Vorstellung der Studie: „Die Ergebnisse der aktuellen Untersuchung fügen sich nahtlos in unsere Lageeinschätzung ein. Wir sind mit einer verstetigten hohen Bedrohung durch staatliche und nicht-staatliche Cyberakteure konfrontiert.“ Der Krieg im Netz ist also voll entbrannt, demnach scheint auch die Sensibilisierung der Unternehmen an Fahrt aufzunehmen. Unternehmen stellen einen immer größeren Anteil ihres IT-Budgets für Cybersicherheit bereit. Die digitale Transformation und die Umstellung auf hybride Cloudinfrastrukturen sowie Homeworker haben die Art und Weise, wie Unternehmen ihre Geschäfte realisieren, verändert. Es reicht nicht mehr aus, sich auf einen Netzperimeter zu verlassen. Dazu kommt, dass viele Unternehmen immer noch mit diversen Sicherheitslösungen und -tools arbeiten, die schlecht integriert sind. Für die Sicherheitsteams bedeutet das, mehr Zeit mit manuellen Aufgaben zu verbringen. Außerdem hat die Zunahme von Datenschutzverletzungen und die Verschärfung der weltweiten Compliance-Regeln den Schutz von Netzwerken erschwert. Unternehmen die gerade neue digitale und datengetriebene Geschäftsmodelle auf Basis der Cloud- und IIoT-Technologien umsetzen, rät Ilona Simpson, CXO Advisor bei Netskope, sich mit den Möglichkeiten rund um Secure Access Service Edge (SASE), „sässie“ ausgesprochen, zu beschäftigen. SASE ist eine Technologie, die softwaredefinierte  Netzwerkfunktionen mit Netzwerksicherheit zusammenführt. Das cloudbasierte Architekturkonzept ist eine Kombination aus einem erweiterten und aus einer Zweigstelle bereitgestellten SD-WAN-Edge und umfassenden Sicherheitsdiensten, die über die Cloud laufen. „Unternehmen erkennen mittlerweile, dass die traditionellen Sicherheitsarchitekturen für die neuen Cloudtechnologien nicht mehr geeignet sind und Firmen, die ihre Sicherheit nicht auf einen einheitlichen Zero-Trust-Ansatz umstellen, setzen ihre digitale Infrastruktur zunehmend Cyberrisiken aus,“ erklärte llona Simpson. Ob zur Abwehr von Cyberattacken oder als Grundlage für neue digitale Geschäftsmodelle, die neuen Technologien rund um künstliche Intelligenz und Machine Learning (ML) halten Einzug in Unternehmen und unser Privatleben.

 

„Mehr als 206 Milliarden Euro Schaden durch Cyberkriminalität“

 

Zum Beispiel mit ChatGPT oder Google Gemini haben wir nun alle Zugang zu generativer KI. Aber ist das wirklich die Demokratisierung von KI und ML und welche Trainingsmodelle und Daten stecken dahinter?  Zum Beispiel hat sich QuantPi das Ziel gesetzt, Europa und die globale Gemeinschaft nachhaltig zu beeinflussen, indem es Pionierarbeit bei der sicheren Nutzung von generativer KI leistet. Das Start-up für KI-Vertrauensmanagement ist 2020 aus dem CISPA-Helmholtz-Zentrum für Informationssicherheit und der Universität des Saarlandes hervorgegangen. Während es Anbietern und Nutzern an Ressourcen und Technologien fehlt, um die Risiken generativer KI-Systeme zu beherrschen, bauen die KI-Spezialisten die notwendigen Schutzmaßnahmen auf. Aktuell hat das Start-up 2,5 Mio. Euro Förderung vom Europäischen Innovationsrat (EIC) erhalten für den Aufbau einer Plattform für vertrauenswürdige generative KI. „Mit dem Fördergeld erweitern wir unsere KI-Testtechnologie und bauen die erste automatisierte Risikomanagement-Plattform für generative KI-Systeme, welche die Umsetzung von Verordnungen wie dem EU AI Act erleichtern wird“,  erklärte dazu CEO Philipp Adamidis. Für Anbieter von generativen KI-Systemen bietet diese Technologie eine Möglichkeit, höchste ethische Standards in ihr Produkt zu integrieren. „Unternehmen, die GenAI-Tools kaufen möchten, können den Risikobewertungsprozess während der Beschaffung automatisieren, um ihren Kundenstamm zu schützen und sicherzustellen, dass nur in hochwertige KI investiert wird“, ergänzte Philipp Adamidis. Wer sichtbar machen möchte, wie künstliche Intelligenz die Wirtschaft und den Alltag bereits heute und künftig transformiert, sollte sich die KI-Landkarte der Plattform Lernender Systeme anschauen, auch im Hinblick darauf neue Geschäftsmodelle zu entdecken.

Aber wie setze ich jetzt die ersten KI-Projekte in die Praxis um und welches Mindset sollte ich mitbringen? „Das Wichtigste für ein produktives KI-Projekt ist nicht tiefes Fachwissen im Bereich Machine Learning – das kann man sich dazu holen – sondern eine Vision, was man erreichen will. Offenheit und die Bereitschaft, Dinge auszuprobieren, zu lernen, und schnell umzusteuern, wenn sich neue technologische Möglichkeiten bieten oder etwas nicht funktioniert“, betonte Maximilian Vogel von Big Picture im Gespräch mit unserer Redaktion. „Ich empfehle, einen Bereich mit großem Automatisierungspotential zu identifizieren und direkt – alleine oder mit einem Partner – in ein kleines Umsetzungsprojekt zu starten, das bei Erfolg ausgebaut werden kann.“

Neue Geschäftsmodelle entstehen momentan auch rundum digitale Zwillinge (digital twins). Kurz gesagt, repräsentiert ein digitaler Zwilling ein reales Objekt in der digitalen Welt. In der Praxis geht es darum, ein hochkomplexes virtuelles Modell zu erstellen, das das exakte Gegenstück, oder der Zwilling, eines physischen Objekts ist. Die Technologie verschafft der Industrie Effizienzsteigerung, Nachhaltigkeit im Produktlebenszyklus und Verbesserungen beim Thema Forschung und Entwicklung.  Viele Vordenker sind davon überzeugt, dass digital Twins schon bald die am häufigsten benutzte Applikation in der Industrie sein wird. Das Metaversum bietet im Hinblick darauf auch neue Geschäftsmodelle für Unternehmen.  Zum Beispiel verdeutlicht die Partnerschaft zwischen Siemens und Nvidia die anstehende Transformation sehr gut. Die beiden Konzerne wollen mit „Xcelerator“ eine digitale Plattform für die Industrie schaffen und Unternehmen ins Metaversum bringen. Hauptsächlich geht es bei der Zusammenarbeit um den digitalen Zwilling. Dazu sollen das Siemens-Xcelerator-Ökosystem und die Omniverse-Plattform von Nvidia verknüpft werden. Die neuen Technologien verändern nicht nur die Industrie in ihrer Wertschöpfung rasant, sondern eigentlich alle Branchen, wie auch die der Logistik. Ob humanoide Roboter, fliegende Warenhäuser oder selbstfahrende Züge und Lkw: Die Zukunft der Logistik besteht aus Innovationen durch die schlaue Kombination neuer Technologien. Zum Beispiel wird so KI mit Sensorik und Robotik zum neuen Treiber der digitalen Transformation. Also, die Technologien sind alle da und vorhanden, Unternehmer sollten sich Zeit nehmen und die neuen Technologien verstehen lernen, um dadurch für das eigene Business zum Beispiel neue Automatisierungsmöglichkeiten zu entdecken. Im Hinblick darauf können neue KI-Geschäftsmodelle durchaus das Potential aufbringen, um das eigene Bestandsgeschäft zu disruptieren. Natürlich stehen Sie dann vor neuen Herausforderungen. Aber genau dann haben Sie richtig gehandelt, um auch in Zukunft noch am Markt zu bleiben. Um die erfolgreiche digitale Reise zu starten, empfiehlt Sebastian Wohlrapp von diconium, zum Schluss: „Hört auf, wahllos zu digitalisieren! Blinder Aktionismus ist die falsche Herangehensweise. Der Kauf einer digitalen Lösung transformiert ein Unternehmen nicht. Analysiert Eure Ausgangslage! Unternehmen müssen ihre Fähigkeiten vor dem Start in die Transformationsphase hinterfragen. Welche Rolle soll das Unternehmen in Zukunft in welchen Ökosystemen spielen? Das schafft die Grundlage für alles, was danach kommt. Wagt Neues und denkt groß! Eine Transformation kann sehr viel Gutes hervorbringen, aber sie ist kein Change, den man einfach managen oder delegieren kann. Unternehmen scheitern meiner Erfahrung nach nicht, weil sie die falschen Dinge tun. Sie scheitern, weil sie zu lange Dinge tun, die früher richtig waren.“

 

Autor: Bernhard Haselbauer

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

Aufmacherbild/Quelle/ Lizenz
AI Image/Limitless Visions / Adobe Stock

Saubere Stammdaten sichern internationale Wettbewerbsfähigkeit

Warum benötigen Unternehmen saubere Stammdaten, um den Anschluss zum internationalen Wettbewerb zu halten?

Die TREND REPORT Redaktion sprach dazu mit Maurice Schnitzler, Principal Master Data Governance, und Christian Falke, Partner SAP Architecture, Development and Integration, beim SAP Gold Partner apsolut.

 

Weshalb gestaltet sich die Lage für die Unternehmen in Deutschland derzeit so schwierig? 

Maurice Schnitzler: Ein zentraler Schmerzpunkt ist sicher der massive internationale Wettbewerbsdruck. Nach einer aktuellen ifo-Umfrage verschlechtert sich die Wettbewerbsposition der deutschen Industrie innerhalb der EU und auf den Weltmärkten seit nunmehr zwei Jahren. Um diesem Abwärtstrend entgegenzuwirken und nicht den Anschluss zu verlieren, müssen die Unternehmen permanent neue Möglichkeiten erschließen, um ihre Geschäftsprozesse zu optimieren, den Kundenservice zu verbessern, die Betriebskosten zu senken, attraktive Geschäftsfelder zu erschließen und ihre Effizienz zu steigern.

Hinzu kommt, dass sich die Betriebe mit immer mehr gesetzlichen Vorschriften im Bereich Umwelt, Soziales und verantwortlicher Unternehmensführung konfrontiert sehen. Die Regulierungsdichte nimmt zu. Aktuelle Beispiele sind das Lieferkettensorgfaltspflichtengesetz (LkSG), das zur Einhaltung von Menschenrechten und Umweltstandards in den Lieferketten verpflichtet, und die neue Corporate Sustainability Reporting Directive (CSRD) der EU, die die Nachhaltigkeitsberichterstattung weiter verschärft. Unternehmen, die die Vorgaben nicht einhalten, müssen mit teilweise empfindlichen Geldbußen und Imageverlusten rechnen, die ihnen den Weg zu Investmentquellen und Geschäftsmöglichkeiten versperren.

Maurice Schnitzler betont: „Saubere Daten sind unverzichtbar, damit Unternehmen den Durchblick gewinnen und die Voraussetzungen für modernes Wachstum schaffen.“

 

Wie können die Unternehmen den steigenden Anforderungen begegnen?

Christian Falke: Eine entscheidende Voraussetzung sind zuverlässige und eindeutige Stammdaten, da diese die Basis für fundierte strategische Entscheidungen, für Reportings und die Rationalisierung von Geschäftsprozessen bilden. Zudem ist es den Unternehmen mit einem einheitlichen Datenbestand überhaupt erst möglich, den Mehrwert zukunftsweisender KI-Technologien auszuschöpfen.

Intelligente Tools bieten bisher unerreichte Wettbewerbsvorteile. Sie unterstützen wichtige Entscheidungsprozesse, indem sie Datenanalysen und Handlungsempfehlungen bereitstellen. So lässt sich mithilfe von KI aus einer Vielzahl von Anbietern exakt derjenige Lieferant herausfiltern, der die benötigten Fähigkeiten mitbringt. Ebenso ist es mit prädiktiven KI-basierten Analysen möglich, künftige Trends vorauszusagen und proaktive Maßnahmen zu ergreifen. Wer zum Beispiel weiß, wie sich die Nachfrage nach bestimmten Produkten oder Dienstleistungen entwickelt, kann gezielt neue Geschäftsmodelle zur Kundenakquise, -betreuung und -bindung kreieren. Zudem können KI-Tools für die Automatisierung ermüdender Routineaufgaben, wie das Beantworten von Kundenanfragen, eingesetzt werden. Die Mitarbeiter gewinnen dadurch mehr Zeit für kreative Aufgaben und können verstärkt zur Wertschöpfung im Unternehmen beitragen.

Christian Falke betont: „Höchste Zeit zu handeln! Betriebe und Organisationen sind daher gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. „

 

Wie ist es aber tatsächlich um den Einsatz von Stammdatenmanagement in der Praxis bestellt?

Maurice Schnitzler: Obwohl der Nutzen verlässlicher Daten über Produkte, Lieferanten, Kunden, Mitarbeiter, Standorte oder Inventar außer Zweifel steht, hinkt die Praxis dieser Erkenntnis häufig hinterher. Das heißt konkret: In historisch gewachsenen Konzern- und IT-Strukturen verteilen sich die Informationen auf vielen verschiedenen Datenbanken und Geschäftsanwendungen. Oft fehlen Schnittstellen, zugleich wird das Problem der Datensilos angesichts der ständig steigenden Datenflut immer weiter verschärft. Darüber hinaus führen fehlende Verantwortlichkeiten und Richtlinien für die Eingabe und Verwaltung zu einer schlechten Datenqualität, die durch fehlerhafte, unvollständige, doppelt vorhandene oder veraltete Informationen gekennzeichnet ist. Eine Studie des Bitkom-Branchenverbands kommt zum Ergebnis, dass die überwiegende Mehrheit der Unternehmen in Deutschland das Potenzial ihrer Daten derzeit nicht ausschöpft, um von KI-basierten Erkenntnissen oder datengetriebenen Geschäftsmodellen zu profitieren. Ein wesentlicher Grund dürfte das Fehlen einer kohärenten, umfassenden Datenstrategie sein.

 

Was sollten die Unternehmen tun, um dieses Defizit effektiv aufzuarbeiten?  

Christian Falke: Die Betriebe und Organisationen sind gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. Nur so können sie den Durchblick gewinnen und die Voraussetzungen für ein modernes Wachstum schaffen – und damit ihre internationale Wettbewerbsfähigkeit sichern. Allerdings ist zu beachten, dass MDM kein rein technisches Thema ist. Es reicht weit über die Zusammenführung und Bereinigung von Daten aus verschiedenen Quellsystemen in einer MDM-Plattform – dem so genannten „Single Point of Truth“ – hinaus.

Da die fachliche Zuständigkeit für die Daten bei den Teams und den Abteilungen liegt, müssen auch diese frühzeitig für die Wichtigkeit des Themas sensibilisiert und zum Beispiel im Rahmen von Workshops in das MDM-Projekt eingebunden werden. Um die Akzeptanz für das neue System zu erhöhen, ist ein gezieltes Change Management unverzichtbar. So müssen im Sinne von Data Governance klare Verantwortlichkeiten und Befugnisse für die Daten festgelegt und die Fachanwenderinnen und -anwender in der Nutzung der neuen Prozesse und Technologien geschult werden. Die Praxis zeigt, dass der Aufbau einer unternehmensweiten Datenkultur und -mentalität ein kritischer Erfolgsfaktor bei jeder MDM-Einführung ist.

 

Wie kann apsolut die Unternehmen bei ihrem MDM-Projekt unterstützen?

Christian Falke: Mit apsolut haben die Betriebe und Organisationen einen erfahrenen Beratungspartner zur Seite, der umfassendes Fach- und Technologie-Know-how mit langjährigen MDM-Projekterfahrungen kombiniert. Dies reicht von Strategie- und Prozessberatung bis hin zur Implementierung einer MDM-Plattform „State of the Art“. Dabei unterstützen wir die Unternehmen mit einem umfassenden Data-Governance-Konzept, um organisationsweit einheitliche Prozesse, Rollen, Richtlinien und Verantwortlichkeiten zu etablieren. In enger Zusammenarbeit mit dem Kunden legen wir fest, wer welche Daten in welchen Situationen und mit welchen Methoden nutzen kann.

Zugleich schaffen wir mit unseren bewährten Change-Management-Methoden die organisatorischen Voraussetzungen, damit ein Unternehmen seinen Datenschatz, das „Gold des 21. Jahrhunderts“, heben – und damit den Anschluss im internationalen Wettbewerb halten kann.

Maurice Schnitzler: Als SAP Gold Partner und mehrfach ausgezeichneter SAP Ariba Partner of the Year ist das apsolut-Beratungsteam für SAP-Anwenderunternehmen der richtige Ansprechpartner in Sachen MDM. Diese Kunden können wir dank unserer umfassenden SAP-Expertise effizient dabei unterstützen, ihre SAP- und Non-SAP-Stammdaten aus den unterschiedlichsten Datenbanken und Anwendungen zusammenzuführen und zu bereinigen – und damit von einer übergreifenden Datenstrategie zu profitieren.

Prinzipiell sollte erwähnt werden, dass apsolut einen starken Fokus auf die konzeptionelle MDM-Beratung von Kunden legt. Bei Bedarf bieten wir über die reine Strategie- und Prozessberatung hinaus auch Unterstützung bei der technologischen Umsetzung des MDM-Projekts an. Welche MDM-Plattform dafür in Frage kommt, hängt von den kundenindividuellen IT-System- und Prozesslandschaften und den speziellen Anforderungen ab. Da wir auf ein Ökosystem unterschiedlicher Technologien und Lösungen zurückgreifen, können wir jedem Kunden etwas anbieten, das für seine individuellen Bedürfnisse und aktuelle Situation passt. Denn nur auf dieser Grundlage ist es möglich, das Potenzial innovativer KI-Anwendungen als „Treibstoff“ für erfolgskritische Entscheidungen und zukunftsorientierte Geschäftsmodelle zu nutzen.

 

 

Über die Interviewpartner:

Maurice Schnitzler ist Principal Master Data Governance bei apsolut. Er verfügt über mehrjährige Erfahrungen im Mittelstand, wo er für einen Baustoffzulieferer und eine Brauerei für die Themen Stammdatenmanagement, Datenqualität, Informationsmodellierung und Change Management zuständig war. Weitere berufliche Stationen liegen in der Finanzbranche. Hier war Maurice Schnitzler für das größte Leasingunternehmen in Deutschland und für einen Versicherer als Data Governance Officer im Bereich Data Governance, Datenstrategie, Metadaten-Management und Schulungen tätig.

Christian Falke ist Partner SAP Architecture, Development and Integration bei apsolut. Er ist seit 16 Jahren als SAP-Berater tätig und für die strategische Planung und Umsetzung von Kundenprojekten, vor allem im Bereich Einkaufsprozesse und Supply Chain Management, zuständig. Ein weiterer Fokus liegt auf Lösungen zur Optimierung von Stammdatenprozessen in SAP. Christian Falke unterstützt die Geschäftsführung bei strategischen Entscheidungen und baut bei apsolut mit seinem Team das Beratungsangebot für das Stammdatenmanagement und die SAP BTP (Business Technology Platform) Services weiter aus.

 

https://www.ap-solut.com

 

Aufstieg der KI-Agenten

Daten als Basis für Innovationen

 

Stellen Sie sich eine Zukunft vor, in der Ihr Kundenservice rund um die Uhr arbeitet, auf jede einzelne Anfrage personalisierte Antworten gibt und aus jeder Interaktion lernt, um einen noch besseren Service zu bieten. Faszinierend, nicht wahr? Und ja, diese Zukunft ist bereits in der Mache und teilweise auch schon am Start. Im Silicon Valley werden gerade durch den Start-up-Accelerator Y-Combinator Milliardenbeträge in diverse generative AI-Agenten-Start-ups investiert. Es entstehen im Moment vom Kundendienstmitarbeiter über den Re­cruiter bis hin zum Software-Entwick­ler neue digitale Mitarbeitende, die keinen Urlaub brauchen und rund um die Uhr „am Schreibtisch sitzen“. AI-Agenten sind damit in der Lage, komplette Mitarbeiter zu ersetzen. Ob daran die EU im Kontext der aktuellen KI-Regulierungen des AI Act auch gedacht hat? Der AI Act schreibt z. B. vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Wir haben zwar das Recht auf die freie Berufswahl in der EU, aber nicht das Grundrecht auf Arbeit. In diesem Kontext rückt auch das „Ein-Personen-Start-up“ in greifbare Nähe.   Nach Sam Altmann, Vordenker bei OpenAI, könnte es mit KI gelingen, bald ein Ein-Personen-Einhorn zu schaffen. Uncle Sam glaubt das – und das Silicon Valley hat die Technologie für uns schon in der Schublade. Das wirbelt die Start-up-Welt ordentlich durcheinander. Wenn generative KI-Agenten, den Vertrieb, Softwareprogrammierung und Kundenservice des Gründers übernehmen, wird dieses Szenario wohl schnell zur Realität. Spätestens dann wird nicht mehr nur die technische Überlegenheit und Marktdurchdringung in der Softwarebranche für Neugeschäft sorgen, sondern auch der viel niedrigere Preis für Software, den KI-Technologien ermöglichen.  Milliardär und Investor Chamath Palihapitiya aus dem Silicon Valley startete vor kurzem seinen selbstfinanzierten Inkubator „8090“, der Start-ups für Unternehmenssoftware finanziert.  „Sagen Sie uns, welche Unternehmenssoftware Sie verwenden, und mein Team und ich erstellen Ihnen eine Version mit 80 % Funktionsumfang und 90 % Rabatt“, so Palihapitiya in einem Beitrag auf X. Anhand der aufgezeigten Beispiele erkennt man ganz gut, wie die neuen Technologien rund um KI und Machine Learning unsere Entwicklung in Zukunft beeinflussen werden – und wir stehen erst am Anfang der KI-Revolution.  Wer sich näher mit dem Thema Informationsnetzwerke und KI beschäftigen möchte, findet mit dem neuen Werk von Yuval Noah Harari eine aufschlussreiche Lektüre. Diesmal nimmt er uns mit auf eine Reise durch die evolutionäre Geschichte der Informationsnetzwerke, die er bis zur Gegenwart verfolgt und in die Welt der künstlichen Intelligenz projiziert. „Nexus“ erhebt den Anspruch, den Bogen von den frühesten mündlichen Überlieferungen bis hin zu den Algorithmen des digitalen Zeitalters zu spannen.

Zum Beispiel erlebt derzeit die Marketingbranche einen tiefgreifenden Wandel und steht vor einer unvermeidlichen Revolution. KI kann heute schon in Verbindung mit RPA (Robotic Process Automation) repetitive und zeitaufwendige Aufgaben automatisieren, wie z. B. die Segmentierung von Kundenlisten, das Schalten von Anzeigen oder das Senden von E-Mails. Diese Automatisierung spart nicht nur Zeit, sondern erhöht auch die Effizienz und Genauigkeit der Marketingaktivitäten. „Damit rückt das Thema Hyperpersonalisierung auch für KMU in greifbare Nähe.“, erklärte uns dazu Lorenz Beringer, CEO und Gründer von Lobeco. „Marketing 5.0 ist selbst für kleinere Unternehmen durch KI nicht länger eine Zukunftsvision. Durch personalisierte Marketingkampagnen und KI- Chatbots sowie automatisierte Content-Prozesse können wir mit innovativen Technologien unseren Kunden eine zielgruppenspezifische Ansprache ihrer Kunden ermöglichen.“ KI kann beispielsweise unstrukturierte Daten zu strukturierten machen, die maschinell auswertbar sind. Große Datenmengen können schnell und automatisch ausgewertet werden, um damit Experten und Sachverständige bei schwierigen Entscheidungen datenbasiert zu unterstützen. Aber wie werden nun aus gesammelten unstrukturierten und strukturierten Daten, zum Beispiel aus Datenseen (Data Lakes), Trainingsdaten als Grundlage für diverse KI-Anwendungen? Damit beschäftigt sich momentan das Forscherteam rund um Prof. Dr. Christoph Sturm von der DHBW Mosbach. Die Datenspezialisten haben eine künstliche Intelligenz entwickelt, die einerseits mehrere KIs in sich vereint und wiederum einer anderen KI zuarbeitet, sie unterrichten und für ihre spezifischen Aufgaben trainieren kann. Dazu muss die DHBW-KI erst diverse Dateitypen – Fotokopien, Sensordaten aus der Produktion, Bilder oder SAP-Tabellen – erkennen, sortieren und verschlagworten. Dazu erklärte Prof. Sturm: „In der Praxis stehen User vor dem Data-Discovery-Problem: Wie lassen sich Daten finden und auslesen? Wir haben uns in diesem Kontext auf Tabellendaten fokussiert und bieten eine technische, KI-basierte Lösung an, die das Katalogisieren ermöglicht.“

In Zeiten von KI wird es zudem immer wichtiger, Daten in Echtzeit zu analysieren – sobald sie eben vorliegen. Datenstreaming ermöglicht in diesem Kontext zum Beispiel, das Kundenerlebnis zu verbessern, Netzwerkausfälle zu verhindern oder wichtige Geschäftskennzahlen in Echtzeit zu aktualisieren. Eine passende Lösung dazu bietet Benjamin Buick von Xeotek mit KaDeck. Die Frankfurter Softwareschmiede unterstützt mit ihrem Data Streamhouse mithilfe von Data Streaming KI-Anwendungen in Echtzeit. „KI kann man als ein Gehirn verstehen: Ohne Echtzeitinformationen kann KI keine klugen oder relevanten Entscheidungen treffen. Statt die Umgebung durch Sinne wahrzunehmen, verlässt sich KI auf Echtzeitdaten. Auch bei der Integration der Ergebnisse ist das der Fall. KI profitiert also wie menschliche Mitarbeiter von einem einfachen Zugang zu Daten im Unternehmen, den ein Data Streamhouse ermöglicht“, erklärte Benjamin Buick im Gespräch mit unserer Redaktion. KaDeck ermöglicht ganzen Teams bestehend aus Entwicklern, Fachbereichen und Anwendungsbetrieb ganz einfach Entwicklung, Analyse und Betrieb von datengetriebenen Big-Data-Anwendungen mit Apache Kafka. KaDeck ist damit die Datenzentrale für Apache Kafka. Gute Daten waren schon immer die Grundlage und der Treibstoff für innovative Prozesse, aber im Zeitalter von KI nimmt deren Bedeutung deutlich zu. Nur wer seine Daten in entsprechender Qualität, harmonisiert und zentral verfügbar hält, wird auch in Zukunft technische Entwicklungen wie KI meistern und nutzen können.

„Höchste Zeit zu handeln!“, betonen in diesem Kontext Maurice Schnitzler, und Christian Falke, von der apsolut Group. Betriebe und Organisationen seien daher gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. „Nur so können sie Durchblick gewinnen und die Voraussetzungen für modernes Wachstum schaffen – und gleichzeitig den Anschluss zum internationalen Wettbewerb halten“, betonte Maurice Schnitzler. Abschließend ergänzte Christian Falke: „Da die fachliche Zuständigkeit für die Daten bei den Teams in den Abteilungen liegt, müssen diese frühzeitig für die Wichtigkeit des Themas sensibilisiert und im Rahmen von Workshops in das MDM-Projekt eingebunden werden, Stichwort: ‚Change Management‘.“

 

https://trendreport.de/ki-im-handel-vertrieb/

https://trendreport.de/ki-automatisierung-2024/

Autor: Bernhard Haselbauer

 

KI-Transformation

Die Welt der künstlichen Intelligenz entwickelt sich rasant weiter und das Jahr 2025 steht bereits im Zeichen neuer Innovationen und Trends.

 

Haben Sie schon die KI-Bereitschaft Ihres Unternehmens getestet, um sich für die Zukunft zu wappnen? Experimente zu machen, ist sicherlich ein guter und agiler Weg, um sich dem Potenzial und den Möglichkeiten der neuen Technologien zu nähern. Dabei sollte an einen mitarbeiterzentrierten Ansatz beim Ausprobieren von KI gedacht werden. Generative KI-Tools wie z. B. ChatGPT sind vielseitige Werkzeuge, die sich für verschiedenste Aufgaben einsetzen lassen. Im Berufsalltag kann so schnell die Produktivität und Kreativität im Unternehmen gesteigert werden. Das innovative Tool kann von der Recherche und Aufbereitung von Informationen über Textgenerierung bis hin zu Korrekturlesen und Übersetzungen einiges an Arbeit übernehmen.

Auch Ihre IT-Abteilung profitiert davon, denn ChatGPT hat die Welt des Programmierens verändert, indem es sofortige Lösungen für Programmierprobleme bietet und diese für jeden zugänglich macht. Durch die Unterstützung von Programmierern bei der Erstellung von Codeschnipseln und die Bereitstellung von Tipps zur Optimierung verändert generative KI die Art und Weise, wie wir an die Programmierung herangehen. Wie dafür die richtigen Prompts gestrickt sein müssen und optimiert werden können, kann schnell gelernt werden. Aber auch alternative KI-Tools wie Google Gemini und Microsoft Copilot laden zum Erkunden ein und unter kizentrale.de, finden Sie viele KI-gestützte Anwendungen von der Bildbearbeitung bis hin zur Programmierung.  Vielleicht nutzen Ihre Mitarbeitenden ja schon diverse KI-Tools und Sie wissen es gar nicht? Neben den vielen Potenzialen birgt insbesondere das Preisgeben von Daten für ChatGPT neue Compliance-Risiken für Ihre Organisation.

„Organisationen müssen erkennen, dass KI-Tools wie ChatGPT ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“

In diesem Kontext erklärte Neil Thacker von Netskope: „Organisationen müssen erkennen, dass KI-Tools wie ChatGPT ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“ In seinem Gastbeitrag auf Seite zehn erläutert Neil Thacker, wie Unternehmen Transparenz und Kontrolle über SaaS-Anwendungen wie ChatGPT im gesamten Unternehmen erreichen können. Unternehmen, die z. B. ihr eigenes KI-Sprachmodell (Large Language Model, LLM) an den Start bringen möchten, sollten sich vorab mit der eigenen Infrastrukturanalyse beschäftigen. Es muss sichergestellt werden, dass die Anforderungen für KI-Implementierungen innerhalb des Unternehmens erfüllt sind. Hierbei werden Skalierbarkeit, Sicherheit und Datenzugriff berücksichtigt. Da KI-Projekte unterschiedliche Anforderungen an die Hardwarekapazitäten stellen, sollten die Rechenleistungen und der Rechenspeicher vorab geprüft werden. Eine sichere Netzwerkinfrastruktur mit hoher Zuverlässigkeit des Netzwerks ist eine weitere Grundlage, damit es klappt. Zum Beispiel müssen die Fragen – wo liegen Ihre Daten, sind die Daten strukturiert, wie kann auf die Daten zugegriffen werden? – beantwortet werden. Das Wichtigste für die erfolgreiche Integration von KI-Tools ist die passende Cloud-Infrastruktur. Bedenken sollte man vorab noch, dass Daten, die auf eigenen Servern gehostet werden, noch in die Cloud migriert werden müssen.

Aber wie gut sind aktuell die IT-Infrastrukturen auf die KI-Implementierung vorbereitet und vor welchen Problemen stehen Unternehmen? Laut der aktuellen Studie „Daten als Treiber der IT-Integration“ von Techconsult und Itaricon verfügen erst 16 Prozent der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur.  Sebastian Gottwald, Geschäftsführer von Itaricon, erklärte dazu: „Besonders die Themen Datenqualität und Integrierbarkeit der Systeme stellen große Herausforderungen dar. Interessant ist, dass Effizienzsteigerung und Prozessautomatisierung als Hauptgründe für den Einsatz von KI genannt werden, während Schulungen und fehlende technologische Grundlagen als die größten Hindernisse wahrgenommen werden. Unternehmen müssen hier strategisch ansetzen, um den Nutzen von KI voll auszuschöpfen. Der Ausbau einer transparenten und integrierbaren IT-Landschaft ist dabei der Schlüssel zum Erfolg.“ Die stetige Evolution der digitalen Transformation, fordert zudem Unternehmen dazu auf,  die neuen Technologie wie Blockchain, IoT, ML, VR/AR und KI für neue Geschäftsmodelle sinnvoll zu verknüpfen. Die Geschwindigkeit, in der Disruptionen unsere Wirtschaft und Gesellschaft verändern, nimmt immer weiter zu. Damit einhergehende digitale Trends bieten Unternehmen neue Chancen, um mit diesem rasanten Wandel Schritt zu halten und ihren eigenen Erfolg zu steigern. Zum Beispiel hat die Blockchain- bzw. Distributed-Ledger-Technologie das Potenzial, Machtverhältnisse zu verschieben. Banken und Finanzinstitute wären irgendwann obsolet. Unsere digitalisierte, globale Wirtschaft hat machtvolle Unternehmen hervorgebracht, welche Hoheit über Daten, Kundenzugriff oder Ökosystem-Plattformen haben. Viele dieser Machthaber könnten heute schon durch kleine Schnipsel Code ersetzt werden. Mit Blockchain und Smart Contracts können Intermediäre aus der Kette entnommen und Herstellungskosten verringert werden. Die Entwicklung der bisherigen Kryptowährungen zeigt dies recht eindrucksvoll. Einer der großen Vorteile einer Blockchain ist die Sicherheit der Technologie.

„Besonders die Themen Datenqualität und Integrierbarkeit der Systeme stellen große Herausforderungen dar.

Sicherheit für Verbraucher und Unternehmen beim Online-Banking vermisst man dennoch momentan.  Auch dieses Jahr werden wieder viele deutsche Bundesbürger und Unternehmen durch Social Engineering um Millionenbeträge erleichtert. Hilfe dagegen gibt es kaum. Schon beim Abbestellen eines Newsletters kann man sich unbemerkt durch Klicken auf den Link infizieren z. B. mit einem Exploit. Vertrauen in Digitalisierung und Transformation geht so in der Bevölkerung schnell verloren. Aber aktuelle Regulierungsvorhaben der Europäischen Kommission – die PSD3 (Payment Service Directive 3) und PSR (Payment Service Regulation) – sollen den digitalen Zahlungsverkehr verbraucherfreundlicher und sicherer machen. Vor allem der Betrugsbekämpfung durch Social Engineering wird dabei viel Platz eingeräumt. Dr. Ernst Stahl, Head of Payments bei NTT Data, erklärte uns dazu: „Die Digitalisierung hat die Finanzmärkte verändert. Die EU will diesem Wandel gerecht werden, indem sie die Auflagen verschärft und neue Risiken berücksichtigt. Generell hat sich die EU das Ziel gesetzt, die Sicherheit von Zahlungsvorgängen zu erhöhen, den Wettbewerb zu fördern und den Zahlungsverkehr innerhalb des Europäischen Wirtschaftsraums zu harmonisieren. Besonderes Augenmerk wird dabei auf den Verbraucherschutz und das Verbrauchererlebnis gelegt. Die Eindämmung von Betrugsrisiken, die mit dem technologischen Fortschritt einhergehen, und der sichere Datenaustausch, um von einem erweiterten Dienstleistungsangebot profitieren zu können, stehen daher im Mittelpunkt.“ Wie die PSR und PSD3 genau funktionieren erklärt Dr. Ernst Stahl auf trendreport.de. Immer mehr Cyberangriffe schwächen, irritieren und behindern die deutsche Wirtschaft. Der Bund scheint machtlos zu sein. Die digitale Transformation verliert an Tempo und Vertrauen. Cyberversicherungen haben noch nie so hohe Schadenssummen zu verbuchen gehabt und dazu stehen den kriminellen Angreifern aus China auch noch modernste KI-Technologien zur Verfügung. Beim Thema Cybercrime hat sich die neue Technologie schon bestens etabliert, leider im Mittelstand noch nicht. Laut der aktuellen Bitkom-Studie „Wirtschaftsschutz 2024“ sind acht von zehn Unternehmen von Datendiebstahl, Spionage oder Sabotage betroffen. Ein Rekordschaden von rund 178,6 Milliarden Euro ist dabei entstanden und durch Cyberangriffe fühlen sich zwei Drittel der Unternehmen in ihrer Existenz bedroht. Keine Schwarzmalerei, nur Fakten durch Zahlen!  Der Schaden beläuft sich auf fast die Hälfte des Bundeshaushaltes. Dazu betonte im Gespräch mit unserer Redaktion Alpha B. Barry, CEO der Secida AG: „Cybersicherheit ist Managementaufgabe. Optimal dafür ist eine hybride IT-Infrastruktur, in der cloudbasierte und on-premises Technologien integriert, und aktuelle Sicherheitsanforderungen abgedeckt werden.“ Laut Barry ist Security by Design ein guter Ansatz: „Strukturen müssen dabei unter Berücksichtigung von Cybersicherheit entwickelt werden.“

„Strukturen müssen dabei unter Berücksichtigung von Cybersicherheit entwickelt werden.“

Mit KI und Machine Learning sowie Sensorik werden aktuell Unternehmen in die Lage versetzt, die Arbeitsleistung und Belastungen ihrer Mitarbeitenden im Dienstleistungssektor zu analysieren. Dazu ging die MTM Association in einem aktuellen Projekt der Frage nach: Wie können vorhandene Methoden zur Bewertung menschlicher Arbeit in den Dienstleistungsbereich übertragen und eine arbeitswissenschaftliche Grundlage für Vorgabeleistungen und Belastungsobergrenzen geschaffen werden? In dem Projekt werden die Anforderungen typischer Tätigkeiten bzw. Prozesselemente der Paket- und Verbundzustellung identifiziert und bewertet. Dazu wurden über Bewegungssensoren IST-Daten aufgenommen und anschließend mit Machine Learning ausgewertet. Diese Ergebnisse werden dann mit der MTM-Normleistung in Verbindung gebracht bzw. kombiniert. Weitere Erkenntnisse dazu, wurden auf der diesjährigen Veranstaltung „LeanAroundTheClock“ von Prof. Dr. Peter Kuhlang, CEO  der MTM Association e. V., und Dr.-Ing. Sascha Feldhorst von MotionMiners, vorgestellt.

Die deutsche Wirtschaft nimmt bei künstlicher Intelligenz Fahrt auf. Erstmals beschäftigt sich mehr als die Hälfte (57 %) der Unternehmen mit KI, das berichtete der Bitkom in seiner aktuellen Untersuchung vom 16. Oktober 2025. Zugleich fordern sieben von zehn Unternehmen (71 %), dass die Politik deutsche Anbieter von generativer KI stärker fördern sollte. 72 % sind der Meinung, dass die Politik in Rechenzentren für KI investieren sollte, um Einsatz und Entwicklung von KI in Europa voranzubringen. Ohne Rechenzentren und Cloud-Computing hat KI nur wenig Potenzial. Technologisch stellt z. B. Cloud-Computing einen Paradigmenwechsel in der Bereitstellung der IT-Infrastruktur dar und eröffnet so Flexibilität und Skalierbarkeit für KI-Anwendungen. Doch Unternehmen sollten vorsichtig und überlegt agieren. Mehr als jedes dritte Unternehmen in Deutschland sucht inzwischen Cloud-Lösungen aus Deutschland oder Europa, um seine Daten in sicheren Händen zu wissen – Tendenz steigend. Dazu erklärte uns Walter Wolf, Vorstand von Schwarz Digits: „Wir bieten mit unseren Partnern souveräne Alternativen. Beispielsweise hosten wir ServiceNow auf unserer Stackit Cloud. Mit Wire on Stackit liefern wir neue Standards für sichere und souveräne Kommunikation. Im Oktober 2024 haben wir unsere Partnerschaft mit SAP vertieft, sodass Kunden RISE with SAP ab sofort auf Stackit nutzen können. Das macht für uns wahre Souveränität aus.“  Datensouveräne Clouds setzen außerdem, wann immer möglich, auf Open Source, Transparenz und Sicherheit. So werden Nutzer unabhängiger und können au-tark handeln, ohne in einem Vendor Lock-in „gefangen“ zu sein.

 

Autor: Bernhard Haselbauer

 

Komplexe IT-Landschaften für KI gestalten

Die Redaktion im Gespräch mit Sebastian Gottwald, Geschäftsführer, ITARICON GmbH über Integrationsstrategie und moderne Datenarchitekturen für den Einsatz von KI-Technologien.

 

Sebastian Gottwald, verdeutlicht: „Viele Unternehmen stehen vor der Herausforderung, ihre Systeme und Prozesse an die sich schnell ändernden Markt- und Gesellschaftsbedingungen anzupassen.“

 

Herr Gottwald, wie gut sind die IT-Infrastrukturen der Unternehmen auf die KI-Implementierung vorbereitet und vor welchen Herausforderungen stehen Unternehmen?

Die Vorbereitungen variieren stark. Große Unternehmen sind oft gut auf KI vorbereitet, da sie eine transparente, standardisierte IT-Architektur und integrierte Geschäftsprozesse etabliert haben. Sie können ihre Daten effizient nutzen und zukunftssichere Schnittstellen einsetzen. Kleinere und mittlere Unternehmen kämpfen hingegen häufig mit historisch gewachsenen, veralteten IT-Landschaften. Sie sind oft durch Insellösungen und manuelle Prozesse geprägt, was zu Medienbrüchen und geringer Transparenz führt.
Die größten Herausforderungen bestehen darin, eine hohe Datenqualität sowie eine zukunftssichere, langfristig erweiterbare und wartbare Integration von Systemen, Anwendungen und Daten zu ermöglichen sowie eine skalierbare und sichere IT-Infrastruktur zu schaffen. Darüber hinaus fehlt oft das Fachwissen, um KI effizient zu implementieren und zu betreiben.

 

Sebastian Gottwald, Geschäftsführer, ITARICON GmbH betont: „Unsere Studie zeigt, dass nur 16 % der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur verfügen. Große Unternehmen sind hier führend, während viele Unternehmen noch in der Planungs- oder frühen Implementierungsphase stehen.“

 

Welche Erkenntnisse förderte in diesem Kontext Ihre aktuelle Studie zutage?

Unsere Studie zeigt, dass nur 16 % der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur verfügen. Große Unternehmen sind hier führend, während viele Unternehmen noch in der Planungs- oder frühen Implementierungsphase stehen. Besonders die Themen Datenqualität und die Integrierbarkeit der Systeme stellen große Herausforderungen dar. Interessant ist, dass Effizienzsteigerung und Prozessautomatisierung als Hauptgründe für den Einsatz von KI genannt werden, während Schulungen und fehlende technologische Grundlagen als die größten Hindernisse wahrgenommen werden. Unternehmen müssen hier strategisch ansetzen, um den Nutzen von KI voll auszuschöpfen. Der Ausbau einer transparenten und integrierbaren IT-Landschaft ist dabei der Schlüssel zum Erfolg.

Welche Expertise in Integrations- und IT-Architekturberatung bringen Sie mit?

ITARICON steht seit über 18 Jahren für IT-Architektur und Integrationsberatung. Unsere Expertise erstreckt sich über die Entwicklung, Weiterentwicklung und den Betrieb von komplexen IT-Landschaften, die durch SAP- und IBM-Technologien geprägt sind. Ohne Integration gibt es keinen Fortschritt – das ist unser Leitsatz. Unsere Solution Architects analysieren bestehende IT-Landschaften, schaffen Transparenz und entwickeln eine maßgeschneiderte Integrationsstrategie, die eine effiziente Einbindung der Systeme sicherstellt. Parallel dazu übernehmen unsere Integrationsspezialisten die technische Umsetzung, den Betrieb und die Weiterentwicklung der Schnittstellen. Die Enterprise Architects begleiten die langfristige strategische Weiterentwicklung der IT-Landschaft im Rahmen des Enterprise Architecture Managements (EAM) und sorgen für eine zukunftssichere Ausrichtung der Systeme.

Wie unterstützen Sie Unternehmen bei der digitalen Transformation, insbesondere im Hinblick auf die Migration auf S/4HANA?

Die Migration auf S/4HANA ist ein wesentlicher Schritt in der digitalen Transformation, der umfassende Planung erfordert. ITARICON unterstützt Unternehmen dabei, bestehende Geschäftsprozesse frühzeitig auf Standardlösungen anzupassen und mögliche Komplexitäten zu reduzieren. Ein besonderer Fokus liegt auf der Datenmigration, da viele Unternehmen über Jahre hinweg gewachsene, oft fehlerhafte oder fragmentierte Datenstrukturen haben. Diese müssen bereinigt und harmonisiert werden, um Verzögerungen und Risiken zu vermeiden. Ebenso wichtig sind eine klare Integrationsstrategie und frühzeitige Planung der Schnittstellen, um sicherzustellen, dass Altsysteme und neue Lösungen nahtlos ineinandergreifen. Darüber hinaus sollten Sicherheit, Compliance und Change-Management zentral in den Migrationsprozess eingebunden werden, um den Übergang erfolgreich zu gestalten.

Wie begegnet ITARICON den Herausforderungen des Fachkräftemangels, insbesondere in Zeiten des rasanten digitalen Wandels?

Der digitale Wandel verändert die Spielregeln in der Wirtschaft. Unternehmen, die diesen Wandel nicht rechtzeitig für sich nutzen, riskieren wertvolle Wettbewerbsvorteile. Der Beratungsbedarf ist daher hoch. Die Herausforderungen der Digitalisierung lassen sich jedoch nur mit den richtigen Talenten meistern. ITARICON setzt auf eine moderne Unternehmenskultur, welche persönliche Weiterentwicklung, Flexibilität und Innovation fördert. Sie basiert auf Wertschätzung, flachen Hierarchien und konstruktiver Zusammenarbeit. Wir fördern die
Eigenverantwortung und bieten flexible Arbeitsmodelle und hybride Arbeitsformen. Mit einer separaten Personalentwicklungsstelle und einem Feelgood-Manager stellen wir die Persönlichkeit in den Mittelpunkt, um ein Umfeld zu schaffen, in dem sich unsere Mitarbeitenden aktiv einbringen und den digitalen Wandel mitgestalten können.

Welche Möglichkeiten bietet die SAP Integration Suite, um verteilte IT-Landschaften zusammenzuführen?

Die SAP Integration Suite bietet eine Vielzahl von Werkzeugen und Diensten, um verteilte IT-Landschaften effizient zu integrieren. Sie ermöglicht die nahtlose Verbindung von On-Premise- und Cloud-Systemen sowie Drittanwendungen und stellt sicher, dass Geschäftsprozesse über verschiedene Technologien hinweg abgebildet werden können. Vor allem in hybriden IT-Umgebungen wird dies immer wichtiger. Dank vorgefertigter Integrationsinhalte, APIs und einer ereignisgesteuerten Integration lassen sich Prozesse automatisieren und Geschäftsabläufe optimieren. Auch für Nicht-Entwickler bieten Low-Code- und No-Code-Lösungen die Möglichkeit,
schnell Integrationen umzusetzen. Sicherheits-, Governance- und Monitoring- Funktionen sorgen dafür, dass der Betrieb zuverlässig und sicher bleibt.

Wie unterstützen und sensibilisieren Sie das Management sowie die IT-Abteilung dabei?

Einer Einführung der SAP Integration Suite liegt meist eine strategische Entscheidung zugrunde, basierend auf dem Bedarf der zu integrierenden Komponenten im IT-Ökosystem oder einer umfassenden Integrationsstrategie, die an der Unternehmens- und IT-Strategie ausgerichtet ist. Management und IT-Abteilung sind dabei eng eingebunden. Das Management erwartet klare Einblicke, wie die Integration strategische Geschäftsziele und den ROI unterstützt. Durch nachvollziehbare Business Cases und schnell umsetzbare Integrationsszenarien zeigen wir erste betriebswirtschaftliche Erfolge. Die IT-Abteilung spielt eine zentrale Rolle bei der Umsetzung und dem Betrieb. Gemeinsam erarbeiten wir die Integrationsstrategie und setzen diese mit Best Practices, Blueprints und Schulungen um, um den langfristigen Erfolg
sicherzustellen.

Welchen Beratungsbedarf machen Sie momentan in Ihren Geschäfts- und Kompetenzfeldern aus?

Viele Unternehmen stehen vor der Herausforderung, ihre Systeme und Prozesse an die sich schnell ändernden Markt- und Gesellschaftsbedingungen anzupassen. Sie müssen ihre Effizienz und Anpassungsfähigkeit steigern, um wettbewerbsfähig zu
bleiben und ihre Marktposition auszubauen. Digitalisierung und Automatisierung sind dabei zentrale Schlagwörter. Wir beobachten einen wachsenden Bedarf an Expertise in den Bereichen Datenanalyse und Künstliche Intelligenz. Unternehmen möchten zunehmend datengetrieben arbeiten. Hierbei unterstützen wir sie bei der Implementierung neuer Technologien und der Entwicklung einer nachhaltigen Strategie, um langfristigen wirtschaftlichen Erfolg zu sichern. Schulungen und Weiterbildungen der Mitarbeiter sind entscheidend, damit Teams neue Technologien und Prozesse effektiv nutzen können. Wir bieten maßgeschneiderte Workshops und Trainings, um die Kompetenzen unserer Kunden zu stärken und sie auf ihrer digitalen Reise optimal zu begleiten.

Welche Aufgaben und Beratungsleistungen übernehmen Sie als langjährige Middelware-Experten für Unternehmen?

Wir unterstützen Unternehmen umfassend bei der Systemintegration. Dazu gehört die Entwicklung und Implementierung von Schnittstellen, die für einen reibungslosen Datenaustausch zwischen verschiedenen Systemen sorgen. Unsere Aufgaben umfassen auch den Betrieb und Support der Middleware, einschließlich der Überwachung, Störungsbehebung und regelmäßigen Wartung. Darüber hinaus beraten wir zur Architekturplanung, um sicherzustellen, dass die Middleware-Lösungen skalierbar und zukunftssicher sind. Unsere Expertise in der Performance-Optimierung und Sicherheitsberatung hilft unseren Kunden, ihre Systeme effizient und sicher zu betreiben. Wir bieten außerdem Schulungen und begleiten die Auswahl der richtigen Technologien sowie die Durchführung von
Middleware-Projekten.

Sie wurden jüngst als einer der fünf beliebtesten Arbeitgeber in Dresden ausgezeichnet, was bedeutet es in diesem Kontext bei ITARICON zu arbeiten?

Bei uns zu arbeiten bedeutet, Teil einer wertschätzenden und dynamischen Community zu sein. Dies zeigt sich z.B. im persönlichen Miteinander, in der Entwicklung neuer Leistungsfelder und der Entwicklung ITARICONS selbst. Wir bieten ein Umfeld, in dem jeder wachsen und seiner Leidenschaft nachgehen kann, Menschen zu inspirieren und zu beraten. Dazu bieten wir Softskill-Workshops, fachliche Zertifizierungen, Mentoring- Programme, ein Nachwuchsführungskräfteprogramm sowie speziellen Leadership- Workshops an. Natürlich setzen auch wir auf flexible Arbeitsmodelle, Gesundheitsangebote und eine Unterstützung bei der Altersvorsorge. Wer bei ITARICON arbeitet, erlebt nicht nur spannende Projekte, sondern auch eine Kultur des Miteinanders, die den individuellen Erfolg fördert und gemeinsam auf die Weiterentwicklung des Unternehmens hinarbeitet.

 

Direkt zur KI-Studie von ITARICON:  https://itari.co/kistudie

Data Streamhouse – IT im Flow

Benjamin Buick, Geschäftsführer von Xeotek, erklärt im Gespräch, wie ein Data Streamhouse mithilfe von Data Streaming komplexe IT wieder in den Flow bringt und echten Business Value schafft.

 

Herr Buick, was beschäftigt IT-Manager?  

Der Flow. Fast schon axiomatisch galt lange die Auffassung, dass mehr Daten und fortschrittlichere Technologien zwangsläufig größere Flexibilität und Handlungsfähigkeit im Markt garantieren. Doch die Realität sieht für viele Manager anders aus: Datensysteme sind schwerfällig, IT-Projekte äußerst komplex und häufig fehlen Ressourcen. Vollautomatisierte Prozesse, die reibungslos ineinandergreifen und flexibel erweitert werden können, sind für viele nur Wunschvorstellungen. Daher müssen Unternehmen zurück in ihren Flow finden.

 

Benjamin Buick verdeutlicht: „Die in der Softwarebranche vorherrschende Meinung, jedes Unternehmen muss ein Softwareunternehmen werden, halte ich für falsch. Unternehmen müssen zurück in ihren Flow und benötigen Lösungen, die echten Business Value bringen und befähigen.“

 

Unternehmen müssen zurück in ihren Flow – können Sie dies erläutern?

Im Flow zu sein bedeutet, dass man tief in einen Schaffungsprozess eingebunden ist. Es gibt keine Hindernisse und die Arbeit geht leicht von der Hand. Dies ist ein Zustand höchster Effizienz. So müssen Sie sich dies für das ganze Unternehmen vorstellen: Jeder Prozess, jeder Schritt ist eingebunden, effizient und zugänglich – dann ist ihr ganzes Unternehmen im Flow. Ein Data Streamhouse macht dies möglich.

Welche Vorteile bietet ein Data Streamhouse?

Durch Daten im Fluss, also Data Streaming, können viele Informationen in Echtzeit verarbeitet und zusammengeführt werden. So kann ich bessere Entscheidungen in kürzerer Zeit treffen, neue Prozesse umsetzen oder bestehende optimieren. Heute werden Daten in Lager gebracht. Sie geraten in Vergessenheit, nicht jeder hat Zugriff oder weiß, ob und wo die Daten überhaupt existieren. Dadurch entstehen „Lagerkosten“ und Verzögerungen, die Arbeit gerät ins Stocken. Viele Daten schaffen es gar nicht erst ins Lager. Bleiben Informationen stattdessen im Fluss, der das gesamte Unternehmen durchzieht, ist das wie ein perfekt geöltes Fließband. Jeder Arbeitsschritt und jedes Zwischenprodukt ist sichtbar und zugänglich. Diese Transparenz und Zugänglichkeit sind die größten Vorteile. Es geht also um weit mehr als Prozessautomatisierung und Echtzeitentscheidungen. Es geht darum, Datensilos aufzubrechen und das Unternehmen in einen Flow-Zustand zu versetzen. Das ist eine wirklich grundlegende und spürbare Veränderung für die ganze Organisation.

Wie schaffen Sie diese Datenzugänglichkeit?


Entscheidend für die Zugänglichkeit ist, dass die typisch hohe Komplexität dramatisch abnimmt. Sowohl der Zugriff auf Daten als auch die Datenprozessierung erfordern in heutigen IT-Systemen viel technische Expertise, häufig im Rahmen eines Projekts. Mit einem Data Streamhouse ist der Zugriff auf Daten, die sich im Fluss zwischen Systemen befinden, und normalerweise gar nicht sichtbar wären, so einfach wie das Öffnen einer Excel-Tabelle. Und Sie können sofort mit diesen Daten weitere Systeme verknüpfen, Prozesse erstellen und sogar experimentieren. Um dies möglich zu machen, haben wir die erfolgreichen Konzepte des Cloud Data Warehouse genommen und sie auf Data Streaming angewandt. Da wir unser System von Grund auf für Data Streaming, d. h. genau für diese Daten im Fluss, entwickelt haben, mussten wir komplett neue technischen Wege gehen. Ein Data Streamhouse macht aber nicht nur den Zugriff und die Arbeit mit Daten im Fluss einfach, sondern auch sicher. Ein wesentlicher Bestandteil ist ein vollständig integrierter Governance-Layer, der den Zugriff auf Personen-, Rollen- oder Teamebene steuert und auch Auskunft über Ansprechpartner bei Fragen zu Daten gibt. Wie so häufig im Leben, ist Organisation entscheidend, um den Überblick zu behalten.

Möchten Sie also Datenbanken abschaffen? 

Nein, ganz im Gegenteil: Die beiden Ansätze ergänzen sich. Der Fokus des Data Warehouse liegt auf der Speicherung der fertigen Ergebnisse. Der Bereich, der bisher wenig Beachtung bekommen hat, allerdings hohe Kosten verursacht und als Blockade wahrgenommen wird, ist ein anderer: die Datenprozessierung. Das Data Streamhouse legt daher den Fokus auf den Fluss der Daten, d. h. auf die Datenprozessierung mit ihren Zwischenschritten.

Wie sehen Sie AI in diesem Kontext?

AI kann man als ein Gehirn verstehen: Ohne Echtzeitinformationen kann AI keine klugen oder relevanten Entscheidungen treffen. Statt die Umgebung durch Sinne wahrzunehmen, verlässt sich AI auf Echtzeitdaten. Auch bei der Integration der Ergebnisse ist das der Fall. AI profitiert also wie menschliche Mitarbeiter von einem einfachen Zugang zu Daten im Unternehmen, den ein Data Streamhouse ermöglicht.

Profitieren alle Unternehmen von einem Data Streamhouse?

Natürlich gibt es Unternehmen, die schneller profitieren als andere. Dennoch lohnt sich ein Blick für alle Branchen. Einen echten Mehrwert für das Unternehmen aus den eigenen Daten und Prozessen zu schaffen, eben in den Flow-Zustand zu kommen, ist für alle relevant. Daher halte ich die vorherrschende Meinung in der Softwarebranche für falsch, dass jedes Unternehmen ein Softwareunternehmen werden muss. Stattdessen sehe ich uns in der Pflicht, Lösungen, wie das Data Streamhouse zu schaffen, damit Unternehmen sich auf ihre Kernkompetenzen und ihre Businesslogik konzentrieren können. Typische Standardsoftware ist leider für die strategischen Prozesse zu unflexibel.

Wie unterscheidet sich das Data Streamhouse von Standardsoftware?

Wir fokussieren uns auf einen anderen Bereich im Unternehmen. In Unternehmen gibt es Standardprozesse, die sich oft nur geringfügig zwischen verschiedenen Unternehmen unterscheiden und daher sehr gut mit Standardsoftware abgebildet werden können. Hier gibt es bereits viele Lösungen, die sehr erfolgreich sind. Darüber hinaus gibt es jedoch Software, die von strategischer Bedeutung für ein Unternehmen ist und den Wettbewerbsvorteil sichert. Bei dieser strategischen Software, die oft maßgeschneidert oder selbst entwickelt ist, setzen wir an. Hier geht es um sehr datenbezogene Prozesse, wodurch eine Lösung wie das Data Streamhouse den größten Vorteil für Kunden bringt. Häufig sind es Stakeholder aus den Fachbereichen oder die IT selbst, die in die Lage versetzt werden möchten, diese Prozesse schneller und einfacher umzusetzen. Somit profitiert das gesamte Unternehmen von der Datenzugänglichkeit, der Flexibilität und den kurzen Entwicklungszeiten. Wir können die Time-to-Market auf einen Bruchteil der Zeit verkürzen. Das ist für viele ein einschneidendes Aha-Erlebnis. Damit lassen sich wettbewerbsentscheidende Prozesse in kürzerer Zeit als bei der Konkurrenz aufbauen oder optimieren.

www.kadeck.com/

„Cybersicherheit ist Managementaufgabe“

Die Redaktion im Gespräch mit Alpha B. Barry, CEO der secida AG, über die optimale IT-Infrastrukturbasis für Digitalisierungsprojekte und den Schutz vor Cyberattacken.

Herr Barry, wie funktioniert aus Ihrer Sicht sichere Digitalisierung?

Digitalisierungsprojekte im Unternehmen müssen effizient und effektiv umgesetzt werden können. Den Projektverantwortlichen geht es darum, dass das Unternehmen kurzfristig neue digitale Arbeitsprozesse und Kundenlösungen bereitstellen kann. Die Basis dafür ist eine Infrastrukturplattform, die heutige Digitalisierungsanforderungen erfüllt. Optimal dafür ist eine hybride IT-Infrastruktur, in der cloud-basierte und on-premises Technologien integriert und aktuelle Sicherheitsanforderungen abgedeckt werden.

Wie sieht eine optimale Infrastrukturbasis für sichere Digitalisierung aus?

Viele Unternehmen haben eine gewachsene IT-Infrastruktur mit Rechenzentrum und IT-Betrieb. Parallel gibt es meistens cloudbasierte Anwendungen wie z. B. Office 365 oder ERP- und CRM-Lösungen. Erfolgreiche Digitalisierungsprojekte benötigen eine stabile IT-Infrastukturplattform, in der alles reibungslos und verlässlich miteinander interagiert. Neue Anwendungen können so einfach integriert werden. Gleichzeitig müssen Unternehmen notwendige Skills bei den Mitarbeitenden aufbauen.

Alpha Barry erklärt: „Ein guter Ansatz für Cybersicherheit ist Security by Design.“

 

Wie können sich Unternehmen effektiv gegen Cyberattacken absichern?

Die technische Seite der Cybersicherheit muss beim Aufsetzen von Systemen und IT-Betrieb mitberücksichtigt und Prozesse entsprechend gedacht werden. Update- und Patchmanagement, regelmäßige Back-ups, Zugriffsrechte etc., besonders im Bereich IT-Administration, müssen bedacht sein.  Eine enge Zusammenarbeit zwischen IT-Betrieb und Sicherheitsmanagement ist notwendig. Zusätzlich müssen die Prozesse für Monitoring und die Reaktion auf Bedrohungsszenarien immer sichergestellt werden.

 

Welchen Anteil haben moderne Ansätze der Cybersicherheit an der Absicherung?

Ein guter Ansatz ist Security by Design: Strukturen müssen unter Berücksichtigung von Cybersicherheit entwickelt werden. Zugriffsprozesse müssen inklusive Legitimierung von Anmeldeinformationen, Absicherung der Anmeldevorgänge und umfassender Verschlüsselung der Daten so gestaltet werden, dass Sie Angreifern die Nutzung gestohlener Daten erschweren (Zero Trust). KI kann helfen, „einfache“ Angriffe hochautomatisiert zu identifizieren und abzuwehren und das Risiko durch Automatisierung mitigieren.

Inwieweit hat sich die Angreifer-Struktur durch die neuen Technologien verändert?

Die Cyberkriminellen haben sich in den letzten Jahren weiter professionalisiert. Im Darknet werden die unterschiedlichen Dienstleistungen, die z.B. für einen erfolgreichen Phishingangriff notwendig sind, jeweils von Gruppen angeboten, die auf diese spezifische Teildienstleistung spezialisiert sind. Die Spezialisierung und der durch sie entstehende Wettbewerb führen dazu, dass gephishte User-Credentials bzw. effektive Mailingtools für Ransomware-Attacks und die zugehörigen Verschlüsselungs-Algorithmen inzwischen sehr kostengünstig zu haben sind. Das wiederum vergrößert den Pool der „Opfer“: denn heute wäre es sogar schon lukrativ, den PC eines Schweizer Milchbauern für ein Lösegeld von ca. 5.000 Euro zu verschlüsseln. Durch technologische Entwicklungen wie KI bzw. Large Language Models ist es außerdem auch Nicht-Muttersprachlern möglich, Emails und Nachrichten zu erstellen, die keine offensichtlichen Fehler mehr enthalten. Video- oder Tonsimulationen unterstützen dabei, Mitarbeitende von Unternehmen aller Ebenen dazu zu bringen, Cyberkriminellen Tore in das Unternehmen zu öffnen. Es gab schon erste Fälle von gefälschten Videokonferenzen, mit denen das Opfer dazu gebracht wurde, hohe Geldsummen an die Kriminellen zu überweisen.

Wie weit geht das aktuelle Verständnis von Management und Entscheidern in diesem Kontext?

Leider reicht das aktuelle Verständnis von Management und Entscheidern häufig noch nicht an das notwendige Niveau heran. Es ist noch nicht in allen Geschäftsführungsebenen angekommen, dass Cybersicherheit heute Alltagskriminalität darstellt, und dringend in das generelle Risikomanagement einbezogen werden sollte. Es ist für Unternehmen notwendig, die wichtigsten Systeme in der IT zu identifizieren und sie besonders gut gegen Cyberangriffe abzusichern. Allerdings kann nicht von der IT erwartet werden, diese wichtigen Systeme ohne eine enge Zusammenarbeit mit den jeweiligen Abteilungen überhaupt identifizieren zu können. Der entsprechende Prozess muss vom Management initiiert und begleitet werden. Nur wenn sämtlichen Beteiligten klar ist, dass eine effektive Absicherung der IT nur ganzheitlich passieren kann, ist eine gute Umsetzung von Cybersicherheits-Maßnahmen möglich.

Was raten Sie Geschäftsführern und Executives, die nicht wissen, wie das Unternehmen derzeit in Sachen Cybersicherheit aufgestellt ist?

Sprechen Sie mit ihrem Team. Stellen Sie Fragen! Was ist aktuell das größte Cybersicherheits-Risiko im Unternehmen? Gibt es aktuell eine Liste betriebskritischer Systeme? Wie werden diese geschützt? Welche Cybersicherheits-Maßnahmen sind aktuell in Anwendung? Im Dialog mit ihrer IT bzw. mit den Abteilungsleitern wird es Ihnen möglich sein, gemeinsam aktuelle Lücken bzw. notwendige Maßnahmen für Ihr Unternehmen zu identifizieren. Sollten Sie feststellen, dass Expertise fehlt, ist es möglich diese Lücke durch externe Beratung zu füllen. Wenn es darum geht, Sicherheitslücken in der IT-Infrastruktur zu identifizieren, können preisgünstige technologische Lösungen zur Entdeckung genutzt werden. Damit erhält das Unternehmen einen ersten Anhaltspunkt für erforderliche Maßnahmen.

Was raten Sie den vielen KMU, um die größten Risiken zu vermeiden?

Für viele KMU ist es noch schwieriger als für größere Unternehmen, Cyberrisiken zu managen. Oft gibt es in kleinen Unternehmen nämlich niemand, der Kenntnisse in Cybersicherheit hat. Die eigene IT-Abteilung besteht nur aus 1-2 Personen, die sich hauptsächlich mit Administration und Benutzer-Support beschäftigen. Professionelle Unterstützung durch externe Cybersicherheits-Dienstleister ist für KMU meist nicht finanzierbar. Trotzdem müssen sich auch KMU mit Cybersicherheit auseinandersetzen. Ausgangspunkt können entsprechende staatliche Web-Angebote sein. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet ein umfangreiches Web-Angebot, das auch für Laien recht gut geeignet ist. Hinzu kommen Angebote der Länder, die sich speziell an KMU richten; hier in Nordrhein-Westfalen zum Beispiel die vom Wirtschaftsministerium finanzierte Initiative digital.sicher.NRW. Die in solchen Angeboten empfohlenen Vorgehensweisen sollten KMU prüfen und umsetzen. Ein weiterer wichtiger Ansprechpartner ist der IT-Dienstleister des Unternehmens. KMU, die IT-Dienstleistungen am Markt einkaufen, sollten unbedingt darauf achten, dass der Dienstleister eine gute Reputation in Bezug auf Cybersicherheit hat. Auch wenn dieser Dienstleister vielleicht etwas teurer ist – Sicherheit gibt es eben nicht zum Nulltarif.

www.secida.com/sichere-digitalisierung

 

Der Arbeitsplaner der Zukunft drückt nur noch auf den Knopf

Arbeitswissenschaftler und Industrial- Engineering-Experte Prof. Dr. Peter Kuhlang, CEO MTM ASSOCIATION e. V., erklärt, wie digitale Technologien, künstliche Intelligenz und der Methodenstandard MTM (Methods-Time Measurement) bei der Gestaltung menschlicher Arbeit ineinandergreifen.

Prozesse und Wertströme effizient und ergonomiegerecht gestalten, Engpässe in Produktion und Logistik identifizieren, Belastungen am Arbeitsplatz reduzieren, Arbeitsinhalte beschreiben und bewerten, Auswirkungen von Verbesserungsideen kalkulieren – und das alles schon in der Planungsphase! Das funktioniert besonders gut mit MTM (Methods-Time Measurement), der Standardmethode des Industrial Engineering.

 

Prof. Dr. Peter Kuhlang: „Für jegliche Produktivitätssteigerung ist und bleibt Zeit die zentrale Steuergröße.“

 

MTM hat seinen Ursprung in den USA der 1940er-Jahre. Arbeitswissenschaftler arrangierten das Inventar an Bewegungselementen, aus denen manuelle Tätigkeiten zusammengesetzt sind, zu Grundbewegungen. Für jede dieser Grundbewegungen wurde ein wissenschaftlich gesicherter und genormter Zeitwert ermittelt und in der heute noch gültigen MTM-1-Normzeitwertkarte – quasi das arbeitswissenschaftliche Pendant zum Urmeter – zusammengeführt. Auf dieser Grundlage war es nun möglich, Arbeitsprozesse überall auf der Welt in nahezu allen Branchen mit einer einheitlichen, reproduzierbaren Sprache – der MTM-Prozesssprache – zu beschreiben, zu planen und zu gestalten.

1940er-Jahre? Das ist in der Tat weit weg von Industrie 4.0, digitalen Technologien und künstlicher Intelligenz. Doch MTM macht den Brückenschlag zwischen realer Arbeitswelt und digitaler Planungswelt überhaupt erst möglich. Die Herausforderung besteht darin, die mit Technologien wie Human Simulation, Motion Capture oder VR/AR-Systemen generierten und mithilfe von KI aufbereiteten digitalen Bewegungsdaten in valide, nachvollziehbare und menschengerechte Zeit- und Ergonomiedaten für die Arbeitsplanung zu überführen. Das MTM-Institut und der MTM-Geschäftsbereich „Digitale Lösungen“ haben dafür die Schnittstelle MTMmotion® entwickelt, die aus digitalen Bewegungsdaten automatisiert regelkonforme MTM-Analysen erzeugt. Für den Arbeitsplaner hat dies zwei große Vorteile: Zum einen kann er sicher sein, dass er mit verlässlichen Daten plant, zum anderen ist die Arbeitsplanung einfacher und schneller zu bewerkstelligen.

Ein systematisches Planen, Gestalten und Verbessern der Arbeitssysteme und -methoden ist auch in Zukunft der Schlüssel für Produktivitätssteigerung und menschengerechte Arbeitsbedingungen in der Industrie. Zeit ist und bleibt dabei eine zentrale Steuergröße. Mit KI als Werkzeug, mit digitalen Technologien und dem integrierten Zeitstandard MTM rückt die intelligente und kreative Gestaltung der Arbeit des Menschen in den Vordergrund.

https://mtm.org/

KI: Gegenwart und Zukunft der digitalen Kommunikation

Die Redaktion im Gespräch mit Lorenz Beringer, CEO von LOBECO, über digitale Innovationen und den Einsatz von KI im Marketing-Mix.

Herr Beringer, wie schnell wird KI das digitale Marketing und damit die Kommunikation verändern?

Im Grunde müsste die Frage heißen: „Wie schnell hat KI bereits das Marketing verändert?“ KI ist nicht die Zukunft, KI ist die Gegenwart. Der Einsatz von KI stellt für die Unternehmen die größte Transformationsherausforderung der letzten Jahre dar. Seit der Veröffentlichung von ChatGPT im Herbst 2022 setzen wir uns intensiv mit den Anwendungsmöglichkeiten von generativen KIs auseinander. Unser Ziel ist es, sowohl kreative Prozesse als auch Arbeitsabläufe für unsere Mitarbeitenden und Kunden zu optimieren. Um dieses rasante und spannende Wachstumsfeld effektiv zu erkunden, haben wir Anfang des Jahres unser AI Solution Lab gegründet.

Lorenz Beringer betont: „Wir generieren für unsere Kunden aus digitalen Chancen Wettbewerbsvorteile.“

 

Welche Aufgaben übernimmt in diesem Kontext Ihr neues „AI Solution Lab“?

Hier fokussieren wir uns auf KI-Weiterbildung und auf die Entwicklung eigener KI-Tools und Workflows, um wiederkehrende Aufgaben zu automatisieren. Wir testen die verfügbaren KI-Tools gründlich, um die Spreu vom Weizen zu trennen, damit unsere Kunden nur sichere und effektive Tools in ihren Workflow integrieren. Im LOBECO AI Solution Lab bieten wir KI-Workshops und Hackathons an, um KI-Anwendungen praxisnah zu erklären, neue KI-Workflows zu kreieren und aus Interessierten AI-Experten zu machen.

Welche Vorteile hat die Implementierung von KI-Tools im Marketing-Mix für Unternehmen?

Einen bedeutenden Nutzen für Unternehmen bietet die KI im Bereich Marketing und Sales. Viele Unternehmen nutzen bereits KI-Tools in ihren täglichen Prozessen und haben 2023 durch massive Investitionen in interne „Prompter“ und „KI-Experten“ einen hohen Wissensstand aufbauen können. Aktuell werden weltweit rund 48.600 Anfragen pro Minute an ChatGPT gesendet, mit einer stetig wachsenden Tendenz. KI-Tools unterstützen in einer Vielzahl von Marketing-Disziplinen, ob Data Analytics, Content Creation oder Storytelling, um somit effizienter die richtige Kampagne, am richtigen Ort, zur richtigen Zeit, und für die richtige Zielgruppe zu definieren.

Für welche konkreten Aufgaben kommen Ihre Lösungen zum Einsatz?

Mit „CorporateGPT by LOBECO“ bieten wir zum Beispiel eine KI-Plattform für die einfache und sichere KI-Nutzung an. Wir erleichtern die kreative Zusammenarbeit mit künstlicher Intelligenz durch benutzerfreundliches „Templating“ von Prompts. Statt jede Eingabe neu zu formulieren, füllt man einfach ein Formular aus. Daraus entsteht automatisch der perfekte Prompt im Hintergrund. Zudem stellen wir den Mitarbeitenden das vielfältige Unternehmenswissen durch CorporateGPT als fundierte Antwortgrundlage zur Verfügung und machen es so greifbar.

Wo liegen die größten Herausforderungen, um KI-Tools fürs digitale Marketing zum Einsatz zu bringen?

Die Bandbreite der Anwendungen ändert sich rasend schnell. Wir sehen es als unsere Aufgabe, unsere Tool-Empfehlungen regelmäßig zu prüfen und neu zu bewerten. Tools, die letzte Woche noch Marktführer waren, können heute schon wieder veraltet oder überholt sein. Wir behalten den Überblick über alle relevanten KI-Applikationen. Dieses ad hoc „am Ball bleiben“ bei einer sehr hohen Innovationsgeschwindigkeit, zähle ich zu den größten Herausforderungen. Ebenso ist es wichtig, das KI-Knowhow im Unternehmen zu teilen und den Mitarbeitern zur Verfügung zu stellen. Führungskräfte sollten proaktiv möglichen Hemmungen und Jobunsicherheiten vorbeugen und Beschäftigte in der Nutzung von KI-Tools zur Effizienzsteigerung ermutigen. Es ist meistens schwierig, eine Offenheit der Mitarbeiter dafür zu schaffen – das beginnt oft schon in der Chefetage. Die Motivation, KI-Tools zu nutzen, sollte daher eine Top-Down Leitlinie sein.

Wie sollten sich KMU dem Thema nähern und wie und wo können dabei Ihre Experten unterstützen?

Wie für einen Schriftsteller die Angst vor dem leeren Blatt, so gilt für KMU-Führungskräfte die Herausforderung, die erste Hürde der KI-Implementierung zu nehmen. KI-Maßnahmen sollten als wertvoller Benefit angesehen werden, der die Mitarbeiter individuell und fachlich weiterbringt. KI muss fester Bestandteil des modernen kaufmännischen Skill-Sets werden. Der Umgang mit KI wird so wichtig wie der Umgang mit Office-Software. Diese Chance sollte von Führungskräften intern klar kommuniziert werden. Deshalb bieten wir KI-Schulungen an, die gezielt auf die Bedürfnisse verschiedener Abteilungen eingehen. Der Effizienzgewinn durch die Vereinfachung repetitiver Aufgaben ermöglicht es den Teilnehmern unserer Workshops, die neu gewonnene Zeit für kreative und innovative Tätigkeiten zu nutzen.

Was raten Sie Unternehmen, die gerade dabei sind, KI-Tools zu implementieren?

Der Einstieg erfolgt meist über die Nutzung von öffentlichen KI-Tools wie Claude, ChatGPT oder Gemini. Diese eignen sich sehr gut, um sich mit der Nutzung von KI und dem Thema Prompting vertraut zu machen. Aber Achtung: Selbst bei der kostenpflichtigen Nutzung der Plattformen läuft man Gefahr, datenschutzrelevante und vertrauliche Informationen preiszugeben. Diese Tools verwerten die Daten standardmäßig zu ihren eigenen Trainingszwecken weiter. Um Datenlecks zu verhindern, sollte man wissen, wie man sicher mit diesen Plattformen interagiert. Mit unserem „CorporateGPT by LOBECO“ ist eine sichere Nutzung der KI-Modelle samt Unternehmensdaten gewährleistet. Unsere KI-Experten erstellen eine Reihe von Templates mit feingetunten, abteilungsspezifischen Prompts. Um unsere Kunden kontinuierlich bei KI-Anfragen zu unterstützen, bieten wir ein monatlich buchbares Beratungspaket mit KI-Helpdesk an. Damit haben unsere Kunden die Möglichkeit, sicher und effizient die Chancen der KI zu nutzen, ohne Angst vor dem leeren Eingabefeld.

Inwieweit konnten Sie die Hyperpersonalisierung im Kontext der neuen Technologien vorantreiben?

„Marketing 5.0“ ist selbst für kleinere Unternehmen durch KI nicht länger eine Zukunftsvision. Durch personalisierte Marketingkampagnen und KI Chatbots sowie automatisierte Content Prozesse können wir mit Innovationen Technologien unseren Kunden eine zielgruppenspezifische Ansprache ihrer Kunden ermöglichen. 2023 war das Jahr der KI-Inspiration – 2024 ist das Jahr der KI-Transformation.
Die Marketingbranche erlebt derzeit einen tiefgreifenden Wandel und steht vor einer unvermeidlichen Revolution. Es ist unerlässlich, sich kontinuierlich darauf vorzubereiten, KI-Applikationen als Kernbestandteil in alle Marketing-Teams zu integrieren, um die Führungsposition in der Branche zu sichern.

https://www.lobeco.de/ai

„Viele halten die datensouveräne Cloud für eine Utopie. Wir haben sie gebaut.“

Die Redaktion im Gespräch mit
Walter Wolf, Vorstand Schwarz Digits, über die Vorteile einer datensouveränen Cloud.

 

Herr Wolf, STACKIT ist der aufstrebende Anbieter in der europäischen Cloud-Landschaft und schreibt die Spielregeln für Datensouveränität gerade neu. Wie kam es dazu, dass ein Händler zum Cloud-Anbieter wird?

Die wirtschaftliche Wertschöpfung in Deutschland fußt auf Innovationskraft und einem wie auch immer gearteten Vorsprung in gewissen Prozessen oder Abläufen. So ist und war es auch schon immer bei den Unternehmen der Schwarz Gruppe, zuerst beim Thema Handel. Wir haben strukturiertes Wissen, das unseren Erfolg ermöglicht und das andere in der Form nicht haben. Dieses Wissen haben wir als Daten abgelegt. Für diese kritischen Daten haben die Unternehmen der Schwarz Gruppe einen Ort gebraucht, auf den sie flexibel zugreifen können, die Daten aber trotzdem sicher und absolut unter unserer Kontrolle sind. Das konnte uns kein Anbieter am Markt garantieren. Also haben wir eine eigene Cloud entwickelt.

Walter Wolf betont: „Wir bieten unsere Cloud Unternehmen an, die nach Datensouveränität streben.“

 

Und wieso haben Sie diese Cloud nicht ausschließlich für sich als Schwarz Gruppe genutzt?

Nachdem wir gemerkt haben, dass andere Unternehmen und Organisationen dieselben Herausforderungen bei der Datensouveränität haben, wie wir sie hatten, haben wir im März 2022 entschlossen, unsere Cloud STACKIT auch anderen Unternehmen anzubieten, die nach Datensouveränität streben. Heute sind wir starker Partner für Unternehmen und alle Organisationen, die ebenfalls nach größtmöglicher Souveränität streben, auch im Digitalen.

Was unterscheidet STACKIT vom Wettbewerb?

Als erstes möchte ich mit einem ungewöhnlichen Unterschied starten: Wir sind kein reines Softwarehaus. Wir gehören zur größten Handelsgruppe Europas. Das birgt zwei Vorteile: Zum einen sind wir nicht börsennotiert, das heißt wir sind nicht von den Launen von Investoren abhängig. Wir haben mit den anderen Geschäftsmodellen, beispielsweise mit Lidl und Kaufland im Handel, eine solide Grundlage für die starke Weiterentwicklung unserer Services. Zum anderen sind wir selbst unser kritischster Kunde. Erst, wenn unsere anspruchsvollen internen Kunden zufrieden mit unseren Lösungen sind, bieten wir sie anderen an. Und Sie können mir glauben: Wenn die Unternehmen der Schwarz Gruppe etwas machen, dann machen sie es richtig.

Sie sprechen immer von der datensouveränen Cloud – gibt es nicht andere Anbieter, die ebenfalls Datensouveränität bieten?

Hier meine Gegenfrage: Sind diese Anbieter wirklich datensouverän – in allen Bereichen? Bei uns ist es so: Nicht nur unsere Rechenzentren stehen in Deutschland, auch unser Hauptsitz ist und bleibt in Deutschland. Unsere Cloud setzt auf Open Source und wir ermöglichen flexible Anwenderwechsel. Das heißt, wir zwingen niemanden, bei STACKIT zu bleiben oder ausschließlich STACKIT zu nutzen. Es gibt keine schmerzhaften Abhängigkeiten, die wir nach und nach zementieren. Wir bieten Flexibilität und beraten individuell. Unser Unterschied zum Wettbewerb ist unsere, so würde ich es bezeichnen, vollumfängliche Datensouveränität.

Welche Lösungen finden sich im Portfolio von STACKIT?

Eben weil wir selbst unser kritischster Kunde sind, wissen wir genau, was Unternehmen und Organisationen wirklich brauchen und was nicht. Mit STACKIT bieten wir verschiedene Cloud-Services, Colocation-Dienste und Consulting an, um Unternehmen auch aus regulierten Sektoren genau die Lösung zu liefern, die sie wirklich benötigen. Unsere Basisleistungen umfassen unter anderem Confidential Computing, Storage und Network-Lösungen, zukunftsfähige Data- und AI Plattformen. Auch für hochregulierte Bereiche wie das Gesundheitswesen und den öffentlichen Sektor liefern wir passgenaue und Innovative Lösungen, wie beispielsweise den KI-Assistent. Zudem bieten wir mit unseren Partnern souveräne Alternativen. Beispielsweise hosten wir ServiceNow auf unserer STACKIT Cloud. Mit Wire on STACKIT liefern wir neue Standards für sichere und souveräne Kommunikation. Im Oktober 2024 haben wir unsere Partnerschaft mit SAP vertieft, sodass Kunden RISE with SAP ab sofort auf STACKIT nutzen können. Das macht für uns wahre Souveränität aus.

https://www.stackit.de

 

Schlüsseltechnologien für Smart Farming

Wie und vor allem wer kann die Nahrungsproduktion auch in Zukunft effizient umsetzen? Um diese Herausforderungen meistern zu können, braucht der Mensch Unterstützung. Smarte Technologien haben das Potential, die Effizienz in der Landwirtschaft erheblich zu steigern.

Die Prognosen sagen voraus, dass die Menschheit in diesem Jahrhundert auf neun bis zehn Milliarden Köpfe anwachsen wird. Somit stellt sich die Frage, wie Nahrungsmittel in ausreichender Menge produziert werden können, ohne dass dabei wertvolle natürliche Ressourcen wie sauberes Grundwasser und fruchtbarer Boden gefährdet werden. Und wie wird sichergestellt, dass in Zeiten akuten Personalmangels genügend Arbeitskraft für aufwendige Arbeitsschritte bei Ernte und Erhalt zur Verfügung steht?

Neben schwerfälligen Maschinen, die hektargroße Land- und Ackerflächen bewirtschaften, ist die Landwirtschaft auf aufwendige Handarbeit angewiesen. Die starke körperliche Belastung dieser Tätigkeiten sowie der wachsende Personalmangel stellen allerdings enorme Herausforderungen dar. Mit den technologischen Entwicklungen von heute ist die Landwirtschaft immer mehr digitalisiert sowie automatisiert und eröffnet neue, nachhaltige Möglichkeiten. Ob Früchte, die von maschinellen Greifern vorsichtig gepflückt werden oder Dünger und Pflanzenschutzmittel, die gezielt und dosiert ausgebracht werden – moderne Lösungen wie autonome Agrarroboter oder intelligente Anbaugeräte machen die Landwirtschaft smart und zukunftssicher.

FAULHABER ist seit über 75 Jahren führender Anbieter für Antriebssysteme im Bereich der Miniatur- und Mikroantriebstechnik. Wer das Thema Smart Farming und zukunftssichere Lösungen vertiefen möchte, kann sich für das Webinar „Intelligente Antriebssysteme für Smart Farming“ anmelden. Alle weiterführenden Infos dazu gibt es hier: https://www.faulhaber.com/de/events/webinare/intelligente-antriebssysteme-fuer-smart-farming/

 

Der Roboter hilft, wo er kann

Der Anspruch von Smart Farming ist sowohl zukunftssicheres als auch bedarfsgerechtes (Be)Wirtschaften zu ermöglichen. Ziel ist es, moderne Technologien zu nutzen, um zugleich die Effizienz der Landwirtschaft zu steigern, schonender mit allen Ressourcen umzugehen, Menschen von monotoner Arbeit zu entlasten und höhere Erträge zu produzieren. Mit rechnergestützten und vernetzten Abläufen plus maschinellem Lernen und maßgeschneiderten Roboterfunktionen kann statt der Fläche die einzelne Pflanze in den Fokus gestellt werden. So können Maßnahmen direkter ausgerichtet sowie sparsamer und effizienter eingesetzt werden. Mithilfe eines mobilen Roboters mit Greifarm können beispielsweise Früchte zuverlässig zum optimalen Reifegrad, bestimmt durch kameragestützte Sensoren, geerntet werden. Ebenso effizient arbeiten autonome Feldroboter, die aufgrund ihres geringen Gewichts den Ackerboden schonen oder intelligente Anbausysteme, die Saatgut oder Dünger genau dort ausbringen können, wo diese benötigt werden.

Hightech für die Automatisierung

Und auf welche Technik sind Agrarroboter angewiesen? Aufgrund der Kompaktheit und des wesentlich geringeren Gewichts im Vergleich zu traditionellen Großgeräten, müssen die eingesetzten Antriebssysteme möglichst kompakt sein. Gleichzeitig müssen die Antriebe auch während großer Temperaturschwankungen und unter härtesten Bedingungen zuverlässig und dauerhaft funktionieren sowie für Säscheiben, Klappen, Greifern, Roboterarmen oder Scheren genug Kraft liefern, um die jeweilige Aufgabe in zahllosen Zyklen zuverlässig zu erledigen. Zugleich sollen sie hocheffizient arbeiten, denn die autonomen Einheiten beziehen ihre Energie meist aus Akkus mit begrenztem Stromvorrat. Außerdem muss die Antriebselektronik in vernetzte Strukturen eingebunden werden können und eine intelligente Steuerung möglich machen.

Robuste Lösungen aus einer Hand

„Das sind typische Anforderungen an Antriebssysteme der Spitzenklasse; die passenden Antworten gehören bei FAULHABER zum Standard“, sagt Kevin Moser. „Darüber hinaus müssen die Antriebe in der landwirtschaftlichen Umgebung aber auch in höchstem Maße robust sein, damit sie selbst unter härtesten Bedingungen zuverlässig und dauerhaft funktionieren. Große Temperaturschwankungen und starke mechanische Belastungen sind in Landwirtschaft und Gartenbau gang und gäbe.“

Diese Anforderungen erfüllen die wartungsfreien bürstenlosen und besonders kompakten DC-Flachmotoren der Serie BXT sowie die äußerst robusten und kosteneffizienten Kupfergraphitmotoren der CXR-Linie. Für die hohe Kraftübertragung unter rauen Bedingungen sind die Getriebe der neuen Serie GPT besonders gut geeignet. Bei höchster Effizienz sind sie ebenfalls extrem robust und damit ideal für landwirtschaftliche Anwendungen. Optionale Inkremental-Encoder ermöglichen eine hochgenaue Positionierung. Für die Vernetzung der Antriebssysteme stehen verschiedene Steuerungen, beispielsweise mit CANopen-Schnittstelle zur Verfügung. „Antriebe von FAULHABER werden bereits im Smart Farming eingesetzt“, berichtet Kevin Moser. „Für anspruchsvolle Anwendungen in diesem Bereich werden sie künftig eine wichtige Rolle spielen.“

 

Bildrechte und Quelle:

Weiterführende Informationen:

https://www.faulhaber.com/de/

https://www.faulhaber.com/de/produkte/buerstenlose-dc-motoren/bxt/

https://www.faulhaber.com/de/produkte/praezisionsgetriebe/planetengetriebe/gpt/

 

Social Media:

https://de.linkedin.com/company/faulhaber-drive-systems

 

Prozessautomatisierung durch Low-Code

Gastbeitrag von Axel Ensinger, Co-CEO der JobRouter AG.

Einkauf, Finanzen, HR: Praxisbeispiele zeigen, wie es geht

Unternehmen müssen täglich eine Vielfalt an Prozessen bewältigen. Dabei sind viele von ihnen immer noch nicht digitalisiert. Low-Code kann Betriebe bei der Umstellung effizient unterstützen.

 

Mehr als die Hälfte der Geschäftsführer und Vorstände deutscher Unternehmen sehen im Zeitmangel (69 Prozent) und in fehlenden finanziellen Mitteln (59 Prozent) die größten Hürden für die Digitalisierung. Das zeigt eine repräsentative Bitkom-Umfrage aus dem Jahr 2024. Fachkräftemangel einerseits, aber dennoch steigende Arbeitsbelastung und Digitalisierungsdruck andererseits. Viele ächzen unter diesen Anforderungen. Low-Code stellt eine mögliche Unterstützung für diese Herausforderungen dar und ist bis zu zehnmal schneller als klassische Software-Entwicklung. Mit Low-Code lassen sich beliebige Geschäftsprozesse, sogenannte Workflows, vergleichsweise schnell abbilden, digitalisieren und automatisieren. Denn Anwender benötigen kaum Programmierkenntnisse, um mit Low-Code-Lösungen zu arbeiten. Sie greifen auf bereits vorkonfigurierte Designelemente zurück, was die Projektphase beschleunigt und den Implementierungsaufwand zusätzlich reduziert. Lediglich komplexe individuelle Workflows erfordern einen höheren Programmieraufwand. Jedoch bringen viele Low-Code-Plattformen die nötige Funktionsvielfalt dafür mit.

Axel Ensinger erklärt: „Zwar gibt es viele Lösungen, die Prozesse (teil-)automatisiert abbilden, doch häufig kaufen Unternehmen Software für einen bestimmten Anwendungsfall ein. Damit entsteht eine unübersichtliche, in Silos organisierte IT-Landschaft.“

 

Workflows digital abbilden mit Low-Code

Die notwendigen Funktionalitäten sind in Low-Code-Digitalisierungsplattformen gesammelt. Mit einem Prozessdesigner lassen sich Workflows per Drag-und-Drop erstellen und beliebig anpassen. Alle relevanten Mitarbeiter und Fachabteilungen sind dabei in den Vorgang involviert – so fließt die Expertise der Menschen ein, die am Ende Teil des Prozesses sind. Zudem entlastet diese selbstständige Arbeitsweise die IT-Abteilung, in der Ressourcen traditionell eng sind. Prozessabweichungen, ein Berechtigungsmanagement mit Zuständigkeiten sowie automatisierte Erinnerungsbenachrichtigungen lassen sich bei der Erstellung leicht festlegen. Schnittstellen zu gängiger Drittanbietersoftware sind häufig schon vorkonfiguriert – so können Unternehmen sie einfacher anbinden. Dadurch werden Prozesse durchgängig digital abbildbar.

Geschäftsprozesse automatisieren: ein Blick in die Praxis

Der Einsatz von Lösungen zur Prozessautomatisierung ist branchenübergreifend und in verschiedenen Unternehmensabteilungen möglich. Wie sich die Prozesse mit Hilfe von Low-Code-Technologie noch schneller aufsetzen lassen, zeigen folgende drei Beispiele:

  1. E-Rechnung (voll-)automatisiert verarbeiten

Ab dem 1. Januar 2025 gilt die E-Rechnungspflicht und stellt Unternehmen vor große Herausforderungen. Die Rechnungsverarbeitung ist ein komplexer Prozess, geprägt von vielen Zwischenschritten, unterschiedlichen Formaten und vielen beteiligten Personen. Den Prozess durch Individualprogrammierung zu digitalisieren, erhöht den zeitlichen Projektaufwand deutlich. Durch Low-Code hingegen kann der Prozessdesigner den digitalen Rechnungs-Workflow schneller abbilden. Mit einer entsprechenden Digitalisierungsplattform lässt sich ein bis zu 100 Prozent automatisierter E-Rechnungsprozess aufbauen, der wie folgt abläuft:

  • Prüfung des Formats: Eine Rechnung geht in das System ein. Dieses prüft, ob es sich um eine E-Rechnung oder ein anderes Format handelt. Die Standardformate für E-Rechnungen sind ZUGFeRD oder XRechnung.
  • Abgleich der Informationen: Handelt es sich um eine E-Rechnung, liest die Software die XML-Datensätze automatisiert aus und vergleicht die darin enthaltenen Informationen mit dem zugehörigen Bestellbeleg. Gibt es keine Preis- oder Mengenabweichungen und die Informationen stimmen überein, wird die E-Rechnung an das ERP-System (zum Beispiel SAP) geleitet und verbucht.
  • Prozessabzweigungen festlegen und eingreifen: Stellt das System eine Abweichung zum Bestellbeleg fest, benachrichtigt es einen hinterlegten Mitarbeiter, der den Sachverhalt prüft.

 

  1. Digitaler Beschaffungsprozess

Ein Bereich, in dem Low-Code viel bewirken kann, sind Purchase-to-Pay-Prozesse (P2P). Diese bestehen aus vielen Schritten und lassen sich durch Low-Code-Digitalisierungsplattformen teilweise oder vollständig automatisieren – von der Bedarfsmeldung über die Bestellung und den Wareneingang bis hin zur Rechnungsprüfung und Bezahlung. Dabei können Anwender vorab festlegen, welcher Mitarbeiter für welchen Arbeitsschritt zuständig ist und wer bei einer Abwesenheit die Vertretung übernimmt. Der P2P-Prozess kann wie folgt aussehen:

Ein Mitarbeiter meldet über das System, dass er ein neues Headset benötigt. Diese Bedarfsmeldung wird anschließend an eine vorher festgelegte Person, in der Regel den Vorgesetzten, zur Freigabe weitergeleitet. Gibt dieser die Meldung frei, geht eine Benachrichtigung an die Einkaufsabteilung. Der Einkauf bestellt das benötigte Headset und erhält vom Lieferanten eine Bestätigung. Ist das Headset beim Mitarbeiter angekommen, meldet dieser den Wareneingang zurück und kann es bei Mängeln reklamieren. Auf diese Weise ist der Einkauf konstant über den aktuellen Status informiert. Trifft dann die Rechnung ein, vergleicht das System die Rechnungsdaten mit den Informationen aus der Bestellung und Lieferung. Stimmen die Informationen überein, wird die Rechnung an das ERP-System weitergeleitet und verbucht. Bei Preis- oder Mengenabweichungen übermittelt das System die Rechnung an einen Mitarbeiter aus der Buchhaltung, der sie manuell prüft.

Während dieses Prozesses werden alle Schritte transparent dokumentiert. So kann jeder Beteiligte nachvollziehen, welche Produkte eingekauft wurden, wie hoch die Ausgaben und wie lange die Lieferzeiten waren. Der beschleunigte Prozess spart Kosten und setzt Kapazitäten für wertschöpfende Aufgaben frei. Außerdem können Unternehmen externe Nutzer wie Lieferanten über Schnittstellen anbinden, um die Kommunikation weiter zu vereinfachen. Auch Skonti lassen sich besser ausnutzen.

 

  1. Transparentes Mitarbeitermanagement

Kandidaten sind in Zeiten des Fachkräftemangels heiß begehrt und Unternehmen müssen schnell reagieren. Ein manuelles Bewerbermanagement führt jedoch zu unübersichtlichen Prozessen: In der Folge bleibt die zu besetzende Stelle länger vakant. Bewerber klagen über mangelnde Organisation und Verantwortliche über fehlende Transparenz. Mit Low-Code-Digitalisierungsplattformen können Unternehmen ein Bewerberportal einrichten, das den Prozess automatisiert steuert:

  • Bewerbungseingang: Bewerbungen, die über das Portal eingehen, landen in einem zentralen Posteingang. Der Zugriff wird über ein Rechte- und Rollenmanagement gesteuert: Nur berechtigte Mitarbeiter können die Unterlagen einsehen und geeignete Kandidaten an die jeweilige Fachabteilung weiterleiten.
  • Kandidaten auswählen: Die Fachverantwortlichen können über die Plattform Rückfragen stellen und Feedback geben, ob sie einen Bewerber zu einem Vorstellungsgespräch einladen wollen oder nicht.
  • Kommunikation: Im letzten Schritt lädt die Personalabteilung den Bewerber ein. Alternativ versendet das System automatisch eine Absage. Sowohl Einladung als auch Absage lassen sich individualisieren.

Nach dem Recruiting ist eine gelungene Einarbeitung wichtig. Dazu startet die Personalabteilung einen digitalen Onboarding-Prozess. In diesem holt sie notwendige Unterschriften ein und Verantwortliche können hinterlegen, welche Geräte oder Informationen der Neuankömmling benötigt. So steht bei Arbeitsbeginn alles für den neuen Mitarbeiter bereit.

 

Mit Low-Code wirtschaftlich aufstellen

Zwar gibt es viele Lösungen, die Prozesse (teil-)automatisiert abbilden, doch häufig kaufen Unternehmen Software für einen bestimmten Anwendungsfall ein. Damit entsteht eine unübersichtliche, in Silos organisierte IT-Landschaft. Digitalisierungsplattformen sind aufgrund ihrer Funktionalitäten für eine breite Palette an Anwendungsfällen konzipiert und integrieren sich über Schnittstellen nahtlos in die bestehende Infrastruktur. Durch den Low-Code-Ansatz setzen Unternehmen Digitalisierungsprojekte schneller und mit weniger personellem sowie finanziellem Aufwand um.

https://www.jobrouter.com/de/

 

KI – Datenschutz ist nicht verhandelbar

Neil Thacker erläutert in seinem Gastbeitrag, wie Unternehmen Transparenz und Kontrolle über SaaS-Anwendungen wie ChatGPT im gesamten Unternehmen erreichen.

 

Künstliche Intelligenz verändert die Arbeitswelt. In Unternehmen verbreitet sie sich immer weiter. Das Ziel ist die Optimierung alltäglicher Aufgaben und damit die Steigerung der Produktivität für die gesamte Belegschaft.

Laut dem „Cloud & Threat Report: KI im Unternehmen 2024“ von Netskope Threat Labs setzen inzwischen 96 % der Unternehmen generative KI ein – eine Verdreifachung in den letzten zwölf Monaten. ChatGPT und Microsoft Copilot sind die beliebtesten Apps und im Durchschnitt nutzen Organisationen jetzt fast zehn genAI-Apps, im letzten Jahr waren es noch drei. Das oberste 1 % der Unternehmen nutzt bis zu 80 Apps, was das Wachstum der verfügbaren KI-Dienste verdeutlicht. Mehr als ein Drittel der sensiblen Daten, die mit KI-Tools ausgetauscht werden, sind regulierte Daten, zu deren Schutz Unternehmen gesetzlich verpflichtet sind – wie z. B. durch bestehende GDPR-Vorschriften der EU.


Gastautor: Neil Thacker, CISO von Netskope EMEA, verdeutlicht:

„Zweifellos bringen KI-Apps Unternehmen viele Vorteile. Organisationen müssen jedoch erkennen, dass sie ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“

Neil Thacker verfügt über mehr als 25 Jahre Erfahrung in der IT-Security-Branche. Er ist Beiratsmitglied der Cloud Security Alliance (CSA) und ehemaliger Berater der EU-Agentur für Cybersicherheit ENISA. Thacker ist CISSP-, CIPP/E- und CEH-zertifiziert, er spricht und veröffentlicht häufig zu Themen rund um Cybersicherheit, Datenschutz und den Schutz der Privatsphäre.


 

KI-Plattformen und sensible Daten
Zweifellos bringen KI-Apps Unternehmen viele Vorteile. Organisationen müssen jedoch erkennen, dass sie ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen. Es besteht ein doppeltes Risiko. Erstens könnten Mitarbeiter Daten mit unsicheren KI- Apps von Drittanbietern austauschen. Zweitens entwickeln und verbessern sich die Algorithmen, die KI-Plattfor- men antreiben, auf der Grundlage der ihnen zugeführten Daten. Ohne sich dessen bewusst zu sein, stellen Unternehmen möglicherweise ihre Daten zur Verfügung, um noch intelligentere KI-Plattformen zu trainieren, die Wettbewerbern Vorteile verschaffen können. Unternehmen müssen kontinuierliche Datenschutzrichtlinien und-Tools einsetzen, um sich zu schützen.

Chief Information Security Officers (CISOs) sollten eine Bestandsaufnahme der in ihrem Unternehmen genutzten KI-Dienste machen und die relevanten Dienste festlegen. Eine anschließende Überprüfung aller Plattformanbieter inkl. der Bewertungen ihrer Datenrichtlinien sowie ein Check, ob sie von Drittanbietern unterstützt werden, ist unerlässlich. Mit der KI-Technologie sind hohe Kosten verbunden. Es liegt nahe, dass kostenlose oder günstige Anbieter ihre Einnahmen auf andere Weise generieren – z. B. durch den Verkauf von Daten. Hier ist eine gründliche Prüfung der Geschäftsbedingungen für CISOs un- umgänglich, um den Schutz sensibler Daten und der Privatsphäre zu gewährleisten. Viele Unternehmen wissen nicht, dass beliebte KI-Apps oft private Abonnements anbieten, bei denen ge- gen eine Gebühr die Kundendaten nicht zur Aktualisierung des öffentlichen Modells verwendet werden. Angesichts der großen und wachsenden Zahl von Plattformen, die in Unternehmen genutzt werden, wäre es jedoch kostspielig und unpraktisch, dies für jede einzelne App zu tun, ohne die künftigen Risiken auszugleichen.

Risiken minimieren

Data-Loss-Prevention (DLP)-Tools müssen eingesetzt werden, um die Sicherheitslücken zu schließen. Ein Beispiel dafür ist SkopeAI für genAI von Netskope, das ein proprietäres System verwendet, um sicherzustellen, dass keine sensiblen Informationen in Eingabeabfragen für KI-Anwendungen ohne die Nutzerzustimmung verwendet werden. Unternehmen sollten binäre „Erlauben oder Sperren“- Richtlinien vermeiden. Stattdessen sollten sie ihre KI-Richtlinien datenorientiert gestalten und sich an „Zero Trust”- Grundsätzen orientieren, indem sie die Nutzung auf Basis von Nutzeridentität, Anwendung, Aktion und Datentyp erlauben. SkopeAI wird selbst von KI betrieben und lernt, sensible Daten auf der Grundlage der persönlichen Präferenzen eines Unternehmens zu erkennen und in Echtzeit zu identifizieren. Unternehmen können neben dem Datenschutzsystem auch ein Just-in-Time- Coaching für ihre Mitarbeiter einführen, das ihnen hilft, die richtigen Entscheidungen zu treffen. Wenn z. B. ein Risiko erkannt wird, könnte eine Pop- up-Meldung erscheinen, die den Mitarbeiter über die Risikostufe der verwen- deten App informiert. Studien zeigen, dass der verhaltensorientierte Ansatz für die Datensicherheit sehr effektiv ist, da unglaubliche 95 % der Vorfälle im Bereich der Cybersicherheit auf menschliches Versagen zurückzuführen sind. Neben technologischen Tools sind die kontinuierliche Schulung und Sensibilisierung der Mitarbeiter unabdingbar.

In Zukunft sicher

Mit der fortschreitenden digitalen Transformation von Unternehmen wird KI enorme Vorteile in Bezug auf Effizienz, Wettbewerbsfähigkeit und Nutzererfahrung bieten. Die Absicherung von genAI bedarf weiterer Investitionen und größerer Aufmerksamkeit, da sich die Nutzung von KI-Tools in Unternehmen durchsetzt und schnell wächst. Unternehmen müssen beachten, dass genAI-Outputs ungewollt sensible Informationen preisgeben, Fehlinformationen verbreiten oder sogar bösartige Inhalte einschleusen können. Das erfordert einen starken Risi- komanagement-Ansatz, um Daten, Ruf und Geschäftskontinuität zu schützen. Die 2012 gegründete Netskope-Plattform bietet Zugangskontrolle und Sicherheit für alle Daten – unabhängig vom Speicherort und der Zugriffsart. Basierend auf maschinellem Lernen und KI, hilft der datenzentrierte Sicherheits- und Netzwerkansatz von Netskope Unternehmen dabei, Zero- Trust-Prinzipien anzuwenden, um Da- ten zu schützen und sich gegen Cyberbedrohungen zu wehren – im Web, in der Cloud und bei privaten Apps.

 

https://www.netskope.com/de/