Weniger Lust auf lange Wege

 

Weniger Lust auf lange Wege: Freizeitziele müssen näher rücken

In einer Zeit, in der das eigene Zuhause zunehmend an Bedeutung gewinnt, nimmt die Bereitschaft der Bürger ab, lange Wege für Freizeitaktivitäten in Kauf zu nehmen. Zu diesem Ergebnis kommt eine aktuelle Untersuchung der gemeinnützigen Stiftung für Zukunftsfragen, für die über 3.000 Personen ab 18 Jahren repräsentativ befragt wurden.

Besonders bei kulturellen und sozialen Veranstaltungen ist ein deutlicher Rückgang der Anfahrtszeiten zu beobachten. Zwar nehmen Musicalbesucher weiterhin knapp eine Stunde Fahrtzeit in Kauf, doch dies entspricht fast einer halben Stunde weniger als vor zehn Jahren. Auch für Open-Air-Konzerte (-22 Minuten), Sportveranstaltungen (-19 Minuten) und Theaterbesuche (-11 Minuten) zeigen sich die Bürger zunehmend weniger bereit, längere Zeit im Auto, Zug oder Bus zu verbringen.

Auch die Bereitschaft, weite Strecken zu Verwandten (-16 Minuten) oder Freunden (-13 Minuten) zurückzulegen, ist gesunken, bleibt aber relativ hoch. Denn für keine andere Aktivität investieren die Bürger mehr Fahrtzeit. Die durchschnittliche Dauer hat dennoch abgenommen, was unter anderem auf die Nutzung digitaler Kommunikationsmittel zurückzuführen ist, die persönliche Treffen teilweise ersetzen.

Im Gegensatz zu den meisten Freizeitaktivitäten weisen einige Ziele eine stabile oder sogar leicht gestiegene Anfahrtsdauer auf. So hat sich die durchschnittliche Anfahrtszeit zu Naherholungsgebieten und Bars leicht erhöht, und zu Restaurants ist sie mit einem Plus von acht Minuten sogar deutlicher gestiegen.

Einordnung des wissenschaftlichen Leiters, Professor Dr. Ulrich Reinhardt:

„Die Analyse der Anfahrtszeiten zu verschiedenen Freizeitaktivitäten verdeutlicht die Verdichtung und Attraktivität der Angebote im Alltag vieler Bundesbürger. Lange Anfahrtszeiten müssen durch einen entsprechenden Mehrwert gerechtfertigt sein, was nicht immer der Fall ist. Gleichzeitig zeigen sich Veränderungen in den Präferenzen der Bürger: Während fast alle kulturellen und sozialen Aktivitäten an Attraktivität verlieren, gewinnen lokale und naturbezogene Freizeitmöglichkeiten an Bedeutung. Diese Entwicklungen spiegeln das Bedürfnis vieler Bürger nach Effizienz, aber auch nach Erholung, Bequemlichkeit und häuslicher Gemütlichkeit wider – getreu dem Motto: Schnell hin, und noch schneller zurück aufs Sofa.“

Digitale Transformation und KI

In den kommenden Jahren werden KI und Automatisierung unsere menschlichen Fähigkeiten erweitern

Ein echtes Hindernis auf dem Weg in die digitale Transformation ist die Cyberkriminalität. Durch Diebstahl von IT-Ausrüstung und Daten sowie durch Industriespionage und Sabotage entstanden im Jahr 2023 der deutschen Wirtschaft 206 Milliarden Euro Schaden. Das ergab die repräsentative Bitkom-Studie vom September 2023. Immer mehr Attacken kommen aus Russland und China. Erstmals fühlt sich eine Mehrheit von 52 Prozent der Unternehmen durch Cyberattacken in ihrer Existenz bedroht. Verfassungsschutz-Vizepräsident Sinan Selen sagte bei der Vorstellung der Studie: „Die Ergebnisse der aktuellen Untersuchung fügen sich nahtlos in unsere Lageeinschätzung ein. Wir sind mit einer verstetigten hohen Bedrohung durch staatliche und nicht-staatliche Cyberakteure konfrontiert.“ Der Krieg im Netz ist also voll entbrannt, demnach scheint auch die Sensibilisierung der Unternehmen an Fahrt aufzunehmen. Unternehmen stellen einen immer größeren Anteil ihres IT-Budgets für Cybersicherheit bereit. Die digitale Transformation und die Umstellung auf hybride Cloudinfrastrukturen sowie Homeworker haben die Art und Weise, wie Unternehmen ihre Geschäfte realisieren, verändert. Es reicht nicht mehr aus, sich auf einen Netzperimeter zu verlassen. Dazu kommt, dass viele Unternehmen immer noch mit diversen Sicherheitslösungen und -tools arbeiten, die schlecht integriert sind. Für die Sicherheitsteams bedeutet das, mehr Zeit mit manuellen Aufgaben zu verbringen. Außerdem hat die Zunahme von Datenschutzverletzungen und die Verschärfung der weltweiten Compliance-Regeln den Schutz von Netzwerken erschwert. Unternehmen die gerade neue digitale und datengetriebene Geschäftsmodelle auf Basis der Cloud- und IIoT-Technologien umsetzen, rät Ilona Simpson, CXO Advisor bei Netskope, sich mit den Möglichkeiten rund um Secure Access Service Edge (SASE), „sässie“ ausgesprochen, zu beschäftigen. SASE ist eine Technologie, die softwaredefinierte  Netzwerkfunktionen mit Netzwerksicherheit zusammenführt. Das cloudbasierte Architekturkonzept ist eine Kombination aus einem erweiterten und aus einer Zweigstelle bereitgestellten SD-WAN-Edge und umfassenden Sicherheitsdiensten, die über die Cloud laufen. „Unternehmen erkennen mittlerweile, dass die traditionellen Sicherheitsarchitekturen für die neuen Cloudtechnologien nicht mehr geeignet sind und Firmen, die ihre Sicherheit nicht auf einen einheitlichen Zero-Trust-Ansatz umstellen, setzen ihre digitale Infrastruktur zunehmend Cyberrisiken aus,“ erklärte llona Simpson. Ob zur Abwehr von Cyberattacken oder als Grundlage für neue digitale Geschäftsmodelle, die neuen Technologien rund um künstliche Intelligenz und Machine Learning (ML) halten Einzug in Unternehmen und unser Privatleben.

 

„Mehr als 206 Milliarden Euro Schaden durch Cyberkriminalität“

 

Zum Beispiel mit ChatGPT oder Google Gemini haben wir nun alle Zugang zu generativer KI. Aber ist das wirklich die Demokratisierung von KI und ML und welche Trainingsmodelle und Daten stecken dahinter?  Zum Beispiel hat sich QuantPi das Ziel gesetzt, Europa und die globale Gemeinschaft nachhaltig zu beeinflussen, indem es Pionierarbeit bei der sicheren Nutzung von generativer KI leistet. Das Start-up für KI-Vertrauensmanagement ist 2020 aus dem CISPA-Helmholtz-Zentrum für Informationssicherheit und der Universität des Saarlandes hervorgegangen. Während es Anbietern und Nutzern an Ressourcen und Technologien fehlt, um die Risiken generativer KI-Systeme zu beherrschen, bauen die KI-Spezialisten die notwendigen Schutzmaßnahmen auf. Aktuell hat das Start-up 2,5 Mio. Euro Förderung vom Europäischen Innovationsrat (EIC) erhalten für den Aufbau einer Plattform für vertrauenswürdige generative KI. „Mit dem Fördergeld erweitern wir unsere KI-Testtechnologie und bauen die erste automatisierte Risikomanagement-Plattform für generative KI-Systeme, welche die Umsetzung von Verordnungen wie dem EU AI Act erleichtern wird“,  erklärte dazu CEO Philipp Adamidis. Für Anbieter von generativen KI-Systemen bietet diese Technologie eine Möglichkeit, höchste ethische Standards in ihr Produkt zu integrieren. „Unternehmen, die GenAI-Tools kaufen möchten, können den Risikobewertungsprozess während der Beschaffung automatisieren, um ihren Kundenstamm zu schützen und sicherzustellen, dass nur in hochwertige KI investiert wird“, ergänzte Philipp Adamidis. Wer sichtbar machen möchte, wie künstliche Intelligenz die Wirtschaft und den Alltag bereits heute und künftig transformiert, sollte sich die KI-Landkarte der Plattform Lernender Systeme anschauen, auch im Hinblick darauf neue Geschäftsmodelle zu entdecken.

Aber wie setze ich jetzt die ersten KI-Projekte in die Praxis um und welches Mindset sollte ich mitbringen? „Das Wichtigste für ein produktives KI-Projekt ist nicht tiefes Fachwissen im Bereich Machine Learning – das kann man sich dazu holen – sondern eine Vision, was man erreichen will. Offenheit und die Bereitschaft, Dinge auszuprobieren, zu lernen, und schnell umzusteuern, wenn sich neue technologische Möglichkeiten bieten oder etwas nicht funktioniert“, betonte Maximilian Vogel von Big Picture im Gespräch mit unserer Redaktion. „Ich empfehle, einen Bereich mit großem Automatisierungspotential zu identifizieren und direkt – alleine oder mit einem Partner – in ein kleines Umsetzungsprojekt zu starten, das bei Erfolg ausgebaut werden kann.“

Neue Geschäftsmodelle entstehen momentan auch rundum digitale Zwillinge (digital twins). Kurz gesagt, repräsentiert ein digitaler Zwilling ein reales Objekt in der digitalen Welt. In der Praxis geht es darum, ein hochkomplexes virtuelles Modell zu erstellen, das das exakte Gegenstück, oder der Zwilling, eines physischen Objekts ist. Die Technologie verschafft der Industrie Effizienzsteigerung, Nachhaltigkeit im Produktlebenszyklus und Verbesserungen beim Thema Forschung und Entwicklung.  Viele Vordenker sind davon überzeugt, dass digital Twins schon bald die am häufigsten benutzte Applikation in der Industrie sein wird. Das Metaversum bietet im Hinblick darauf auch neue Geschäftsmodelle für Unternehmen.  Zum Beispiel verdeutlicht die Partnerschaft zwischen Siemens und Nvidia die anstehende Transformation sehr gut. Die beiden Konzerne wollen mit „Xcelerator“ eine digitale Plattform für die Industrie schaffen und Unternehmen ins Metaversum bringen. Hauptsächlich geht es bei der Zusammenarbeit um den digitalen Zwilling. Dazu sollen das Siemens-Xcelerator-Ökosystem und die Omniverse-Plattform von Nvidia verknüpft werden. Die neuen Technologien verändern nicht nur die Industrie in ihrer Wertschöpfung rasant, sondern eigentlich alle Branchen, wie auch die der Logistik. Ob humanoide Roboter, fliegende Warenhäuser oder selbstfahrende Züge und Lkw: Die Zukunft der Logistik besteht aus Innovationen durch die schlaue Kombination neuer Technologien. Zum Beispiel wird so KI mit Sensorik und Robotik zum neuen Treiber der digitalen Transformation. Also, die Technologien sind alle da und vorhanden, Unternehmer sollten sich Zeit nehmen und die neuen Technologien verstehen lernen, um dadurch für das eigene Business zum Beispiel neue Automatisierungsmöglichkeiten zu entdecken. Im Hinblick darauf können neue KI-Geschäftsmodelle durchaus das Potential aufbringen, um das eigene Bestandsgeschäft zu disruptieren. Natürlich stehen Sie dann vor neuen Herausforderungen. Aber genau dann haben Sie richtig gehandelt, um auch in Zukunft noch am Markt zu bleiben. Um die erfolgreiche digitale Reise zu starten, empfiehlt Sebastian Wohlrapp von diconium, zum Schluss: „Hört auf, wahllos zu digitalisieren! Blinder Aktionismus ist die falsche Herangehensweise. Der Kauf einer digitalen Lösung transformiert ein Unternehmen nicht. Analysiert Eure Ausgangslage! Unternehmen müssen ihre Fähigkeiten vor dem Start in die Transformationsphase hinterfragen. Welche Rolle soll das Unternehmen in Zukunft in welchen Ökosystemen spielen? Das schafft die Grundlage für alles, was danach kommt. Wagt Neues und denkt groß! Eine Transformation kann sehr viel Gutes hervorbringen, aber sie ist kein Change, den man einfach managen oder delegieren kann. Unternehmen scheitern meiner Erfahrung nach nicht, weil sie die falschen Dinge tun. Sie scheitern, weil sie zu lange Dinge tun, die früher richtig waren.“

 

Autor: Bernhard Haselbauer

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

Aufmacherbild/Quelle/ Lizenz
AI Image/Limitless Visions / Adobe Stock

Saubere Stammdaten sichern internationale Wettbewerbsfähigkeit

Warum benötigen Unternehmen saubere Stammdaten, um den Anschluss zum internationalen Wettbewerb zu halten?

Die TREND REPORT Redaktion sprach dazu mit Maurice Schnitzler, Principal Master Data Governance, und Christian Falke, Partner SAP Architecture, Development and Integration, beim SAP Gold Partner apsolut.

 

Weshalb gestaltet sich die Lage für die Unternehmen in Deutschland derzeit so schwierig? 

Maurice Schnitzler: Ein zentraler Schmerzpunkt ist sicher der massive internationale Wettbewerbsdruck. Nach einer aktuellen ifo-Umfrage verschlechtert sich die Wettbewerbsposition der deutschen Industrie innerhalb der EU und auf den Weltmärkten seit nunmehr zwei Jahren. Um diesem Abwärtstrend entgegenzuwirken und nicht den Anschluss zu verlieren, müssen die Unternehmen permanent neue Möglichkeiten erschließen, um ihre Geschäftsprozesse zu optimieren, den Kundenservice zu verbessern, die Betriebskosten zu senken, attraktive Geschäftsfelder zu erschließen und ihre Effizienz zu steigern.

Hinzu kommt, dass sich die Betriebe mit immer mehr gesetzlichen Vorschriften im Bereich Umwelt, Soziales und verantwortlicher Unternehmensführung konfrontiert sehen. Die Regulierungsdichte nimmt zu. Aktuelle Beispiele sind das Lieferkettensorgfaltspflichtengesetz (LkSG), das zur Einhaltung von Menschenrechten und Umweltstandards in den Lieferketten verpflichtet, und die neue Corporate Sustainability Reporting Directive (CSRD) der EU, die die Nachhaltigkeitsberichterstattung weiter verschärft. Unternehmen, die die Vorgaben nicht einhalten, müssen mit teilweise empfindlichen Geldbußen und Imageverlusten rechnen, die ihnen den Weg zu Investmentquellen und Geschäftsmöglichkeiten versperren.

Maurice Schnitzler betont: „Saubere Daten sind unverzichtbar, damit Unternehmen den Durchblick gewinnen und die Voraussetzungen für modernes Wachstum schaffen.“

 

Wie können die Unternehmen den steigenden Anforderungen begegnen?

Christian Falke: Eine entscheidende Voraussetzung sind zuverlässige und eindeutige Stammdaten, da diese die Basis für fundierte strategische Entscheidungen, für Reportings und die Rationalisierung von Geschäftsprozessen bilden. Zudem ist es den Unternehmen mit einem einheitlichen Datenbestand überhaupt erst möglich, den Mehrwert zukunftsweisender KI-Technologien auszuschöpfen.

Intelligente Tools bieten bisher unerreichte Wettbewerbsvorteile. Sie unterstützen wichtige Entscheidungsprozesse, indem sie Datenanalysen und Handlungsempfehlungen bereitstellen. So lässt sich mithilfe von KI aus einer Vielzahl von Anbietern exakt derjenige Lieferant herausfiltern, der die benötigten Fähigkeiten mitbringt. Ebenso ist es mit prädiktiven KI-basierten Analysen möglich, künftige Trends vorauszusagen und proaktive Maßnahmen zu ergreifen. Wer zum Beispiel weiß, wie sich die Nachfrage nach bestimmten Produkten oder Dienstleistungen entwickelt, kann gezielt neue Geschäftsmodelle zur Kundenakquise, -betreuung und -bindung kreieren. Zudem können KI-Tools für die Automatisierung ermüdender Routineaufgaben, wie das Beantworten von Kundenanfragen, eingesetzt werden. Die Mitarbeiter gewinnen dadurch mehr Zeit für kreative Aufgaben und können verstärkt zur Wertschöpfung im Unternehmen beitragen.

Christian Falke betont: „Höchste Zeit zu handeln! Betriebe und Organisationen sind daher gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. „

 

Wie ist es aber tatsächlich um den Einsatz von Stammdatenmanagement in der Praxis bestellt?

Maurice Schnitzler: Obwohl der Nutzen verlässlicher Daten über Produkte, Lieferanten, Kunden, Mitarbeiter, Standorte oder Inventar außer Zweifel steht, hinkt die Praxis dieser Erkenntnis häufig hinterher. Das heißt konkret: In historisch gewachsenen Konzern- und IT-Strukturen verteilen sich die Informationen auf vielen verschiedenen Datenbanken und Geschäftsanwendungen. Oft fehlen Schnittstellen, zugleich wird das Problem der Datensilos angesichts der ständig steigenden Datenflut immer weiter verschärft. Darüber hinaus führen fehlende Verantwortlichkeiten und Richtlinien für die Eingabe und Verwaltung zu einer schlechten Datenqualität, die durch fehlerhafte, unvollständige, doppelt vorhandene oder veraltete Informationen gekennzeichnet ist. Eine Studie des Bitkom-Branchenverbands kommt zum Ergebnis, dass die überwiegende Mehrheit der Unternehmen in Deutschland das Potenzial ihrer Daten derzeit nicht ausschöpft, um von KI-basierten Erkenntnissen oder datengetriebenen Geschäftsmodellen zu profitieren. Ein wesentlicher Grund dürfte das Fehlen einer kohärenten, umfassenden Datenstrategie sein.

 

Was sollten die Unternehmen tun, um dieses Defizit effektiv aufzuarbeiten?  

Christian Falke: Die Betriebe und Organisationen sind gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. Nur so können sie den Durchblick gewinnen und die Voraussetzungen für ein modernes Wachstum schaffen – und damit ihre internationale Wettbewerbsfähigkeit sichern. Allerdings ist zu beachten, dass MDM kein rein technisches Thema ist. Es reicht weit über die Zusammenführung und Bereinigung von Daten aus verschiedenen Quellsystemen in einer MDM-Plattform – dem so genannten „Single Point of Truth“ – hinaus.

Da die fachliche Zuständigkeit für die Daten bei den Teams und den Abteilungen liegt, müssen auch diese frühzeitig für die Wichtigkeit des Themas sensibilisiert und zum Beispiel im Rahmen von Workshops in das MDM-Projekt eingebunden werden. Um die Akzeptanz für das neue System zu erhöhen, ist ein gezieltes Change Management unverzichtbar. So müssen im Sinne von Data Governance klare Verantwortlichkeiten und Befugnisse für die Daten festgelegt und die Fachanwenderinnen und -anwender in der Nutzung der neuen Prozesse und Technologien geschult werden. Die Praxis zeigt, dass der Aufbau einer unternehmensweiten Datenkultur und -mentalität ein kritischer Erfolgsfaktor bei jeder MDM-Einführung ist.

 

Wie kann apsolut die Unternehmen bei ihrem MDM-Projekt unterstützen?

Christian Falke: Mit apsolut haben die Betriebe und Organisationen einen erfahrenen Beratungspartner zur Seite, der umfassendes Fach- und Technologie-Know-how mit langjährigen MDM-Projekterfahrungen kombiniert. Dies reicht von Strategie- und Prozessberatung bis hin zur Implementierung einer MDM-Plattform „State of the Art“. Dabei unterstützen wir die Unternehmen mit einem umfassenden Data-Governance-Konzept, um organisationsweit einheitliche Prozesse, Rollen, Richtlinien und Verantwortlichkeiten zu etablieren. In enger Zusammenarbeit mit dem Kunden legen wir fest, wer welche Daten in welchen Situationen und mit welchen Methoden nutzen kann.

Zugleich schaffen wir mit unseren bewährten Change-Management-Methoden die organisatorischen Voraussetzungen, damit ein Unternehmen seinen Datenschatz, das „Gold des 21. Jahrhunderts“, heben – und damit den Anschluss im internationalen Wettbewerb halten kann.

Maurice Schnitzler: Als SAP Gold Partner und mehrfach ausgezeichneter SAP Ariba Partner of the Year ist das apsolut-Beratungsteam für SAP-Anwenderunternehmen der richtige Ansprechpartner in Sachen MDM. Diese Kunden können wir dank unserer umfassenden SAP-Expertise effizient dabei unterstützen, ihre SAP- und Non-SAP-Stammdaten aus den unterschiedlichsten Datenbanken und Anwendungen zusammenzuführen und zu bereinigen – und damit von einer übergreifenden Datenstrategie zu profitieren.

Prinzipiell sollte erwähnt werden, dass apsolut einen starken Fokus auf die konzeptionelle MDM-Beratung von Kunden legt. Bei Bedarf bieten wir über die reine Strategie- und Prozessberatung hinaus auch Unterstützung bei der technologischen Umsetzung des MDM-Projekts an. Welche MDM-Plattform dafür in Frage kommt, hängt von den kundenindividuellen IT-System- und Prozesslandschaften und den speziellen Anforderungen ab. Da wir auf ein Ökosystem unterschiedlicher Technologien und Lösungen zurückgreifen, können wir jedem Kunden etwas anbieten, das für seine individuellen Bedürfnisse und aktuelle Situation passt. Denn nur auf dieser Grundlage ist es möglich, das Potenzial innovativer KI-Anwendungen als „Treibstoff“ für erfolgskritische Entscheidungen und zukunftsorientierte Geschäftsmodelle zu nutzen.

 

 

Über die Interviewpartner:

Maurice Schnitzler ist Principal Master Data Governance bei apsolut. Er verfügt über mehrjährige Erfahrungen im Mittelstand, wo er für einen Baustoffzulieferer und eine Brauerei für die Themen Stammdatenmanagement, Datenqualität, Informationsmodellierung und Change Management zuständig war. Weitere berufliche Stationen liegen in der Finanzbranche. Hier war Maurice Schnitzler für das größte Leasingunternehmen in Deutschland und für einen Versicherer als Data Governance Officer im Bereich Data Governance, Datenstrategie, Metadaten-Management und Schulungen tätig.

Christian Falke ist Partner SAP Architecture, Development and Integration bei apsolut. Er ist seit 16 Jahren als SAP-Berater tätig und für die strategische Planung und Umsetzung von Kundenprojekten, vor allem im Bereich Einkaufsprozesse und Supply Chain Management, zuständig. Ein weiterer Fokus liegt auf Lösungen zur Optimierung von Stammdatenprozessen in SAP. Christian Falke unterstützt die Geschäftsführung bei strategischen Entscheidungen und baut bei apsolut mit seinem Team das Beratungsangebot für das Stammdatenmanagement und die SAP BTP (Business Technology Platform) Services weiter aus.

 

https://www.ap-solut.com

 

Aufstieg der KI-Agenten

Daten als Basis für Innovationen

 

Stellen Sie sich eine Zukunft vor, in der Ihr Kundenservice rund um die Uhr arbeitet, auf jede einzelne Anfrage personalisierte Antworten gibt und aus jeder Interaktion lernt, um einen noch besseren Service zu bieten. Faszinierend, nicht wahr? Und ja, diese Zukunft ist bereits in der Mache und teilweise auch schon am Start. Im Silicon Valley werden gerade durch den Start-up-Accelerator Y-Combinator Milliardenbeträge in diverse generative AI-Agenten-Start-ups investiert. Es entstehen im Moment vom Kundendienstmitarbeiter über den Re­cruiter bis hin zum Software-Entwick­ler neue digitale Mitarbeitende, die keinen Urlaub brauchen und rund um die Uhr „am Schreibtisch sitzen“. AI-Agenten sind damit in der Lage, komplette Mitarbeiter zu ersetzen. Ob daran die EU im Kontext der aktuellen KI-Regulierungen des AI Act auch gedacht hat? Der AI Act schreibt z. B. vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Wir haben zwar das Recht auf die freie Berufswahl in der EU, aber nicht das Grundrecht auf Arbeit. In diesem Kontext rückt auch das „Ein-Personen-Start-up“ in greifbare Nähe.   Nach Sam Altmann, Vordenker bei OpenAI, könnte es mit KI gelingen, bald ein Ein-Personen-Einhorn zu schaffen. Uncle Sam glaubt das – und das Silicon Valley hat die Technologie für uns schon in der Schublade. Das wirbelt die Start-up-Welt ordentlich durcheinander. Wenn generative KI-Agenten, den Vertrieb, Softwareprogrammierung und Kundenservice des Gründers übernehmen, wird dieses Szenario wohl schnell zur Realität. Spätestens dann wird nicht mehr nur die technische Überlegenheit und Marktdurchdringung in der Softwarebranche für Neugeschäft sorgen, sondern auch der viel niedrigere Preis für Software, den KI-Technologien ermöglichen.  Milliardär und Investor Chamath Palihapitiya aus dem Silicon Valley startete vor kurzem seinen selbstfinanzierten Inkubator „8090“, der Start-ups für Unternehmenssoftware finanziert.  „Sagen Sie uns, welche Unternehmenssoftware Sie verwenden, und mein Team und ich erstellen Ihnen eine Version mit 80 % Funktionsumfang und 90 % Rabatt“, so Palihapitiya in einem Beitrag auf X. Anhand der aufgezeigten Beispiele erkennt man ganz gut, wie die neuen Technologien rund um KI und Machine Learning unsere Entwicklung in Zukunft beeinflussen werden – und wir stehen erst am Anfang der KI-Revolution.  Wer sich näher mit dem Thema Informationsnetzwerke und KI beschäftigen möchte, findet mit dem neuen Werk von Yuval Noah Harari eine aufschlussreiche Lektüre. Diesmal nimmt er uns mit auf eine Reise durch die evolutionäre Geschichte der Informationsnetzwerke, die er bis zur Gegenwart verfolgt und in die Welt der künstlichen Intelligenz projiziert. „Nexus“ erhebt den Anspruch, den Bogen von den frühesten mündlichen Überlieferungen bis hin zu den Algorithmen des digitalen Zeitalters zu spannen.

Zum Beispiel erlebt derzeit die Marketingbranche einen tiefgreifenden Wandel und steht vor einer unvermeidlichen Revolution. KI kann heute schon in Verbindung mit RPA (Robotic Process Automation) repetitive und zeitaufwendige Aufgaben automatisieren, wie z. B. die Segmentierung von Kundenlisten, das Schalten von Anzeigen oder das Senden von E-Mails. Diese Automatisierung spart nicht nur Zeit, sondern erhöht auch die Effizienz und Genauigkeit der Marketingaktivitäten. „Damit rückt das Thema Hyperpersonalisierung auch für KMU in greifbare Nähe.“, erklärte uns dazu Lorenz Beringer, CEO und Gründer von Lobeco. „Marketing 5.0 ist selbst für kleinere Unternehmen durch KI nicht länger eine Zukunftsvision. Durch personalisierte Marketingkampagnen und KI- Chatbots sowie automatisierte Content-Prozesse können wir mit innovativen Technologien unseren Kunden eine zielgruppenspezifische Ansprache ihrer Kunden ermöglichen.“ KI kann beispielsweise unstrukturierte Daten zu strukturierten machen, die maschinell auswertbar sind. Große Datenmengen können schnell und automatisch ausgewertet werden, um damit Experten und Sachverständige bei schwierigen Entscheidungen datenbasiert zu unterstützen. Aber wie werden nun aus gesammelten unstrukturierten und strukturierten Daten, zum Beispiel aus Datenseen (Data Lakes), Trainingsdaten als Grundlage für diverse KI-Anwendungen? Damit beschäftigt sich momentan das Forscherteam rund um Prof. Dr. Christoph Sturm von der DHBW Mosbach. Die Datenspezialisten haben eine künstliche Intelligenz entwickelt, die einerseits mehrere KIs in sich vereint und wiederum einer anderen KI zuarbeitet, sie unterrichten und für ihre spezifischen Aufgaben trainieren kann. Dazu muss die DHBW-KI erst diverse Dateitypen – Fotokopien, Sensordaten aus der Produktion, Bilder oder SAP-Tabellen – erkennen, sortieren und verschlagworten. Dazu erklärte Prof. Sturm: „In der Praxis stehen User vor dem Data-Discovery-Problem: Wie lassen sich Daten finden und auslesen? Wir haben uns in diesem Kontext auf Tabellendaten fokussiert und bieten eine technische, KI-basierte Lösung an, die das Katalogisieren ermöglicht.“

In Zeiten von KI wird es zudem immer wichtiger, Daten in Echtzeit zu analysieren – sobald sie eben vorliegen. Datenstreaming ermöglicht in diesem Kontext zum Beispiel, das Kundenerlebnis zu verbessern, Netzwerkausfälle zu verhindern oder wichtige Geschäftskennzahlen in Echtzeit zu aktualisieren. Eine passende Lösung dazu bietet Benjamin Buick von Xeotek mit KaDeck. Die Frankfurter Softwareschmiede unterstützt mit ihrem Data Streamhouse mithilfe von Data Streaming KI-Anwendungen in Echtzeit. „KI kann man als ein Gehirn verstehen: Ohne Echtzeitinformationen kann KI keine klugen oder relevanten Entscheidungen treffen. Statt die Umgebung durch Sinne wahrzunehmen, verlässt sich KI auf Echtzeitdaten. Auch bei der Integration der Ergebnisse ist das der Fall. KI profitiert also wie menschliche Mitarbeiter von einem einfachen Zugang zu Daten im Unternehmen, den ein Data Streamhouse ermöglicht“, erklärte Benjamin Buick im Gespräch mit unserer Redaktion. KaDeck ermöglicht ganzen Teams bestehend aus Entwicklern, Fachbereichen und Anwendungsbetrieb ganz einfach Entwicklung, Analyse und Betrieb von datengetriebenen Big-Data-Anwendungen mit Apache Kafka. KaDeck ist damit die Datenzentrale für Apache Kafka. Gute Daten waren schon immer die Grundlage und der Treibstoff für innovative Prozesse, aber im Zeitalter von KI nimmt deren Bedeutung deutlich zu. Nur wer seine Daten in entsprechender Qualität, harmonisiert und zentral verfügbar hält, wird auch in Zukunft technische Entwicklungen wie KI meistern und nutzen können.

„Höchste Zeit zu handeln!“, betonen in diesem Kontext Maurice Schnitzler, und Christian Falke, von der apsolut Group. Betriebe und Organisationen seien daher gut beraten, schleunigst ein zentrales Stammdatenmanagement (Master Data Management, MDM) zu etablieren. „Nur so können sie Durchblick gewinnen und die Voraussetzungen für modernes Wachstum schaffen – und gleichzeitig den Anschluss zum internationalen Wettbewerb halten“, betonte Maurice Schnitzler. Abschließend ergänzte Christian Falke: „Da die fachliche Zuständigkeit für die Daten bei den Teams in den Abteilungen liegt, müssen diese frühzeitig für die Wichtigkeit des Themas sensibilisiert und im Rahmen von Workshops in das MDM-Projekt eingebunden werden, Stichwort: ‚Change Management‘.“

 

https://trendreport.de/ki-im-handel-vertrieb/

https://trendreport.de/ki-automatisierung-2024/

Autor: Bernhard Haselbauer

 

KI-Transformation

Die Welt der künstlichen Intelligenz entwickelt sich rasant weiter und das Jahr 2025 steht bereits im Zeichen neuer Innovationen und Trends.

 

Haben Sie schon die KI-Bereitschaft Ihres Unternehmens getestet, um sich für die Zukunft zu wappnen? Experimente zu machen, ist sicherlich ein guter und agiler Weg, um sich dem Potenzial und den Möglichkeiten der neuen Technologien zu nähern. Dabei sollte an einen mitarbeiterzentrierten Ansatz beim Ausprobieren von KI gedacht werden. Generative KI-Tools wie z. B. ChatGPT sind vielseitige Werkzeuge, die sich für verschiedenste Aufgaben einsetzen lassen. Im Berufsalltag kann so schnell die Produktivität und Kreativität im Unternehmen gesteigert werden. Das innovative Tool kann von der Recherche und Aufbereitung von Informationen über Textgenerierung bis hin zu Korrekturlesen und Übersetzungen einiges an Arbeit übernehmen.

Auch Ihre IT-Abteilung profitiert davon, denn ChatGPT hat die Welt des Programmierens verändert, indem es sofortige Lösungen für Programmierprobleme bietet und diese für jeden zugänglich macht. Durch die Unterstützung von Programmierern bei der Erstellung von Codeschnipseln und die Bereitstellung von Tipps zur Optimierung verändert generative KI die Art und Weise, wie wir an die Programmierung herangehen. Wie dafür die richtigen Prompts gestrickt sein müssen und optimiert werden können, kann schnell gelernt werden. Aber auch alternative KI-Tools wie Google Gemini und Microsoft Copilot laden zum Erkunden ein und unter kizentrale.de, finden Sie viele KI-gestützte Anwendungen von der Bildbearbeitung bis hin zur Programmierung.  Vielleicht nutzen Ihre Mitarbeitenden ja schon diverse KI-Tools und Sie wissen es gar nicht? Neben den vielen Potenzialen birgt insbesondere das Preisgeben von Daten für ChatGPT neue Compliance-Risiken für Ihre Organisation.

„Organisationen müssen erkennen, dass KI-Tools wie ChatGPT ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“

In diesem Kontext erklärte Neil Thacker von Netskope: „Organisationen müssen erkennen, dass KI-Tools wie ChatGPT ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“ In seinem Gastbeitrag auf Seite zehn erläutert Neil Thacker, wie Unternehmen Transparenz und Kontrolle über SaaS-Anwendungen wie ChatGPT im gesamten Unternehmen erreichen können. Unternehmen, die z. B. ihr eigenes KI-Sprachmodell (Large Language Model, LLM) an den Start bringen möchten, sollten sich vorab mit der eigenen Infrastrukturanalyse beschäftigen. Es muss sichergestellt werden, dass die Anforderungen für KI-Implementierungen innerhalb des Unternehmens erfüllt sind. Hierbei werden Skalierbarkeit, Sicherheit und Datenzugriff berücksichtigt. Da KI-Projekte unterschiedliche Anforderungen an die Hardwarekapazitäten stellen, sollten die Rechenleistungen und der Rechenspeicher vorab geprüft werden. Eine sichere Netzwerkinfrastruktur mit hoher Zuverlässigkeit des Netzwerks ist eine weitere Grundlage, damit es klappt. Zum Beispiel müssen die Fragen – wo liegen Ihre Daten, sind die Daten strukturiert, wie kann auf die Daten zugegriffen werden? – beantwortet werden. Das Wichtigste für die erfolgreiche Integration von KI-Tools ist die passende Cloud-Infrastruktur. Bedenken sollte man vorab noch, dass Daten, die auf eigenen Servern gehostet werden, noch in die Cloud migriert werden müssen.

Aber wie gut sind aktuell die IT-Infrastrukturen auf die KI-Implementierung vorbereitet und vor welchen Problemen stehen Unternehmen? Laut der aktuellen Studie „Daten als Treiber der IT-Integration“ von Techconsult und Itaricon verfügen erst 16 Prozent der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur.  Sebastian Gottwald, Geschäftsführer von Itaricon, erklärte dazu: „Besonders die Themen Datenqualität und Integrierbarkeit der Systeme stellen große Herausforderungen dar. Interessant ist, dass Effizienzsteigerung und Prozessautomatisierung als Hauptgründe für den Einsatz von KI genannt werden, während Schulungen und fehlende technologische Grundlagen als die größten Hindernisse wahrgenommen werden. Unternehmen müssen hier strategisch ansetzen, um den Nutzen von KI voll auszuschöpfen. Der Ausbau einer transparenten und integrierbaren IT-Landschaft ist dabei der Schlüssel zum Erfolg.“ Die stetige Evolution der digitalen Transformation, fordert zudem Unternehmen dazu auf,  die neuen Technologie wie Blockchain, IoT, ML, VR/AR und KI für neue Geschäftsmodelle sinnvoll zu verknüpfen. Die Geschwindigkeit, in der Disruptionen unsere Wirtschaft und Gesellschaft verändern, nimmt immer weiter zu. Damit einhergehende digitale Trends bieten Unternehmen neue Chancen, um mit diesem rasanten Wandel Schritt zu halten und ihren eigenen Erfolg zu steigern. Zum Beispiel hat die Blockchain- bzw. Distributed-Ledger-Technologie das Potenzial, Machtverhältnisse zu verschieben. Banken und Finanzinstitute wären irgendwann obsolet. Unsere digitalisierte, globale Wirtschaft hat machtvolle Unternehmen hervorgebracht, welche Hoheit über Daten, Kundenzugriff oder Ökosystem-Plattformen haben. Viele dieser Machthaber könnten heute schon durch kleine Schnipsel Code ersetzt werden. Mit Blockchain und Smart Contracts können Intermediäre aus der Kette entnommen und Herstellungskosten verringert werden. Die Entwicklung der bisherigen Kryptowährungen zeigt dies recht eindrucksvoll. Einer der großen Vorteile einer Blockchain ist die Sicherheit der Technologie.

„Besonders die Themen Datenqualität und Integrierbarkeit der Systeme stellen große Herausforderungen dar.

Sicherheit für Verbraucher und Unternehmen beim Online-Banking vermisst man dennoch momentan.  Auch dieses Jahr werden wieder viele deutsche Bundesbürger und Unternehmen durch Social Engineering um Millionenbeträge erleichtert. Hilfe dagegen gibt es kaum. Schon beim Abbestellen eines Newsletters kann man sich unbemerkt durch Klicken auf den Link infizieren z. B. mit einem Exploit. Vertrauen in Digitalisierung und Transformation geht so in der Bevölkerung schnell verloren. Aber aktuelle Regulierungsvorhaben der Europäischen Kommission – die PSD3 (Payment Service Directive 3) und PSR (Payment Service Regulation) – sollen den digitalen Zahlungsverkehr verbraucherfreundlicher und sicherer machen. Vor allem der Betrugsbekämpfung durch Social Engineering wird dabei viel Platz eingeräumt. Dr. Ernst Stahl, Head of Payments bei NTT Data, erklärte uns dazu: „Die Digitalisierung hat die Finanzmärkte verändert. Die EU will diesem Wandel gerecht werden, indem sie die Auflagen verschärft und neue Risiken berücksichtigt. Generell hat sich die EU das Ziel gesetzt, die Sicherheit von Zahlungsvorgängen zu erhöhen, den Wettbewerb zu fördern und den Zahlungsverkehr innerhalb des Europäischen Wirtschaftsraums zu harmonisieren. Besonderes Augenmerk wird dabei auf den Verbraucherschutz und das Verbrauchererlebnis gelegt. Die Eindämmung von Betrugsrisiken, die mit dem technologischen Fortschritt einhergehen, und der sichere Datenaustausch, um von einem erweiterten Dienstleistungsangebot profitieren zu können, stehen daher im Mittelpunkt.“ Wie die PSR und PSD3 genau funktionieren erklärt Dr. Ernst Stahl auf trendreport.de. Immer mehr Cyberangriffe schwächen, irritieren und behindern die deutsche Wirtschaft. Der Bund scheint machtlos zu sein. Die digitale Transformation verliert an Tempo und Vertrauen. Cyberversicherungen haben noch nie so hohe Schadenssummen zu verbuchen gehabt und dazu stehen den kriminellen Angreifern aus China auch noch modernste KI-Technologien zur Verfügung. Beim Thema Cybercrime hat sich die neue Technologie schon bestens etabliert, leider im Mittelstand noch nicht. Laut der aktuellen Bitkom-Studie „Wirtschaftsschutz 2024“ sind acht von zehn Unternehmen von Datendiebstahl, Spionage oder Sabotage betroffen. Ein Rekordschaden von rund 178,6 Milliarden Euro ist dabei entstanden und durch Cyberangriffe fühlen sich zwei Drittel der Unternehmen in ihrer Existenz bedroht. Keine Schwarzmalerei, nur Fakten durch Zahlen!  Der Schaden beläuft sich auf fast die Hälfte des Bundeshaushaltes. Dazu betonte im Gespräch mit unserer Redaktion Alpha B. Barry, CEO der Secida AG: „Cybersicherheit ist Managementaufgabe. Optimal dafür ist eine hybride IT-Infrastruktur, in der cloudbasierte und on-premises Technologien integriert, und aktuelle Sicherheitsanforderungen abgedeckt werden.“ Laut Barry ist Security by Design ein guter Ansatz: „Strukturen müssen dabei unter Berücksichtigung von Cybersicherheit entwickelt werden.“

„Strukturen müssen dabei unter Berücksichtigung von Cybersicherheit entwickelt werden.“

Mit KI und Machine Learning sowie Sensorik werden aktuell Unternehmen in die Lage versetzt, die Arbeitsleistung und Belastungen ihrer Mitarbeitenden im Dienstleistungssektor zu analysieren. Dazu ging die MTM Association in einem aktuellen Projekt der Frage nach: Wie können vorhandene Methoden zur Bewertung menschlicher Arbeit in den Dienstleistungsbereich übertragen und eine arbeitswissenschaftliche Grundlage für Vorgabeleistungen und Belastungsobergrenzen geschaffen werden? In dem Projekt werden die Anforderungen typischer Tätigkeiten bzw. Prozesselemente der Paket- und Verbundzustellung identifiziert und bewertet. Dazu wurden über Bewegungssensoren IST-Daten aufgenommen und anschließend mit Machine Learning ausgewertet. Diese Ergebnisse werden dann mit der MTM-Normleistung in Verbindung gebracht bzw. kombiniert. Weitere Erkenntnisse dazu, wurden auf der diesjährigen Veranstaltung „LeanAroundTheClock“ von Prof. Dr. Peter Kuhlang, CEO  der MTM Association e. V., und Dr.-Ing. Sascha Feldhorst von MotionMiners, vorgestellt.

Die deutsche Wirtschaft nimmt bei künstlicher Intelligenz Fahrt auf. Erstmals beschäftigt sich mehr als die Hälfte (57 %) der Unternehmen mit KI, das berichtete der Bitkom in seiner aktuellen Untersuchung vom 16. Oktober 2025. Zugleich fordern sieben von zehn Unternehmen (71 %), dass die Politik deutsche Anbieter von generativer KI stärker fördern sollte. 72 % sind der Meinung, dass die Politik in Rechenzentren für KI investieren sollte, um Einsatz und Entwicklung von KI in Europa voranzubringen. Ohne Rechenzentren und Cloud-Computing hat KI nur wenig Potenzial. Technologisch stellt z. B. Cloud-Computing einen Paradigmenwechsel in der Bereitstellung der IT-Infrastruktur dar und eröffnet so Flexibilität und Skalierbarkeit für KI-Anwendungen. Doch Unternehmen sollten vorsichtig und überlegt agieren. Mehr als jedes dritte Unternehmen in Deutschland sucht inzwischen Cloud-Lösungen aus Deutschland oder Europa, um seine Daten in sicheren Händen zu wissen – Tendenz steigend. Dazu erklärte uns Walter Wolf, Vorstand von Schwarz Digits: „Wir bieten mit unseren Partnern souveräne Alternativen. Beispielsweise hosten wir ServiceNow auf unserer Stackit Cloud. Mit Wire on Stackit liefern wir neue Standards für sichere und souveräne Kommunikation. Im Oktober 2024 haben wir unsere Partnerschaft mit SAP vertieft, sodass Kunden RISE with SAP ab sofort auf Stackit nutzen können. Das macht für uns wahre Souveränität aus.“  Datensouveräne Clouds setzen außerdem, wann immer möglich, auf Open Source, Transparenz und Sicherheit. So werden Nutzer unabhängiger und können au-tark handeln, ohne in einem Vendor Lock-in „gefangen“ zu sein.

 

Autor: Bernhard Haselbauer

 

Komplexe IT-Landschaften für KI gestalten

Die Redaktion im Gespräch mit Sebastian Gottwald, Geschäftsführer, ITARICON GmbH über Integrationsstrategie und moderne Datenarchitekturen für den Einsatz von KI-Technologien.

 

Sebastian Gottwald, verdeutlicht: „Viele Unternehmen stehen vor der Herausforderung, ihre Systeme und Prozesse an die sich schnell ändernden Markt- und Gesellschaftsbedingungen anzupassen.“

 

Herr Gottwald, wie gut sind die IT-Infrastrukturen der Unternehmen auf die KI-Implementierung vorbereitet und vor welchen Herausforderungen stehen Unternehmen?

Die Vorbereitungen variieren stark. Große Unternehmen sind oft gut auf KI vorbereitet, da sie eine transparente, standardisierte IT-Architektur und integrierte Geschäftsprozesse etabliert haben. Sie können ihre Daten effizient nutzen und zukunftssichere Schnittstellen einsetzen. Kleinere und mittlere Unternehmen kämpfen hingegen häufig mit historisch gewachsenen, veralteten IT-Landschaften. Sie sind oft durch Insellösungen und manuelle Prozesse geprägt, was zu Medienbrüchen und geringer Transparenz führt.
Die größten Herausforderungen bestehen darin, eine hohe Datenqualität sowie eine zukunftssichere, langfristig erweiterbare und wartbare Integration von Systemen, Anwendungen und Daten zu ermöglichen sowie eine skalierbare und sichere IT-Infrastruktur zu schaffen. Darüber hinaus fehlt oft das Fachwissen, um KI effizient zu implementieren und zu betreiben.

 

Sebastian Gottwald, Geschäftsführer, ITARICON GmbH betont: „Unsere Studie zeigt, dass nur 16 % der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur verfügen. Große Unternehmen sind hier führend, während viele Unternehmen noch in der Planungs- oder frühen Implementierungsphase stehen.“

 

Welche Erkenntnisse förderte in diesem Kontext Ihre aktuelle Studie zutage?

Unsere Studie zeigt, dass nur 16 % der Unternehmen über eine vollständig KI-bereite IT-Infrastruktur verfügen. Große Unternehmen sind hier führend, während viele Unternehmen noch in der Planungs- oder frühen Implementierungsphase stehen. Besonders die Themen Datenqualität und die Integrierbarkeit der Systeme stellen große Herausforderungen dar. Interessant ist, dass Effizienzsteigerung und Prozessautomatisierung als Hauptgründe für den Einsatz von KI genannt werden, während Schulungen und fehlende technologische Grundlagen als die größten Hindernisse wahrgenommen werden. Unternehmen müssen hier strategisch ansetzen, um den Nutzen von KI voll auszuschöpfen. Der Ausbau einer transparenten und integrierbaren IT-Landschaft ist dabei der Schlüssel zum Erfolg.

Welche Expertise in Integrations- und IT-Architekturberatung bringen Sie mit?

ITARICON steht seit über 18 Jahren für IT-Architektur und Integrationsberatung. Unsere Expertise erstreckt sich über die Entwicklung, Weiterentwicklung und den Betrieb von komplexen IT-Landschaften, die durch SAP- und IBM-Technologien geprägt sind. Ohne Integration gibt es keinen Fortschritt – das ist unser Leitsatz. Unsere Solution Architects analysieren bestehende IT-Landschaften, schaffen Transparenz und entwickeln eine maßgeschneiderte Integrationsstrategie, die eine effiziente Einbindung der Systeme sicherstellt. Parallel dazu übernehmen unsere Integrationsspezialisten die technische Umsetzung, den Betrieb und die Weiterentwicklung der Schnittstellen. Die Enterprise Architects begleiten die langfristige strategische Weiterentwicklung der IT-Landschaft im Rahmen des Enterprise Architecture Managements (EAM) und sorgen für eine zukunftssichere Ausrichtung der Systeme.

Wie unterstützen Sie Unternehmen bei der digitalen Transformation, insbesondere im Hinblick auf die Migration auf S/4HANA?

Die Migration auf S/4HANA ist ein wesentlicher Schritt in der digitalen Transformation, der umfassende Planung erfordert. ITARICON unterstützt Unternehmen dabei, bestehende Geschäftsprozesse frühzeitig auf Standardlösungen anzupassen und mögliche Komplexitäten zu reduzieren. Ein besonderer Fokus liegt auf der Datenmigration, da viele Unternehmen über Jahre hinweg gewachsene, oft fehlerhafte oder fragmentierte Datenstrukturen haben. Diese müssen bereinigt und harmonisiert werden, um Verzögerungen und Risiken zu vermeiden. Ebenso wichtig sind eine klare Integrationsstrategie und frühzeitige Planung der Schnittstellen, um sicherzustellen, dass Altsysteme und neue Lösungen nahtlos ineinandergreifen. Darüber hinaus sollten Sicherheit, Compliance und Change-Management zentral in den Migrationsprozess eingebunden werden, um den Übergang erfolgreich zu gestalten.

Wie begegnet ITARICON den Herausforderungen des Fachkräftemangels, insbesondere in Zeiten des rasanten digitalen Wandels?

Der digitale Wandel verändert die Spielregeln in der Wirtschaft. Unternehmen, die diesen Wandel nicht rechtzeitig für sich nutzen, riskieren wertvolle Wettbewerbsvorteile. Der Beratungsbedarf ist daher hoch. Die Herausforderungen der Digitalisierung lassen sich jedoch nur mit den richtigen Talenten meistern. ITARICON setzt auf eine moderne Unternehmenskultur, welche persönliche Weiterentwicklung, Flexibilität und Innovation fördert. Sie basiert auf Wertschätzung, flachen Hierarchien und konstruktiver Zusammenarbeit. Wir fördern die
Eigenverantwortung und bieten flexible Arbeitsmodelle und hybride Arbeitsformen. Mit einer separaten Personalentwicklungsstelle und einem Feelgood-Manager stellen wir die Persönlichkeit in den Mittelpunkt, um ein Umfeld zu schaffen, in dem sich unsere Mitarbeitenden aktiv einbringen und den digitalen Wandel mitgestalten können.

Welche Möglichkeiten bietet die SAP Integration Suite, um verteilte IT-Landschaften zusammenzuführen?

Die SAP Integration Suite bietet eine Vielzahl von Werkzeugen und Diensten, um verteilte IT-Landschaften effizient zu integrieren. Sie ermöglicht die nahtlose Verbindung von On-Premise- und Cloud-Systemen sowie Drittanwendungen und stellt sicher, dass Geschäftsprozesse über verschiedene Technologien hinweg abgebildet werden können. Vor allem in hybriden IT-Umgebungen wird dies immer wichtiger. Dank vorgefertigter Integrationsinhalte, APIs und einer ereignisgesteuerten Integration lassen sich Prozesse automatisieren und Geschäftsabläufe optimieren. Auch für Nicht-Entwickler bieten Low-Code- und No-Code-Lösungen die Möglichkeit,
schnell Integrationen umzusetzen. Sicherheits-, Governance- und Monitoring- Funktionen sorgen dafür, dass der Betrieb zuverlässig und sicher bleibt.

Wie unterstützen und sensibilisieren Sie das Management sowie die IT-Abteilung dabei?

Einer Einführung der SAP Integration Suite liegt meist eine strategische Entscheidung zugrunde, basierend auf dem Bedarf der zu integrierenden Komponenten im IT-Ökosystem oder einer umfassenden Integrationsstrategie, die an der Unternehmens- und IT-Strategie ausgerichtet ist. Management und IT-Abteilung sind dabei eng eingebunden. Das Management erwartet klare Einblicke, wie die Integration strategische Geschäftsziele und den ROI unterstützt. Durch nachvollziehbare Business Cases und schnell umsetzbare Integrationsszenarien zeigen wir erste betriebswirtschaftliche Erfolge. Die IT-Abteilung spielt eine zentrale Rolle bei der Umsetzung und dem Betrieb. Gemeinsam erarbeiten wir die Integrationsstrategie und setzen diese mit Best Practices, Blueprints und Schulungen um, um den langfristigen Erfolg
sicherzustellen.

Welchen Beratungsbedarf machen Sie momentan in Ihren Geschäfts- und Kompetenzfeldern aus?

Viele Unternehmen stehen vor der Herausforderung, ihre Systeme und Prozesse an die sich schnell ändernden Markt- und Gesellschaftsbedingungen anzupassen. Sie müssen ihre Effizienz und Anpassungsfähigkeit steigern, um wettbewerbsfähig zu
bleiben und ihre Marktposition auszubauen. Digitalisierung und Automatisierung sind dabei zentrale Schlagwörter. Wir beobachten einen wachsenden Bedarf an Expertise in den Bereichen Datenanalyse und Künstliche Intelligenz. Unternehmen möchten zunehmend datengetrieben arbeiten. Hierbei unterstützen wir sie bei der Implementierung neuer Technologien und der Entwicklung einer nachhaltigen Strategie, um langfristigen wirtschaftlichen Erfolg zu sichern. Schulungen und Weiterbildungen der Mitarbeiter sind entscheidend, damit Teams neue Technologien und Prozesse effektiv nutzen können. Wir bieten maßgeschneiderte Workshops und Trainings, um die Kompetenzen unserer Kunden zu stärken und sie auf ihrer digitalen Reise optimal zu begleiten.

Welche Aufgaben und Beratungsleistungen übernehmen Sie als langjährige Middelware-Experten für Unternehmen?

Wir unterstützen Unternehmen umfassend bei der Systemintegration. Dazu gehört die Entwicklung und Implementierung von Schnittstellen, die für einen reibungslosen Datenaustausch zwischen verschiedenen Systemen sorgen. Unsere Aufgaben umfassen auch den Betrieb und Support der Middleware, einschließlich der Überwachung, Störungsbehebung und regelmäßigen Wartung. Darüber hinaus beraten wir zur Architekturplanung, um sicherzustellen, dass die Middleware-Lösungen skalierbar und zukunftssicher sind. Unsere Expertise in der Performance-Optimierung und Sicherheitsberatung hilft unseren Kunden, ihre Systeme effizient und sicher zu betreiben. Wir bieten außerdem Schulungen und begleiten die Auswahl der richtigen Technologien sowie die Durchführung von
Middleware-Projekten.

Sie wurden jüngst als einer der fünf beliebtesten Arbeitgeber in Dresden ausgezeichnet, was bedeutet es in diesem Kontext bei ITARICON zu arbeiten?

Bei uns zu arbeiten bedeutet, Teil einer wertschätzenden und dynamischen Community zu sein. Dies zeigt sich z.B. im persönlichen Miteinander, in der Entwicklung neuer Leistungsfelder und der Entwicklung ITARICONS selbst. Wir bieten ein Umfeld, in dem jeder wachsen und seiner Leidenschaft nachgehen kann, Menschen zu inspirieren und zu beraten. Dazu bieten wir Softskill-Workshops, fachliche Zertifizierungen, Mentoring- Programme, ein Nachwuchsführungskräfteprogramm sowie speziellen Leadership- Workshops an. Natürlich setzen auch wir auf flexible Arbeitsmodelle, Gesundheitsangebote und eine Unterstützung bei der Altersvorsorge. Wer bei ITARICON arbeitet, erlebt nicht nur spannende Projekte, sondern auch eine Kultur des Miteinanders, die den individuellen Erfolg fördert und gemeinsam auf die Weiterentwicklung des Unternehmens hinarbeitet.

 

Direkt zur KI-Studie von ITARICON:  https://itari.co/kistudie

Data Streamhouse – IT im Flow

Benjamin Buick, Geschäftsführer von Xeotek, erklärt im Gespräch, wie ein Data Streamhouse mithilfe von Data Streaming komplexe IT wieder in den Flow bringt und echten Business Value schafft.

 

Herr Buick, was beschäftigt IT-Manager?  

Der Flow. Fast schon axiomatisch galt lange die Auffassung, dass mehr Daten und fortschrittlichere Technologien zwangsläufig größere Flexibilität und Handlungsfähigkeit im Markt garantieren. Doch die Realität sieht für viele Manager anders aus: Datensysteme sind schwerfällig, IT-Projekte äußerst komplex und häufig fehlen Ressourcen. Vollautomatisierte Prozesse, die reibungslos ineinandergreifen und flexibel erweitert werden können, sind für viele nur Wunschvorstellungen. Daher müssen Unternehmen zurück in ihren Flow finden.

 

Benjamin Buick verdeutlicht: „Die in der Softwarebranche vorherrschende Meinung, jedes Unternehmen muss ein Softwareunternehmen werden, halte ich für falsch. Unternehmen müssen zurück in ihren Flow und benötigen Lösungen, die echten Business Value bringen und befähigen.“

 

Unternehmen müssen zurück in ihren Flow – können Sie dies erläutern?

Im Flow zu sein bedeutet, dass man tief in einen Schaffungsprozess eingebunden ist. Es gibt keine Hindernisse und die Arbeit geht leicht von der Hand. Dies ist ein Zustand höchster Effizienz. So müssen Sie sich dies für das ganze Unternehmen vorstellen: Jeder Prozess, jeder Schritt ist eingebunden, effizient und zugänglich – dann ist ihr ganzes Unternehmen im Flow. Ein Data Streamhouse macht dies möglich.

Welche Vorteile bietet ein Data Streamhouse?

Durch Daten im Fluss, also Data Streaming, können viele Informationen in Echtzeit verarbeitet und zusammengeführt werden. So kann ich bessere Entscheidungen in kürzerer Zeit treffen, neue Prozesse umsetzen oder bestehende optimieren. Heute werden Daten in Lager gebracht. Sie geraten in Vergessenheit, nicht jeder hat Zugriff oder weiß, ob und wo die Daten überhaupt existieren. Dadurch entstehen „Lagerkosten“ und Verzögerungen, die Arbeit gerät ins Stocken. Viele Daten schaffen es gar nicht erst ins Lager. Bleiben Informationen stattdessen im Fluss, der das gesamte Unternehmen durchzieht, ist das wie ein perfekt geöltes Fließband. Jeder Arbeitsschritt und jedes Zwischenprodukt ist sichtbar und zugänglich. Diese Transparenz und Zugänglichkeit sind die größten Vorteile. Es geht also um weit mehr als Prozessautomatisierung und Echtzeitentscheidungen. Es geht darum, Datensilos aufzubrechen und das Unternehmen in einen Flow-Zustand zu versetzen. Das ist eine wirklich grundlegende und spürbare Veränderung für die ganze Organisation.

Wie schaffen Sie diese Datenzugänglichkeit?


Entscheidend für die Zugänglichkeit ist, dass die typisch hohe Komplexität dramatisch abnimmt. Sowohl der Zugriff auf Daten als auch die Datenprozessierung erfordern in heutigen IT-Systemen viel technische Expertise, häufig im Rahmen eines Projekts. Mit einem Data Streamhouse ist der Zugriff auf Daten, die sich im Fluss zwischen Systemen befinden, und normalerweise gar nicht sichtbar wären, so einfach wie das Öffnen einer Excel-Tabelle. Und Sie können sofort mit diesen Daten weitere Systeme verknüpfen, Prozesse erstellen und sogar experimentieren. Um dies möglich zu machen, haben wir die erfolgreichen Konzepte des Cloud Data Warehouse genommen und sie auf Data Streaming angewandt. Da wir unser System von Grund auf für Data Streaming, d. h. genau für diese Daten im Fluss, entwickelt haben, mussten wir komplett neue technischen Wege gehen. Ein Data Streamhouse macht aber nicht nur den Zugriff und die Arbeit mit Daten im Fluss einfach, sondern auch sicher. Ein wesentlicher Bestandteil ist ein vollständig integrierter Governance-Layer, der den Zugriff auf Personen-, Rollen- oder Teamebene steuert und auch Auskunft über Ansprechpartner bei Fragen zu Daten gibt. Wie so häufig im Leben, ist Organisation entscheidend, um den Überblick zu behalten.

Möchten Sie also Datenbanken abschaffen? 

Nein, ganz im Gegenteil: Die beiden Ansätze ergänzen sich. Der Fokus des Data Warehouse liegt auf der Speicherung der fertigen Ergebnisse. Der Bereich, der bisher wenig Beachtung bekommen hat, allerdings hohe Kosten verursacht und als Blockade wahrgenommen wird, ist ein anderer: die Datenprozessierung. Das Data Streamhouse legt daher den Fokus auf den Fluss der Daten, d. h. auf die Datenprozessierung mit ihren Zwischenschritten.

Wie sehen Sie AI in diesem Kontext?

AI kann man als ein Gehirn verstehen: Ohne Echtzeitinformationen kann AI keine klugen oder relevanten Entscheidungen treffen. Statt die Umgebung durch Sinne wahrzunehmen, verlässt sich AI auf Echtzeitdaten. Auch bei der Integration der Ergebnisse ist das der Fall. AI profitiert also wie menschliche Mitarbeiter von einem einfachen Zugang zu Daten im Unternehmen, den ein Data Streamhouse ermöglicht.

Profitieren alle Unternehmen von einem Data Streamhouse?

Natürlich gibt es Unternehmen, die schneller profitieren als andere. Dennoch lohnt sich ein Blick für alle Branchen. Einen echten Mehrwert für das Unternehmen aus den eigenen Daten und Prozessen zu schaffen, eben in den Flow-Zustand zu kommen, ist für alle relevant. Daher halte ich die vorherrschende Meinung in der Softwarebranche für falsch, dass jedes Unternehmen ein Softwareunternehmen werden muss. Stattdessen sehe ich uns in der Pflicht, Lösungen, wie das Data Streamhouse zu schaffen, damit Unternehmen sich auf ihre Kernkompetenzen und ihre Businesslogik konzentrieren können. Typische Standardsoftware ist leider für die strategischen Prozesse zu unflexibel.

Wie unterscheidet sich das Data Streamhouse von Standardsoftware?

Wir fokussieren uns auf einen anderen Bereich im Unternehmen. In Unternehmen gibt es Standardprozesse, die sich oft nur geringfügig zwischen verschiedenen Unternehmen unterscheiden und daher sehr gut mit Standardsoftware abgebildet werden können. Hier gibt es bereits viele Lösungen, die sehr erfolgreich sind. Darüber hinaus gibt es jedoch Software, die von strategischer Bedeutung für ein Unternehmen ist und den Wettbewerbsvorteil sichert. Bei dieser strategischen Software, die oft maßgeschneidert oder selbst entwickelt ist, setzen wir an. Hier geht es um sehr datenbezogene Prozesse, wodurch eine Lösung wie das Data Streamhouse den größten Vorteil für Kunden bringt. Häufig sind es Stakeholder aus den Fachbereichen oder die IT selbst, die in die Lage versetzt werden möchten, diese Prozesse schneller und einfacher umzusetzen. Somit profitiert das gesamte Unternehmen von der Datenzugänglichkeit, der Flexibilität und den kurzen Entwicklungszeiten. Wir können die Time-to-Market auf einen Bruchteil der Zeit verkürzen. Das ist für viele ein einschneidendes Aha-Erlebnis. Damit lassen sich wettbewerbsentscheidende Prozesse in kürzerer Zeit als bei der Konkurrenz aufbauen oder optimieren.

www.kadeck.com/

„Cybersicherheit ist Managementaufgabe“

Die Redaktion im Gespräch mit Alpha B. Barry, CEO der secida AG, über die optimale IT-Infrastrukturbasis für Digitalisierungsprojekte und den Schutz vor Cyberattacken.

Herr Barry, wie funktioniert aus Ihrer Sicht sichere Digitalisierung?

Digitalisierungsprojekte im Unternehmen müssen effizient und effektiv umgesetzt werden können. Den Projektverantwortlichen geht es darum, dass das Unternehmen kurzfristig neue digitale Arbeitsprozesse und Kundenlösungen bereitstellen kann. Die Basis dafür ist eine Infrastrukturplattform, die heutige Digitalisierungsanforderungen erfüllt. Optimal dafür ist eine hybride IT-Infrastruktur, in der cloud-basierte und on-premises Technologien integriert und aktuelle Sicherheitsanforderungen abgedeckt werden.

Wie sieht eine optimale Infrastrukturbasis für sichere Digitalisierung aus?

Viele Unternehmen haben eine gewachsene IT-Infrastruktur mit Rechenzentrum und IT-Betrieb. Parallel gibt es meistens cloudbasierte Anwendungen wie z. B. Office 365 oder ERP- und CRM-Lösungen. Erfolgreiche Digitalisierungsprojekte benötigen eine stabile IT-Infrastukturplattform, in der alles reibungslos und verlässlich miteinander interagiert. Neue Anwendungen können so einfach integriert werden. Gleichzeitig müssen Unternehmen notwendige Skills bei den Mitarbeitenden aufbauen.

Alpha Barry erklärt: „Ein guter Ansatz für Cybersicherheit ist Security by Design.“

 

Wie können sich Unternehmen effektiv gegen Cyberattacken absichern?

Die technische Seite der Cybersicherheit muss beim Aufsetzen von Systemen und IT-Betrieb mitberücksichtigt und Prozesse entsprechend gedacht werden. Update- und Patchmanagement, regelmäßige Back-ups, Zugriffsrechte etc., besonders im Bereich IT-Administration, müssen bedacht sein.  Eine enge Zusammenarbeit zwischen IT-Betrieb und Sicherheitsmanagement ist notwendig. Zusätzlich müssen die Prozesse für Monitoring und die Reaktion auf Bedrohungsszenarien immer sichergestellt werden.

 

Welchen Anteil haben moderne Ansätze der Cybersicherheit an der Absicherung?

Ein guter Ansatz ist Security by Design: Strukturen müssen unter Berücksichtigung von Cybersicherheit entwickelt werden. Zugriffsprozesse müssen inklusive Legitimierung von Anmeldeinformationen, Absicherung der Anmeldevorgänge und umfassender Verschlüsselung der Daten so gestaltet werden, dass Sie Angreifern die Nutzung gestohlener Daten erschweren (Zero Trust). KI kann helfen, „einfache“ Angriffe hochautomatisiert zu identifizieren und abzuwehren und das Risiko durch Automatisierung mitigieren.

Inwieweit hat sich die Angreifer-Struktur durch die neuen Technologien verändert?

Die Cyberkriminellen haben sich in den letzten Jahren weiter professionalisiert. Im Darknet werden die unterschiedlichen Dienstleistungen, die z.B. für einen erfolgreichen Phishingangriff notwendig sind, jeweils von Gruppen angeboten, die auf diese spezifische Teildienstleistung spezialisiert sind. Die Spezialisierung und der durch sie entstehende Wettbewerb führen dazu, dass gephishte User-Credentials bzw. effektive Mailingtools für Ransomware-Attacks und die zugehörigen Verschlüsselungs-Algorithmen inzwischen sehr kostengünstig zu haben sind. Das wiederum vergrößert den Pool der „Opfer“: denn heute wäre es sogar schon lukrativ, den PC eines Schweizer Milchbauern für ein Lösegeld von ca. 5.000 Euro zu verschlüsseln. Durch technologische Entwicklungen wie KI bzw. Large Language Models ist es außerdem auch Nicht-Muttersprachlern möglich, Emails und Nachrichten zu erstellen, die keine offensichtlichen Fehler mehr enthalten. Video- oder Tonsimulationen unterstützen dabei, Mitarbeitende von Unternehmen aller Ebenen dazu zu bringen, Cyberkriminellen Tore in das Unternehmen zu öffnen. Es gab schon erste Fälle von gefälschten Videokonferenzen, mit denen das Opfer dazu gebracht wurde, hohe Geldsummen an die Kriminellen zu überweisen.

Wie weit geht das aktuelle Verständnis von Management und Entscheidern in diesem Kontext?

Leider reicht das aktuelle Verständnis von Management und Entscheidern häufig noch nicht an das notwendige Niveau heran. Es ist noch nicht in allen Geschäftsführungsebenen angekommen, dass Cybersicherheit heute Alltagskriminalität darstellt, und dringend in das generelle Risikomanagement einbezogen werden sollte. Es ist für Unternehmen notwendig, die wichtigsten Systeme in der IT zu identifizieren und sie besonders gut gegen Cyberangriffe abzusichern. Allerdings kann nicht von der IT erwartet werden, diese wichtigen Systeme ohne eine enge Zusammenarbeit mit den jeweiligen Abteilungen überhaupt identifizieren zu können. Der entsprechende Prozess muss vom Management initiiert und begleitet werden. Nur wenn sämtlichen Beteiligten klar ist, dass eine effektive Absicherung der IT nur ganzheitlich passieren kann, ist eine gute Umsetzung von Cybersicherheits-Maßnahmen möglich.

Was raten Sie Geschäftsführern und Executives, die nicht wissen, wie das Unternehmen derzeit in Sachen Cybersicherheit aufgestellt ist?

Sprechen Sie mit ihrem Team. Stellen Sie Fragen! Was ist aktuell das größte Cybersicherheits-Risiko im Unternehmen? Gibt es aktuell eine Liste betriebskritischer Systeme? Wie werden diese geschützt? Welche Cybersicherheits-Maßnahmen sind aktuell in Anwendung? Im Dialog mit ihrer IT bzw. mit den Abteilungsleitern wird es Ihnen möglich sein, gemeinsam aktuelle Lücken bzw. notwendige Maßnahmen für Ihr Unternehmen zu identifizieren. Sollten Sie feststellen, dass Expertise fehlt, ist es möglich diese Lücke durch externe Beratung zu füllen. Wenn es darum geht, Sicherheitslücken in der IT-Infrastruktur zu identifizieren, können preisgünstige technologische Lösungen zur Entdeckung genutzt werden. Damit erhält das Unternehmen einen ersten Anhaltspunkt für erforderliche Maßnahmen.

Was raten Sie den vielen KMU, um die größten Risiken zu vermeiden?

Für viele KMU ist es noch schwieriger als für größere Unternehmen, Cyberrisiken zu managen. Oft gibt es in kleinen Unternehmen nämlich niemand, der Kenntnisse in Cybersicherheit hat. Die eigene IT-Abteilung besteht nur aus 1-2 Personen, die sich hauptsächlich mit Administration und Benutzer-Support beschäftigen. Professionelle Unterstützung durch externe Cybersicherheits-Dienstleister ist für KMU meist nicht finanzierbar. Trotzdem müssen sich auch KMU mit Cybersicherheit auseinandersetzen. Ausgangspunkt können entsprechende staatliche Web-Angebote sein. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet ein umfangreiches Web-Angebot, das auch für Laien recht gut geeignet ist. Hinzu kommen Angebote der Länder, die sich speziell an KMU richten; hier in Nordrhein-Westfalen zum Beispiel die vom Wirtschaftsministerium finanzierte Initiative digital.sicher.NRW. Die in solchen Angeboten empfohlenen Vorgehensweisen sollten KMU prüfen und umsetzen. Ein weiterer wichtiger Ansprechpartner ist der IT-Dienstleister des Unternehmens. KMU, die IT-Dienstleistungen am Markt einkaufen, sollten unbedingt darauf achten, dass der Dienstleister eine gute Reputation in Bezug auf Cybersicherheit hat. Auch wenn dieser Dienstleister vielleicht etwas teurer ist – Sicherheit gibt es eben nicht zum Nulltarif.

www.secida.com/sichere-digitalisierung

 

Der Arbeitsplaner der Zukunft drückt nur noch auf den Knopf

Arbeitswissenschaftler und Industrial- Engineering-Experte Prof. Dr. Peter Kuhlang, CEO MTM ASSOCIATION e. V., erklärt, wie digitale Technologien, künstliche Intelligenz und der Methodenstandard MTM (Methods-Time Measurement) bei der Gestaltung menschlicher Arbeit ineinandergreifen.

Prozesse und Wertströme effizient und ergonomiegerecht gestalten, Engpässe in Produktion und Logistik identifizieren, Belastungen am Arbeitsplatz reduzieren, Arbeitsinhalte beschreiben und bewerten, Auswirkungen von Verbesserungsideen kalkulieren – und das alles schon in der Planungsphase! Das funktioniert besonders gut mit MTM (Methods-Time Measurement), der Standardmethode des Industrial Engineering.

 

Prof. Dr. Peter Kuhlang: „Für jegliche Produktivitätssteigerung ist und bleibt Zeit die zentrale Steuergröße.“

 

MTM hat seinen Ursprung in den USA der 1940er-Jahre. Arbeitswissenschaftler arrangierten das Inventar an Bewegungselementen, aus denen manuelle Tätigkeiten zusammengesetzt sind, zu Grundbewegungen. Für jede dieser Grundbewegungen wurde ein wissenschaftlich gesicherter und genormter Zeitwert ermittelt und in der heute noch gültigen MTM-1-Normzeitwertkarte – quasi das arbeitswissenschaftliche Pendant zum Urmeter – zusammengeführt. Auf dieser Grundlage war es nun möglich, Arbeitsprozesse überall auf der Welt in nahezu allen Branchen mit einer einheitlichen, reproduzierbaren Sprache – der MTM-Prozesssprache – zu beschreiben, zu planen und zu gestalten.

1940er-Jahre? Das ist in der Tat weit weg von Industrie 4.0, digitalen Technologien und künstlicher Intelligenz. Doch MTM macht den Brückenschlag zwischen realer Arbeitswelt und digitaler Planungswelt überhaupt erst möglich. Die Herausforderung besteht darin, die mit Technologien wie Human Simulation, Motion Capture oder VR/AR-Systemen generierten und mithilfe von KI aufbereiteten digitalen Bewegungsdaten in valide, nachvollziehbare und menschengerechte Zeit- und Ergonomiedaten für die Arbeitsplanung zu überführen. Das MTM-Institut und der MTM-Geschäftsbereich „Digitale Lösungen“ haben dafür die Schnittstelle MTMmotion® entwickelt, die aus digitalen Bewegungsdaten automatisiert regelkonforme MTM-Analysen erzeugt. Für den Arbeitsplaner hat dies zwei große Vorteile: Zum einen kann er sicher sein, dass er mit verlässlichen Daten plant, zum anderen ist die Arbeitsplanung einfacher und schneller zu bewerkstelligen.

Ein systematisches Planen, Gestalten und Verbessern der Arbeitssysteme und -methoden ist auch in Zukunft der Schlüssel für Produktivitätssteigerung und menschengerechte Arbeitsbedingungen in der Industrie. Zeit ist und bleibt dabei eine zentrale Steuergröße. Mit KI als Werkzeug, mit digitalen Technologien und dem integrierten Zeitstandard MTM rückt die intelligente und kreative Gestaltung der Arbeit des Menschen in den Vordergrund.

https://mtm.org/

KI: Gegenwart und Zukunft der digitalen Kommunikation

Die Redaktion im Gespräch mit Lorenz Beringer, CEO von LOBECO, über digitale Innovationen und den Einsatz von KI im Marketing-Mix.

Herr Beringer, wie schnell wird KI das digitale Marketing und damit die Kommunikation verändern?

Im Grunde müsste die Frage heißen: „Wie schnell hat KI bereits das Marketing verändert?“ KI ist nicht die Zukunft, KI ist die Gegenwart. Der Einsatz von KI stellt für die Unternehmen die größte Transformationsherausforderung der letzten Jahre dar. Seit der Veröffentlichung von ChatGPT im Herbst 2022 setzen wir uns intensiv mit den Anwendungsmöglichkeiten von generativen KIs auseinander. Unser Ziel ist es, sowohl kreative Prozesse als auch Arbeitsabläufe für unsere Mitarbeitenden und Kunden zu optimieren. Um dieses rasante und spannende Wachstumsfeld effektiv zu erkunden, haben wir Anfang des Jahres unser AI Solution Lab gegründet.

Lorenz Beringer betont: „Wir generieren für unsere Kunden aus digitalen Chancen Wettbewerbsvorteile.“

 

Welche Aufgaben übernimmt in diesem Kontext Ihr neues „AI Solution Lab“?

Hier fokussieren wir uns auf KI-Weiterbildung und auf die Entwicklung eigener KI-Tools und Workflows, um wiederkehrende Aufgaben zu automatisieren. Wir testen die verfügbaren KI-Tools gründlich, um die Spreu vom Weizen zu trennen, damit unsere Kunden nur sichere und effektive Tools in ihren Workflow integrieren. Im LOBECO AI Solution Lab bieten wir KI-Workshops und Hackathons an, um KI-Anwendungen praxisnah zu erklären, neue KI-Workflows zu kreieren und aus Interessierten AI-Experten zu machen.

Welche Vorteile hat die Implementierung von KI-Tools im Marketing-Mix für Unternehmen?

Einen bedeutenden Nutzen für Unternehmen bietet die KI im Bereich Marketing und Sales. Viele Unternehmen nutzen bereits KI-Tools in ihren täglichen Prozessen und haben 2023 durch massive Investitionen in interne „Prompter“ und „KI-Experten“ einen hohen Wissensstand aufbauen können. Aktuell werden weltweit rund 48.600 Anfragen pro Minute an ChatGPT gesendet, mit einer stetig wachsenden Tendenz. KI-Tools unterstützen in einer Vielzahl von Marketing-Disziplinen, ob Data Analytics, Content Creation oder Storytelling, um somit effizienter die richtige Kampagne, am richtigen Ort, zur richtigen Zeit, und für die richtige Zielgruppe zu definieren.

Für welche konkreten Aufgaben kommen Ihre Lösungen zum Einsatz?

Mit „CorporateGPT by LOBECO“ bieten wir zum Beispiel eine KI-Plattform für die einfache und sichere KI-Nutzung an. Wir erleichtern die kreative Zusammenarbeit mit künstlicher Intelligenz durch benutzerfreundliches „Templating“ von Prompts. Statt jede Eingabe neu zu formulieren, füllt man einfach ein Formular aus. Daraus entsteht automatisch der perfekte Prompt im Hintergrund. Zudem stellen wir den Mitarbeitenden das vielfältige Unternehmenswissen durch CorporateGPT als fundierte Antwortgrundlage zur Verfügung und machen es so greifbar.

Wo liegen die größten Herausforderungen, um KI-Tools fürs digitale Marketing zum Einsatz zu bringen?

Die Bandbreite der Anwendungen ändert sich rasend schnell. Wir sehen es als unsere Aufgabe, unsere Tool-Empfehlungen regelmäßig zu prüfen und neu zu bewerten. Tools, die letzte Woche noch Marktführer waren, können heute schon wieder veraltet oder überholt sein. Wir behalten den Überblick über alle relevanten KI-Applikationen. Dieses ad hoc „am Ball bleiben“ bei einer sehr hohen Innovationsgeschwindigkeit, zähle ich zu den größten Herausforderungen. Ebenso ist es wichtig, das KI-Knowhow im Unternehmen zu teilen und den Mitarbeitern zur Verfügung zu stellen. Führungskräfte sollten proaktiv möglichen Hemmungen und Jobunsicherheiten vorbeugen und Beschäftigte in der Nutzung von KI-Tools zur Effizienzsteigerung ermutigen. Es ist meistens schwierig, eine Offenheit der Mitarbeiter dafür zu schaffen – das beginnt oft schon in der Chefetage. Die Motivation, KI-Tools zu nutzen, sollte daher eine Top-Down Leitlinie sein.

Wie sollten sich KMU dem Thema nähern und wie und wo können dabei Ihre Experten unterstützen?

Wie für einen Schriftsteller die Angst vor dem leeren Blatt, so gilt für KMU-Führungskräfte die Herausforderung, die erste Hürde der KI-Implementierung zu nehmen. KI-Maßnahmen sollten als wertvoller Benefit angesehen werden, der die Mitarbeiter individuell und fachlich weiterbringt. KI muss fester Bestandteil des modernen kaufmännischen Skill-Sets werden. Der Umgang mit KI wird so wichtig wie der Umgang mit Office-Software. Diese Chance sollte von Führungskräften intern klar kommuniziert werden. Deshalb bieten wir KI-Schulungen an, die gezielt auf die Bedürfnisse verschiedener Abteilungen eingehen. Der Effizienzgewinn durch die Vereinfachung repetitiver Aufgaben ermöglicht es den Teilnehmern unserer Workshops, die neu gewonnene Zeit für kreative und innovative Tätigkeiten zu nutzen.

Was raten Sie Unternehmen, die gerade dabei sind, KI-Tools zu implementieren?

Der Einstieg erfolgt meist über die Nutzung von öffentlichen KI-Tools wie Claude, ChatGPT oder Gemini. Diese eignen sich sehr gut, um sich mit der Nutzung von KI und dem Thema Prompting vertraut zu machen. Aber Achtung: Selbst bei der kostenpflichtigen Nutzung der Plattformen läuft man Gefahr, datenschutzrelevante und vertrauliche Informationen preiszugeben. Diese Tools verwerten die Daten standardmäßig zu ihren eigenen Trainingszwecken weiter. Um Datenlecks zu verhindern, sollte man wissen, wie man sicher mit diesen Plattformen interagiert. Mit unserem „CorporateGPT by LOBECO“ ist eine sichere Nutzung der KI-Modelle samt Unternehmensdaten gewährleistet. Unsere KI-Experten erstellen eine Reihe von Templates mit feingetunten, abteilungsspezifischen Prompts. Um unsere Kunden kontinuierlich bei KI-Anfragen zu unterstützen, bieten wir ein monatlich buchbares Beratungspaket mit KI-Helpdesk an. Damit haben unsere Kunden die Möglichkeit, sicher und effizient die Chancen der KI zu nutzen, ohne Angst vor dem leeren Eingabefeld.

Inwieweit konnten Sie die Hyperpersonalisierung im Kontext der neuen Technologien vorantreiben?

„Marketing 5.0“ ist selbst für kleinere Unternehmen durch KI nicht länger eine Zukunftsvision. Durch personalisierte Marketingkampagnen und KI Chatbots sowie automatisierte Content Prozesse können wir mit Innovationen Technologien unseren Kunden eine zielgruppenspezifische Ansprache ihrer Kunden ermöglichen. 2023 war das Jahr der KI-Inspiration – 2024 ist das Jahr der KI-Transformation.
Die Marketingbranche erlebt derzeit einen tiefgreifenden Wandel und steht vor einer unvermeidlichen Revolution. Es ist unerlässlich, sich kontinuierlich darauf vorzubereiten, KI-Applikationen als Kernbestandteil in alle Marketing-Teams zu integrieren, um die Führungsposition in der Branche zu sichern.

https://www.lobeco.de/ai

„Viele halten die datensouveräne Cloud für eine Utopie. Wir haben sie gebaut.“

Die Redaktion im Gespräch mit
Walter Wolf, Vorstand Schwarz Digits, über die Vorteile einer datensouveränen Cloud.

 

Herr Wolf, STACKIT ist der aufstrebende Anbieter in der europäischen Cloud-Landschaft und schreibt die Spielregeln für Datensouveränität gerade neu. Wie kam es dazu, dass ein Händler zum Cloud-Anbieter wird?

Die wirtschaftliche Wertschöpfung in Deutschland fußt auf Innovationskraft und einem wie auch immer gearteten Vorsprung in gewissen Prozessen oder Abläufen. So ist und war es auch schon immer bei den Unternehmen der Schwarz Gruppe, zuerst beim Thema Handel. Wir haben strukturiertes Wissen, das unseren Erfolg ermöglicht und das andere in der Form nicht haben. Dieses Wissen haben wir als Daten abgelegt. Für diese kritischen Daten haben die Unternehmen der Schwarz Gruppe einen Ort gebraucht, auf den sie flexibel zugreifen können, die Daten aber trotzdem sicher und absolut unter unserer Kontrolle sind. Das konnte uns kein Anbieter am Markt garantieren. Also haben wir eine eigene Cloud entwickelt.

Walter Wolf betont: „Wir bieten unsere Cloud Unternehmen an, die nach Datensouveränität streben.“

 

Und wieso haben Sie diese Cloud nicht ausschließlich für sich als Schwarz Gruppe genutzt?

Nachdem wir gemerkt haben, dass andere Unternehmen und Organisationen dieselben Herausforderungen bei der Datensouveränität haben, wie wir sie hatten, haben wir im März 2022 entschlossen, unsere Cloud STACKIT auch anderen Unternehmen anzubieten, die nach Datensouveränität streben. Heute sind wir starker Partner für Unternehmen und alle Organisationen, die ebenfalls nach größtmöglicher Souveränität streben, auch im Digitalen.

Was unterscheidet STACKIT vom Wettbewerb?

Als erstes möchte ich mit einem ungewöhnlichen Unterschied starten: Wir sind kein reines Softwarehaus. Wir gehören zur größten Handelsgruppe Europas. Das birgt zwei Vorteile: Zum einen sind wir nicht börsennotiert, das heißt wir sind nicht von den Launen von Investoren abhängig. Wir haben mit den anderen Geschäftsmodellen, beispielsweise mit Lidl und Kaufland im Handel, eine solide Grundlage für die starke Weiterentwicklung unserer Services. Zum anderen sind wir selbst unser kritischster Kunde. Erst, wenn unsere anspruchsvollen internen Kunden zufrieden mit unseren Lösungen sind, bieten wir sie anderen an. Und Sie können mir glauben: Wenn die Unternehmen der Schwarz Gruppe etwas machen, dann machen sie es richtig.

Sie sprechen immer von der datensouveränen Cloud – gibt es nicht andere Anbieter, die ebenfalls Datensouveränität bieten?

Hier meine Gegenfrage: Sind diese Anbieter wirklich datensouverän – in allen Bereichen? Bei uns ist es so: Nicht nur unsere Rechenzentren stehen in Deutschland, auch unser Hauptsitz ist und bleibt in Deutschland. Unsere Cloud setzt auf Open Source und wir ermöglichen flexible Anwenderwechsel. Das heißt, wir zwingen niemanden, bei STACKIT zu bleiben oder ausschließlich STACKIT zu nutzen. Es gibt keine schmerzhaften Abhängigkeiten, die wir nach und nach zementieren. Wir bieten Flexibilität und beraten individuell. Unser Unterschied zum Wettbewerb ist unsere, so würde ich es bezeichnen, vollumfängliche Datensouveränität.

Welche Lösungen finden sich im Portfolio von STACKIT?

Eben weil wir selbst unser kritischster Kunde sind, wissen wir genau, was Unternehmen und Organisationen wirklich brauchen und was nicht. Mit STACKIT bieten wir verschiedene Cloud-Services, Colocation-Dienste und Consulting an, um Unternehmen auch aus regulierten Sektoren genau die Lösung zu liefern, die sie wirklich benötigen. Unsere Basisleistungen umfassen unter anderem Confidential Computing, Storage und Network-Lösungen, zukunftsfähige Data- und AI Plattformen. Auch für hochregulierte Bereiche wie das Gesundheitswesen und den öffentlichen Sektor liefern wir passgenaue und Innovative Lösungen, wie beispielsweise den KI-Assistent. Zudem bieten wir mit unseren Partnern souveräne Alternativen. Beispielsweise hosten wir ServiceNow auf unserer STACKIT Cloud. Mit Wire on STACKIT liefern wir neue Standards für sichere und souveräne Kommunikation. Im Oktober 2024 haben wir unsere Partnerschaft mit SAP vertieft, sodass Kunden RISE with SAP ab sofort auf STACKIT nutzen können. Das macht für uns wahre Souveränität aus.

https://www.stackit.de

 

Schlüsseltechnologien für Smart Farming

Wie und vor allem wer kann die Nahrungsproduktion auch in Zukunft effizient umsetzen? Um diese Herausforderungen meistern zu können, braucht der Mensch Unterstützung. Smarte Technologien haben das Potential, die Effizienz in der Landwirtschaft erheblich zu steigern.

Die Prognosen sagen voraus, dass die Menschheit in diesem Jahrhundert auf neun bis zehn Milliarden Köpfe anwachsen wird. Somit stellt sich die Frage, wie Nahrungsmittel in ausreichender Menge produziert werden können, ohne dass dabei wertvolle natürliche Ressourcen wie sauberes Grundwasser und fruchtbarer Boden gefährdet werden. Und wie wird sichergestellt, dass in Zeiten akuten Personalmangels genügend Arbeitskraft für aufwendige Arbeitsschritte bei Ernte und Erhalt zur Verfügung steht?

Neben schwerfälligen Maschinen, die hektargroße Land- und Ackerflächen bewirtschaften, ist die Landwirtschaft auf aufwendige Handarbeit angewiesen. Die starke körperliche Belastung dieser Tätigkeiten sowie der wachsende Personalmangel stellen allerdings enorme Herausforderungen dar. Mit den technologischen Entwicklungen von heute ist die Landwirtschaft immer mehr digitalisiert sowie automatisiert und eröffnet neue, nachhaltige Möglichkeiten. Ob Früchte, die von maschinellen Greifern vorsichtig gepflückt werden oder Dünger und Pflanzenschutzmittel, die gezielt und dosiert ausgebracht werden – moderne Lösungen wie autonome Agrarroboter oder intelligente Anbaugeräte machen die Landwirtschaft smart und zukunftssicher.

FAULHABER ist seit über 75 Jahren führender Anbieter für Antriebssysteme im Bereich der Miniatur- und Mikroantriebstechnik. Wer das Thema Smart Farming und zukunftssichere Lösungen vertiefen möchte, kann sich für das Webinar „Intelligente Antriebssysteme für Smart Farming“ anmelden. Alle weiterführenden Infos dazu gibt es hier: https://www.faulhaber.com/de/events/webinare/intelligente-antriebssysteme-fuer-smart-farming/

 

Der Roboter hilft, wo er kann

Der Anspruch von Smart Farming ist sowohl zukunftssicheres als auch bedarfsgerechtes (Be)Wirtschaften zu ermöglichen. Ziel ist es, moderne Technologien zu nutzen, um zugleich die Effizienz der Landwirtschaft zu steigern, schonender mit allen Ressourcen umzugehen, Menschen von monotoner Arbeit zu entlasten und höhere Erträge zu produzieren. Mit rechnergestützten und vernetzten Abläufen plus maschinellem Lernen und maßgeschneiderten Roboterfunktionen kann statt der Fläche die einzelne Pflanze in den Fokus gestellt werden. So können Maßnahmen direkter ausgerichtet sowie sparsamer und effizienter eingesetzt werden. Mithilfe eines mobilen Roboters mit Greifarm können beispielsweise Früchte zuverlässig zum optimalen Reifegrad, bestimmt durch kameragestützte Sensoren, geerntet werden. Ebenso effizient arbeiten autonome Feldroboter, die aufgrund ihres geringen Gewichts den Ackerboden schonen oder intelligente Anbausysteme, die Saatgut oder Dünger genau dort ausbringen können, wo diese benötigt werden.

Hightech für die Automatisierung

Und auf welche Technik sind Agrarroboter angewiesen? Aufgrund der Kompaktheit und des wesentlich geringeren Gewichts im Vergleich zu traditionellen Großgeräten, müssen die eingesetzten Antriebssysteme möglichst kompakt sein. Gleichzeitig müssen die Antriebe auch während großer Temperaturschwankungen und unter härtesten Bedingungen zuverlässig und dauerhaft funktionieren sowie für Säscheiben, Klappen, Greifern, Roboterarmen oder Scheren genug Kraft liefern, um die jeweilige Aufgabe in zahllosen Zyklen zuverlässig zu erledigen. Zugleich sollen sie hocheffizient arbeiten, denn die autonomen Einheiten beziehen ihre Energie meist aus Akkus mit begrenztem Stromvorrat. Außerdem muss die Antriebselektronik in vernetzte Strukturen eingebunden werden können und eine intelligente Steuerung möglich machen.

Robuste Lösungen aus einer Hand

„Das sind typische Anforderungen an Antriebssysteme der Spitzenklasse; die passenden Antworten gehören bei FAULHABER zum Standard“, sagt Kevin Moser. „Darüber hinaus müssen die Antriebe in der landwirtschaftlichen Umgebung aber auch in höchstem Maße robust sein, damit sie selbst unter härtesten Bedingungen zuverlässig und dauerhaft funktionieren. Große Temperaturschwankungen und starke mechanische Belastungen sind in Landwirtschaft und Gartenbau gang und gäbe.“

Diese Anforderungen erfüllen die wartungsfreien bürstenlosen und besonders kompakten DC-Flachmotoren der Serie BXT sowie die äußerst robusten und kosteneffizienten Kupfergraphitmotoren der CXR-Linie. Für die hohe Kraftübertragung unter rauen Bedingungen sind die Getriebe der neuen Serie GPT besonders gut geeignet. Bei höchster Effizienz sind sie ebenfalls extrem robust und damit ideal für landwirtschaftliche Anwendungen. Optionale Inkremental-Encoder ermöglichen eine hochgenaue Positionierung. Für die Vernetzung der Antriebssysteme stehen verschiedene Steuerungen, beispielsweise mit CANopen-Schnittstelle zur Verfügung. „Antriebe von FAULHABER werden bereits im Smart Farming eingesetzt“, berichtet Kevin Moser. „Für anspruchsvolle Anwendungen in diesem Bereich werden sie künftig eine wichtige Rolle spielen.“

 

Bildrechte und Quelle:

Weiterführende Informationen:

https://www.faulhaber.com/de/

https://www.faulhaber.com/de/produkte/buerstenlose-dc-motoren/bxt/

https://www.faulhaber.com/de/produkte/praezisionsgetriebe/planetengetriebe/gpt/

 

Social Media:

https://de.linkedin.com/company/faulhaber-drive-systems

 

Prozessautomatisierung durch Low-Code

Gastbeitrag von Axel Ensinger, Co-CEO der JobRouter AG.

Einkauf, Finanzen, HR: Praxisbeispiele zeigen, wie es geht

Unternehmen müssen täglich eine Vielfalt an Prozessen bewältigen. Dabei sind viele von ihnen immer noch nicht digitalisiert. Low-Code kann Betriebe bei der Umstellung effizient unterstützen.

 

Mehr als die Hälfte der Geschäftsführer und Vorstände deutscher Unternehmen sehen im Zeitmangel (69 Prozent) und in fehlenden finanziellen Mitteln (59 Prozent) die größten Hürden für die Digitalisierung. Das zeigt eine repräsentative Bitkom-Umfrage aus dem Jahr 2024. Fachkräftemangel einerseits, aber dennoch steigende Arbeitsbelastung und Digitalisierungsdruck andererseits. Viele ächzen unter diesen Anforderungen. Low-Code stellt eine mögliche Unterstützung für diese Herausforderungen dar und ist bis zu zehnmal schneller als klassische Software-Entwicklung. Mit Low-Code lassen sich beliebige Geschäftsprozesse, sogenannte Workflows, vergleichsweise schnell abbilden, digitalisieren und automatisieren. Denn Anwender benötigen kaum Programmierkenntnisse, um mit Low-Code-Lösungen zu arbeiten. Sie greifen auf bereits vorkonfigurierte Designelemente zurück, was die Projektphase beschleunigt und den Implementierungsaufwand zusätzlich reduziert. Lediglich komplexe individuelle Workflows erfordern einen höheren Programmieraufwand. Jedoch bringen viele Low-Code-Plattformen die nötige Funktionsvielfalt dafür mit.

Axel Ensinger erklärt: „Zwar gibt es viele Lösungen, die Prozesse (teil-)automatisiert abbilden, doch häufig kaufen Unternehmen Software für einen bestimmten Anwendungsfall ein. Damit entsteht eine unübersichtliche, in Silos organisierte IT-Landschaft.“

 

Workflows digital abbilden mit Low-Code

Die notwendigen Funktionalitäten sind in Low-Code-Digitalisierungsplattformen gesammelt. Mit einem Prozessdesigner lassen sich Workflows per Drag-und-Drop erstellen und beliebig anpassen. Alle relevanten Mitarbeiter und Fachabteilungen sind dabei in den Vorgang involviert – so fließt die Expertise der Menschen ein, die am Ende Teil des Prozesses sind. Zudem entlastet diese selbstständige Arbeitsweise die IT-Abteilung, in der Ressourcen traditionell eng sind. Prozessabweichungen, ein Berechtigungsmanagement mit Zuständigkeiten sowie automatisierte Erinnerungsbenachrichtigungen lassen sich bei der Erstellung leicht festlegen. Schnittstellen zu gängiger Drittanbietersoftware sind häufig schon vorkonfiguriert – so können Unternehmen sie einfacher anbinden. Dadurch werden Prozesse durchgängig digital abbildbar.

Geschäftsprozesse automatisieren: ein Blick in die Praxis

Der Einsatz von Lösungen zur Prozessautomatisierung ist branchenübergreifend und in verschiedenen Unternehmensabteilungen möglich. Wie sich die Prozesse mit Hilfe von Low-Code-Technologie noch schneller aufsetzen lassen, zeigen folgende drei Beispiele:

  1. E-Rechnung (voll-)automatisiert verarbeiten

Ab dem 1. Januar 2025 gilt die E-Rechnungspflicht und stellt Unternehmen vor große Herausforderungen. Die Rechnungsverarbeitung ist ein komplexer Prozess, geprägt von vielen Zwischenschritten, unterschiedlichen Formaten und vielen beteiligten Personen. Den Prozess durch Individualprogrammierung zu digitalisieren, erhöht den zeitlichen Projektaufwand deutlich. Durch Low-Code hingegen kann der Prozessdesigner den digitalen Rechnungs-Workflow schneller abbilden. Mit einer entsprechenden Digitalisierungsplattform lässt sich ein bis zu 100 Prozent automatisierter E-Rechnungsprozess aufbauen, der wie folgt abläuft:

  • Prüfung des Formats: Eine Rechnung geht in das System ein. Dieses prüft, ob es sich um eine E-Rechnung oder ein anderes Format handelt. Die Standardformate für E-Rechnungen sind ZUGFeRD oder XRechnung.
  • Abgleich der Informationen: Handelt es sich um eine E-Rechnung, liest die Software die XML-Datensätze automatisiert aus und vergleicht die darin enthaltenen Informationen mit dem zugehörigen Bestellbeleg. Gibt es keine Preis- oder Mengenabweichungen und die Informationen stimmen überein, wird die E-Rechnung an das ERP-System (zum Beispiel SAP) geleitet und verbucht.
  • Prozessabzweigungen festlegen und eingreifen: Stellt das System eine Abweichung zum Bestellbeleg fest, benachrichtigt es einen hinterlegten Mitarbeiter, der den Sachverhalt prüft.

 

  1. Digitaler Beschaffungsprozess

Ein Bereich, in dem Low-Code viel bewirken kann, sind Purchase-to-Pay-Prozesse (P2P). Diese bestehen aus vielen Schritten und lassen sich durch Low-Code-Digitalisierungsplattformen teilweise oder vollständig automatisieren – von der Bedarfsmeldung über die Bestellung und den Wareneingang bis hin zur Rechnungsprüfung und Bezahlung. Dabei können Anwender vorab festlegen, welcher Mitarbeiter für welchen Arbeitsschritt zuständig ist und wer bei einer Abwesenheit die Vertretung übernimmt. Der P2P-Prozess kann wie folgt aussehen:

Ein Mitarbeiter meldet über das System, dass er ein neues Headset benötigt. Diese Bedarfsmeldung wird anschließend an eine vorher festgelegte Person, in der Regel den Vorgesetzten, zur Freigabe weitergeleitet. Gibt dieser die Meldung frei, geht eine Benachrichtigung an die Einkaufsabteilung. Der Einkauf bestellt das benötigte Headset und erhält vom Lieferanten eine Bestätigung. Ist das Headset beim Mitarbeiter angekommen, meldet dieser den Wareneingang zurück und kann es bei Mängeln reklamieren. Auf diese Weise ist der Einkauf konstant über den aktuellen Status informiert. Trifft dann die Rechnung ein, vergleicht das System die Rechnungsdaten mit den Informationen aus der Bestellung und Lieferung. Stimmen die Informationen überein, wird die Rechnung an das ERP-System weitergeleitet und verbucht. Bei Preis- oder Mengenabweichungen übermittelt das System die Rechnung an einen Mitarbeiter aus der Buchhaltung, der sie manuell prüft.

Während dieses Prozesses werden alle Schritte transparent dokumentiert. So kann jeder Beteiligte nachvollziehen, welche Produkte eingekauft wurden, wie hoch die Ausgaben und wie lange die Lieferzeiten waren. Der beschleunigte Prozess spart Kosten und setzt Kapazitäten für wertschöpfende Aufgaben frei. Außerdem können Unternehmen externe Nutzer wie Lieferanten über Schnittstellen anbinden, um die Kommunikation weiter zu vereinfachen. Auch Skonti lassen sich besser ausnutzen.

 

  1. Transparentes Mitarbeitermanagement

Kandidaten sind in Zeiten des Fachkräftemangels heiß begehrt und Unternehmen müssen schnell reagieren. Ein manuelles Bewerbermanagement führt jedoch zu unübersichtlichen Prozessen: In der Folge bleibt die zu besetzende Stelle länger vakant. Bewerber klagen über mangelnde Organisation und Verantwortliche über fehlende Transparenz. Mit Low-Code-Digitalisierungsplattformen können Unternehmen ein Bewerberportal einrichten, das den Prozess automatisiert steuert:

  • Bewerbungseingang: Bewerbungen, die über das Portal eingehen, landen in einem zentralen Posteingang. Der Zugriff wird über ein Rechte- und Rollenmanagement gesteuert: Nur berechtigte Mitarbeiter können die Unterlagen einsehen und geeignete Kandidaten an die jeweilige Fachabteilung weiterleiten.
  • Kandidaten auswählen: Die Fachverantwortlichen können über die Plattform Rückfragen stellen und Feedback geben, ob sie einen Bewerber zu einem Vorstellungsgespräch einladen wollen oder nicht.
  • Kommunikation: Im letzten Schritt lädt die Personalabteilung den Bewerber ein. Alternativ versendet das System automatisch eine Absage. Sowohl Einladung als auch Absage lassen sich individualisieren.

Nach dem Recruiting ist eine gelungene Einarbeitung wichtig. Dazu startet die Personalabteilung einen digitalen Onboarding-Prozess. In diesem holt sie notwendige Unterschriften ein und Verantwortliche können hinterlegen, welche Geräte oder Informationen der Neuankömmling benötigt. So steht bei Arbeitsbeginn alles für den neuen Mitarbeiter bereit.

 

Mit Low-Code wirtschaftlich aufstellen

Zwar gibt es viele Lösungen, die Prozesse (teil-)automatisiert abbilden, doch häufig kaufen Unternehmen Software für einen bestimmten Anwendungsfall ein. Damit entsteht eine unübersichtliche, in Silos organisierte IT-Landschaft. Digitalisierungsplattformen sind aufgrund ihrer Funktionalitäten für eine breite Palette an Anwendungsfällen konzipiert und integrieren sich über Schnittstellen nahtlos in die bestehende Infrastruktur. Durch den Low-Code-Ansatz setzen Unternehmen Digitalisierungsprojekte schneller und mit weniger personellem sowie finanziellem Aufwand um.

https://www.jobrouter.com/de/

 

KI – Datenschutz ist nicht verhandelbar

Neil Thacker erläutert in seinem Gastbeitrag, wie Unternehmen Transparenz und Kontrolle über SaaS-Anwendungen wie ChatGPT im gesamten Unternehmen erreichen.

 

Künstliche Intelligenz verändert die Arbeitswelt. In Unternehmen verbreitet sie sich immer weiter. Das Ziel ist die Optimierung alltäglicher Aufgaben und damit die Steigerung der Produktivität für die gesamte Belegschaft.

Laut dem „Cloud & Threat Report: KI im Unternehmen 2024“ von Netskope Threat Labs setzen inzwischen 96 % der Unternehmen generative KI ein – eine Verdreifachung in den letzten zwölf Monaten. ChatGPT und Microsoft Copilot sind die beliebtesten Apps und im Durchschnitt nutzen Organisationen jetzt fast zehn genAI-Apps, im letzten Jahr waren es noch drei. Das oberste 1 % der Unternehmen nutzt bis zu 80 Apps, was das Wachstum der verfügbaren KI-Dienste verdeutlicht. Mehr als ein Drittel der sensiblen Daten, die mit KI-Tools ausgetauscht werden, sind regulierte Daten, zu deren Schutz Unternehmen gesetzlich verpflichtet sind – wie z. B. durch bestehende GDPR-Vorschriften der EU.


Gastautor: Neil Thacker, CISO von Netskope EMEA, verdeutlicht:

„Zweifellos bringen KI-Apps Unternehmen viele Vorteile. Organisationen müssen jedoch erkennen, dass sie ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen.“

Neil Thacker verfügt über mehr als 25 Jahre Erfahrung in der IT-Security-Branche. Er ist Beiratsmitglied der Cloud Security Alliance (CSA) und ehemaliger Berater der EU-Agentur für Cybersicherheit ENISA. Thacker ist CISSP-, CIPP/E- und CEH-zertifiziert, er spricht und veröffentlicht häufig zu Themen rund um Cybersicherheit, Datenschutz und den Schutz der Privatsphäre.


 

KI-Plattformen und sensible Daten
Zweifellos bringen KI-Apps Unternehmen viele Vorteile. Organisationen müssen jedoch erkennen, dass sie ein potenzieller Weg für Datenexfiltration sind und daher eine robuste Datenschutzpolitik benötigen. Es besteht ein doppeltes Risiko. Erstens könnten Mitarbeiter Daten mit unsicheren KI- Apps von Drittanbietern austauschen. Zweitens entwickeln und verbessern sich die Algorithmen, die KI-Plattfor- men antreiben, auf der Grundlage der ihnen zugeführten Daten. Ohne sich dessen bewusst zu sein, stellen Unternehmen möglicherweise ihre Daten zur Verfügung, um noch intelligentere KI-Plattformen zu trainieren, die Wettbewerbern Vorteile verschaffen können. Unternehmen müssen kontinuierliche Datenschutzrichtlinien und-Tools einsetzen, um sich zu schützen.

Chief Information Security Officers (CISOs) sollten eine Bestandsaufnahme der in ihrem Unternehmen genutzten KI-Dienste machen und die relevanten Dienste festlegen. Eine anschließende Überprüfung aller Plattformanbieter inkl. der Bewertungen ihrer Datenrichtlinien sowie ein Check, ob sie von Drittanbietern unterstützt werden, ist unerlässlich. Mit der KI-Technologie sind hohe Kosten verbunden. Es liegt nahe, dass kostenlose oder günstige Anbieter ihre Einnahmen auf andere Weise generieren – z. B. durch den Verkauf von Daten. Hier ist eine gründliche Prüfung der Geschäftsbedingungen für CISOs un- umgänglich, um den Schutz sensibler Daten und der Privatsphäre zu gewährleisten. Viele Unternehmen wissen nicht, dass beliebte KI-Apps oft private Abonnements anbieten, bei denen ge- gen eine Gebühr die Kundendaten nicht zur Aktualisierung des öffentlichen Modells verwendet werden. Angesichts der großen und wachsenden Zahl von Plattformen, die in Unternehmen genutzt werden, wäre es jedoch kostspielig und unpraktisch, dies für jede einzelne App zu tun, ohne die künftigen Risiken auszugleichen.

Risiken minimieren

Data-Loss-Prevention (DLP)-Tools müssen eingesetzt werden, um die Sicherheitslücken zu schließen. Ein Beispiel dafür ist SkopeAI für genAI von Netskope, das ein proprietäres System verwendet, um sicherzustellen, dass keine sensiblen Informationen in Eingabeabfragen für KI-Anwendungen ohne die Nutzerzustimmung verwendet werden. Unternehmen sollten binäre „Erlauben oder Sperren“- Richtlinien vermeiden. Stattdessen sollten sie ihre KI-Richtlinien datenorientiert gestalten und sich an „Zero Trust”- Grundsätzen orientieren, indem sie die Nutzung auf Basis von Nutzeridentität, Anwendung, Aktion und Datentyp erlauben. SkopeAI wird selbst von KI betrieben und lernt, sensible Daten auf der Grundlage der persönlichen Präferenzen eines Unternehmens zu erkennen und in Echtzeit zu identifizieren. Unternehmen können neben dem Datenschutzsystem auch ein Just-in-Time- Coaching für ihre Mitarbeiter einführen, das ihnen hilft, die richtigen Entscheidungen zu treffen. Wenn z. B. ein Risiko erkannt wird, könnte eine Pop- up-Meldung erscheinen, die den Mitarbeiter über die Risikostufe der verwen- deten App informiert. Studien zeigen, dass der verhaltensorientierte Ansatz für die Datensicherheit sehr effektiv ist, da unglaubliche 95 % der Vorfälle im Bereich der Cybersicherheit auf menschliches Versagen zurückzuführen sind. Neben technologischen Tools sind die kontinuierliche Schulung und Sensibilisierung der Mitarbeiter unabdingbar.

In Zukunft sicher

Mit der fortschreitenden digitalen Transformation von Unternehmen wird KI enorme Vorteile in Bezug auf Effizienz, Wettbewerbsfähigkeit und Nutzererfahrung bieten. Die Absicherung von genAI bedarf weiterer Investitionen und größerer Aufmerksamkeit, da sich die Nutzung von KI-Tools in Unternehmen durchsetzt und schnell wächst. Unternehmen müssen beachten, dass genAI-Outputs ungewollt sensible Informationen preisgeben, Fehlinformationen verbreiten oder sogar bösartige Inhalte einschleusen können. Das erfordert einen starken Risi- komanagement-Ansatz, um Daten, Ruf und Geschäftskontinuität zu schützen. Die 2012 gegründete Netskope-Plattform bietet Zugangskontrolle und Sicherheit für alle Daten – unabhängig vom Speicherort und der Zugriffsart. Basierend auf maschinellem Lernen und KI, hilft der datenzentrierte Sicherheits- und Netzwerkansatz von Netskope Unternehmen dabei, Zero- Trust-Prinzipien anzuwenden, um Da- ten zu schützen und sich gegen Cyberbedrohungen zu wehren – im Web, in der Cloud und bei privaten Apps.

 

https://www.netskope.com/de/

Digital Adoption: das Geheimrezept für die erfolgreiche Digitale Transformation

Die Einführung neuer Software allein genügt nicht, um die Digitale Transformation erfolgreich zu gestalten. Entscheidend ist, dass Mitarbeitende die Technologien effizient nutzen. Digital Adoption Plattformen (DAPs) zeigen CIOs und IT-Entscheidern auf, wo es klemmt und steigern so die Produktivität und maximieren den ROI von neuen Tools.

Digitale Transformation ist längst kein „nice-to-have“ mehr. In vielen Branchen entscheidet sie über den langfristigen Erfolg und die Wettbewerbsfähigkeit von Unternehmen. Ein wichtiger Baustein einer jeden Digital-Strategie sind Softwarelösungen. Allerdings reicht die bloße Einführung neuer Tools bei Weitem nicht aus. Entscheidend für den Erfolg solcher Investitionen, ist, dass die Mitarbeitenden die Technologien in ihren Arbeitsalltag integrieren und produktiv einsetzen können. An dieser Stelle kommt Digital Adoption ins Spiel – ein oft übersehener, aber kritischer Aspekt der Digitalen Transformation.

Gastautor Hartmut Hahn, Geschäftsführer von Userlane, erklärt: „Digital Adoption beschreibt den Prozess, durch den Unternehmen sicherstellen, dass ihre Mitarbeitenden neue Technologien und Softwarelösungen erfolgreich nutzen können. „

 

Was bedeutet Digital Adoption?

Digital Adoption beschreibt den Prozess, durch den Unternehmen sicherstellen, dass ihre Mitarbeitenden neue Technologien und Softwarelösungen erfolgreich nutzen können. Denn die Devise lautet: Je besser Mitarbeiter Software anwenden können, desto größer wird der Nutzen für das Unternehmen sein. Genau das ist jedoch eine Herausforderung für viele      Unternehmen. In einer Umfrage des Münchener Software-as-a-Service-Unternehmen Userlane in Zusammenarbeit mit PwC gaben 93 Prozent der befragten IT-Entscheidungsträger an, dass ihr Unternehmen mit der Digital Adoption zu kämpfen habe. Woran liegt das? Die Ursache liegt häufig darin, dass Unternehmen den Fokus zu sehr auf die Auswahl der richtigen Software und zu wenig auf die eigentliche Nutzung durch die Mitarbeitenden legen.

Software-Investitionen müssen sich lohnen

Große Unternehmen tätigen im Durchschnitt fünf größere Softwarekäufe pro Jahr mit Kosten von über 2,1 Millionen Euro. Das geht aus dem Digital Adoption Report aus dem Jahr 2022 hervor (Userlane CIO Report 2022). Trotz dieser Investitionen bleibt der erwartete ROI häufig aus – nur knapp die Hälfte der Softwareprojekte erreicht die gesteckten Ziele. IT-Entscheidungsträger sollten das als deutliches Zeichen für eine zu schwach ausgeprägte Digital Adoption im Unternehmen deuten.

Digital Adoption Plattformen (DAP) befähigen Mitarbeitende zur Tool-Nutzung

Digital Adoption Plattformen (DAP) schaffen Abhilfe. Diese Plattformen bieten Echtzeit-Hilfe direkt auf der Software-Oberfläche. Mit kontextbezogenen Schritt-für-Schritt-Anleitungen können Mitarbeitende Wissenslücken schnell schließen und Probleme selbstständig lösen. Das steigert die Produktivität und spart Kosten, denn der IT-Support wird entlastet.

Diese Hilfen sind jedoch nicht starr, sondern passen sich an die jeweilige Nutzungssituation und das Nutzungsverhalten des Mitarbeitenden an. Auf diese Weise bieten DAP Unterstützung dort, wo sie gebraucht wird: direkt in der Anwendung. Ein Wechseln des Fensters oder Ähnliches ist nicht nötig. Auf diese Weise steigt die Akzeptanz neuer Tools im Unternehmen und Frust im Umgang mit Software wird wesentlich reduziert.

Möglich macht das eine KI-gestützte Analyse des Nutzungsverhaltens. Userlane hat das erste weltweit standardisierte Modell für Digital Adoption entwickelt. Dieses Modell bewertet die Nutzung von Software anhand von fünf Kriterien: Happiness (Zufriedenheit), Engagement (wie aktiv User mit der Anwendung interagieren), Adoption (Umfang der Nutzung), Retention (wie häufig User zur Anwendung zurückkehren) und Task Success (Erfolg bei der Aufgabenerfüllung). Ergänzend dazu werden Umfragen durchgeführt, um die Zufriedenheit der Nutzer zu erfassen.

Anhand dieser Informationen können Entscheider und CIOs nachvollziehen, wie Mitarbeitende mit der Software interagieren, welche Funktionen sie nutzen und welche Probleme dabei auftreten. Die Daten ermöglichen es, einen Überblick über die gesamte Softwarenutzung im Unternehmen zu bekommen und den Grad der Digital Adoption zu bewerten und messbar zu machen. Verantwortliche können anschließend gezielte Maßnahmen zur Verbesserung treffen. Zudem lassen sich durch die Analyse ungenutzte Potenziale aufdecken und überflüssige Lizenzen kündigen, was zu erheblichen Kosteneinsparungen führen kann.

Warum Digital Adoption der Schlüssel zum Erfolg ist

Eine schlechte Digital Adoption kann weitreichende negative Folgen haben. Wenn Mitarbeitende neue Software nicht richtig nutzen, leidet nicht nur die Produktivität, sondern es entstehen auch höhere Kosten für Schulungen und IT-Support. Zudem kann es dazu führen, dass Unternehmen teure Softwarelösungen ersetzen, weil sie nicht die gewünschten Ergebnisse liefern. Das bringt einen großen und teuren Aufwand mit sich.

Im Gegensatz dazu sorgt eine erfolgreiche Digital Adoption für mehr Effizienz, Produktivität und höhere Rentabilität. DAP stellen sicher, dass neue Softwarelösungen von Beginn an effektiv genutzt werden und das Innovationspotenzial voll ausgeschöpft wird. Dies wirkt sich positiv auf die Mitarbeiterzufriedenheit aus und entlastet gleichzeitig den IT-Support, da weniger Schulungsbedarf und technische Probleme auftreten.

Die langfristigen Vorteile von Digital Adoption

Eine erfolgreiche Digital Adoption bedeutet nicht nur kurzfristige Effizienzgewinne, sondern legt auch den Grundstein für den zukünftigen Erfolg eines Unternehmens. Durch die transparente Analyse der Softwarenutzung können CIOs fundierte Entscheidungen treffen, die den ROI maximieren und sicherstellen, dass Investitionen in neue Technologien auch langfristig Früchte tragen. Besonders für große Unternehmen, die oft eine Vielzahl von Softwarelösungen im Einsatz haben, sind DAP durch die KI-gestützte Nutzungsanalyse unverzichtbar.

Fazit: Digital Adoption als Erfolgstreiber

CIOs und IT-Leiter müssen im Angesicht von Effizienzsteigerungen und Digitalisierung schwierige Entscheidungen treffen: Es geht nicht nur um die Auswahl geeigneter Tools, sondern vor allem darum, Mitarbeitende zu befähigen, mit neuer Software richtig umzugehen.  Digital Adoption Plattfformen bieten strategische Vorteile für CIOs und IT-Leiter, indem sie Einblicke in die Nutzung und Effektivität von Softwareanwendungen bieten und Hilfe in der Anwendung bereitstellen. Auf diese Weise tragen DAP dazu bei, dass Unternehmen technologisch auf dem neuesten Stand bleiben. Nur so können Unternehmen die digitale Zukunft erfolgreich gestalten und ihre Wettbewerbsfähigkeit und Profitabilität langfristig sichern.

Weitere Infos unter:
https://www.userlane.com/

PSD3 und PSR – Der Verbraucherschutz hat für die EU absolute Priorität

Interview mit Dr. Ernst Stahl, Head of Payments bei NTT DATA DACH.

 

Die aktuellen Regulierungsvorhaben der Europäischen Kommission – die PSD3 (Payment Service Directive 3) und PSR (Payment Service Regulation) – sollen den digitalen Zahlungsverkehr verbraucherfreundlicher und sicherer machen. Vor allem der Betrugsbekämpfung durch Social Engineering wird dabei viel Platz eingeräumt. Dr. Ernst Stahl, Head of Payments bei NTT DATA DACH, beantwortet die wichtigsten Fragen.

 

Was ist die PSR?

Die geplante Payment Services Directive 3 (PSD3) und die Payment Services Regulation (PSR) werden die bestehende Zahlungsdiensterichtlinie (PSD2) sowie die E-Geld-Richtlinie (EMD2) ablösen. Vor dem Hintergrund, dass sich der Markt seit dem Inkrafttreten der PSD2 stark verändert hat und Anpassungen zwingend notwendig waren, hat die EU die alte Vorgabe gesplittet. Der direkt regulierte Teil, die PSR, führt zu unmittelbar geltendem Recht in allen EU-Staaten. Die PSD3 hingegen muss noch in nationales Recht umgesetzt werden.

Derzeit hat der sogenannte Trilog begonnen. An diesen übergreifenden Verhandlungen nehmen Vertreter des Europäischen Parlaments, des EU-Rates und der Europäischen Kommission teil. Sobald sich diese drei Institutionen geeinigt haben, was voraussichtlich Ende 2024 beziehungsweise Anfang 2025 der Fall sein wird, werden die aktuellen Fassungen von PSD3 und PSR im Amtsblatt der Europäischen Union veröffentlicht. 20 Tage später treten sie in Kraft und es beginnt eine Frist von 18 Monaten, bis die PSR gilt beziehungsweise die PSD3 umgesetzt werden muss.

Welche Ziele verfolgt die EU mit PSD3 und PSR?

Die Digitalisierung hat die Finanzmärkte verändert. Die EU will diesem Wandel gerecht werden, indem sie die Auflagen verschärft und neue Risiken berücksichtigt. Die PSD3 beinhaltet die aufsichtsrechtlichen Vorgaben für Zahlungsinstitute einschließlich der Erlaubniserteilung. Die PSR hingegen umfasst alle zivilrechtlichen Bestimmungen, beispielsweise zum Verbraucherschutz, zu Fristen und Haftungsfragen. Generell hat sich die EU das Ziel gesetzt, die Sicherheit von Zahlungsvorgängen zu erhöhen, den Wettbewerb zu fördern und den Zahlungsverkehr innerhalb des europäischen Wirtschaftsraums zu harmonisieren. Besonderes Augenmerk wird dabei auf den Verbraucherschutz und das Verbrauchererlebnis gelegt. Die Eindämmung von Betrugsrisiken, die mit dem technologischen Fortschritt einhergehen, und der sichere Datenaustausch, um von einem erweiterten Dienstleistungsangebot profitieren zu können, stehen daher im Mittelpunkt.

Eine besondere Rolle wird bei der PSR in diesem Zusammenhang der viel diskutierte Artikel 59 spielen, wenn er wie geplant umgesetzt wird. Dieser sieht eine Haftung der Zahlungsdienstleister vor, um die Verbraucher vor den Folgen von Betrug mittels speziellem Social Engineering zu schützen. Dies trifft beispielsweise zu, wenn sich Betrüger am Telefon als Mitarbeiter des Zahlungsdienstleisters ausgeben, um eine Autorisierung zu erhalten. Die Kriminellen haben sich oft schon durch Phishing-Attacken Zugang zum Konto verschafft – ihnen fehlt aber die starke Authentifizierung, um „höhere“ Beträge (in der Regel ab 30 Euro online) überweisen zu können oder digitale Kartendubletten des Kunden (zum Beispiel in Apple und Google Pay) auf ihrem betrügerischen Smartphone korrekt aktivieren und nutzen zu können. Daher versuchen sie, am Telefon eine Freigabe zu erhalten. Um solche böswilligen Transaktionen einzudämmen, werden die Banken nun stärker in die Pflicht genommen. Genau genommen überträgt die EU den Finanzinstituten die Verantwortung für solche Betrugsfälle gegenüber Verbrauchern. Nur wenn diese böswillig, betrügerisch oder grob fahrlässig handeln und den Schaden nicht bei der Polizei und ihrem Zahlungsdienstleister angezeigt haben, ist die Bank von der Haftung befreit.

Dr. Ernst Stahl betont: „Die PSR hingegen umfasst alle zivilrechtlichen Bestimmungen, beispielsweise zum Verbraucherschutz, zu Fristen und Haftungsfragen. Generell hat sich die EU das Ziel gesetzt, die Sicherheit von Zahlungsvorgängen zu erhöhen, den Wettbewerb zu fördern und den Zahlungsverkehr innerhalb des europäischen Wirtschaftsraums zu harmonisieren.“

 

PSD2 und PSD3 – wo liegt der Unterschied?

Der Unterschied liegt zunächst einmal in der Aufteilung der PSD2 in die PSD3 und PSR. Bei der PSR steht, wie bereits erwähnt, der Verbraucherschutz im Vordergrund. So werden einerseits die Anforderungen an die Transaktionsüberwachung und die Gefährdungshaftung der Banken ausgeweitet, andererseits soll der Kunde besser vor Betrug aller Art geschützt werden. In diesem Zusammenhang ergänzt die bereits in Kraft getretene Instant Payment Regulation (IPR) die PSR, bei der auch eine neue Sanktionslistenprüfung im Vordergrund steht. Zahlungsdienstleister müssen regelmäßig, zumindest täglich ihre Kunden mit einer zentralen, einheitlichen Sanktionsliste abgleichen. Damit soll sichergestellt werden, dass es sich bei einem Zahlungsdienstnutzer nicht um eine Person oder Einrichtung handelt, die gezielten finanziellen Restriktionen unterliegt.

Was wird sich mit der PSR (und der PSD3) ändern?

Mit der neuen PSD3/PSR wird sich einiges ändern – die EU hat die Regelungen in einer Vielzahl von Punkten noch einmal verschärft. Das schließt unter anderem die Haftung für Zahlungsdienstleister (Art. 59 PSR) oder die Einrichtung eines Dashboards für die Verbraucher, um ihre erteilten Datenzugriffsrechte an Kontoinformationsdienstleister und Zahlungsauslösedienstleister zu überprüfen und bei Bedarf zu widerrufen, ein. Für Banken sind die wichtigsten Änderungen nicht mehr in der PSD verankert – hier geht es vor allem um die Zulassung als Zahlungsinstitut und aufsichtsrechtliche Vorgaben –, sondern in der PSR. Die PSR ist damit ein logischer weiterer Schritt des Regulators, um die Verbraucherrechte zu stärken, aber auch um das Thema Open Banking weiter voranzutreiben und bestehende Hürden abzubauen. So müssen die kontoführenden Zahlungsdienstleister grundsätzlich dedizierte Schnittstellen (APIs), die europäischen oder internationalen Standards entsprechen, für den Datenaustausch mit Kontoinformationsdienstleistern und Zahlungsauslösedienstleistern zur Verfügung stellen. Darüber hinaus dürfen sie weiterhin keine Gebühren für den Kontozugang erheben, weder vom Kontoinhaber noch vom Zahlungsauslösedienstleister oder Kontoinformationsdienstleister. Eine starke Kundenauthentifizierung ist nur für den erstmaligen Zugriff auf die Zahlungskontodaten vorgeschrieben, danach genügt eine entsprechende Authentifizierung alle 180 Tage.

Wie wirkt sich die neue EU-Richtlinie PSD3/PSR auf Verbraucher aus?

Das Ziel der neuen PSR ist es, den Verbraucher bestmöglich zu schützen. Gleichzeitig sollen die Interessen aller EU-Bürgerinnen und -Bürger gestärkt werden. Und hier kommen auch andere geplante Gesetze ins Spiel, etwa zum Thema Bargeldakzeptanzpflicht. Einerseits streben die EU-Kommission und die Europäische Zentralbank (EZB) aus Souveränitätsgründen den digitalen Euro an. Andererseits wollen sie vor dem Hintergrund, dass rund 30 Millionen EU-Bürgerinnen und -Bürger kein eigenes Bankkonto haben, auch das Bargeld ergänzend stärken beziehungsweise verhindern, dass es irgendwann ganz verschwindet. Denn dann wären viele Menschen vom Zahlungsverkehr ausgeschlossen.

Inwieweit wird damit die Sicherheit elektronischer Zahlungsdienste verbessert?

Die Hoffnungen sind groß und die PSR sieht zahlreiche Maßnahmen für die Sicherheit elektronischer Zahlungsdienste vor. Das war auch dringend notwendig, denn mit dem Aufkommen von Künstlicher Intelligenz und neuerdings generativer KI (GenAI) haben sich für Cyberkriminelle völlig neue Möglichkeiten eröffnet, ihre Angriffstechniken zu verfeinern. Tools wie ChatGPT sind wie eine „Steroidpille“ für Betrüger – schlimmer noch, sie erleichtern den Einstieg in kriminelle Machenschaften aller Art. So lassen sich relativ schnell und einfach Phishing-Mails und -Websites – neuerdings auch physische Briefe mit einem Phishing-QR-Code – erstellen, die von einer echten Servicemeldung an den Bankkunden nicht mehr zu unterscheiden sind. Aus Sicht der Betrüger ist KI auch ein nützliches Werkzeug für den sogenannten „unfreiwilligen“ Betrug. Das bedeutet, dass die Kunden selbst den Hackern Tür und Tor öffnen, indem sie beispielsweise eine manipulierte Kartendublette in einer Wallet wie Apple oder Google Pay aktivieren. Geschicktes Prompting, also der Einsatz von GenAI-Tools, ist aber nur ein Aspekt – ein anderer ist der digitale Identitätsbetrug. Mit KI lassen sich Fake-Accounts mit synthetischen Identitätsattributen und Fotos erstellen und durch Bots extrem skalieren. Gleichzeitig garantiert eine variierende Tarnung die notwendige Ablenkung. Diesen Möglichkeiten, die KI den Kriminellen bietet, will die EU verstärkt einen Riegel vorschieben und auch die Zahlungsdienstleister stärker in die Verantwortung nehmen, da diese in ihren Augen Betrugsmuster und -versuche leichter erkennen können als ein „normaler“ Verbraucher. Eines darf man aber nicht vergessen: Der Kampf gegen die Verbrecher aus dem Cyber-Raum ist immer ein Wettlauf gegen die Zeit, denn auch die Hacker rüsten ständig nach.

Wie sollten sich Plattformen, Finanzdienstleister und Unternehmen auf PSD3/PSR vorbereiten?

Banken und Zahlungsdienstleister müssen frühzeitig und proaktiv handeln, um die Einhaltung der Vorschriften sicherzustellen und damit auch ihre Wettbewerbsfähigkeit abzusichern. Das schließt die unterschiedlichsten Maßnahmen in den einzelnen vom Gesetz betroffenen Bereiche ein und damit die Anpassung der bestehenden Systeme und Prozesse. Was genau wie umgesetzt werden muss, hängt letztendlich davon ab, welche Vorgaben konkret verabschiedet werden. Gerade in Bezug auf Artikel 59 werden die Banken aller Voraussicht nach noch stärker darauf achten müssen, den Zahlungsverkehr zu kontrollieren, um Betrugsmuster zu erkennen und so ihrer Sorgfaltspflicht nachzukommen. Das Thema „Fraud“ wird deutlich an Dynamik gewinnen. Wie umfangreich die umzusetzenden Maßnahmen sein können, zeigt beispielhaft die Verification of Payee (VOP) im Rahmen der im Frühjahr in Kraft getretenen Instant Payment Regulation (IPR): Die Finanzinstitute müssen das Frontend für alle Einreichungskanäle – einschließlich Automaten – so anpassen, dass die Ergebnisse der IBAN-Namensprüfung angezeigt werden und der Kunde gegebenenfalls eine Entscheidung für oder gegen die Freigabe treffen kann. Die IBAN-Namensprüfung bedeutet, dass der Absender vor der Freigabe einer Überweisung – unabhängig davon, ob es sich um eine Standardüberweisung oder eine Echtzeitüberweisung handelt – von der Empfängerbank eine Rückmeldung darüber erhält, ob der Name mit der Kontonummer übereinstimmt. Darüber hinaus müssen sie den Zahler bei festgestellten Diskrepanzen DSGVO-konform benachrichtigen. Und das sind nur ein paar der notwendigen Maßnahmen.

Gleichzeitig sollten Banken und Finanzdienstleister einige grundlegende Fragen für sich klären: Wie lassen sich die Systeme beziehungsweise Workflows anpassen, um bei weiter steigenden Transaktionszahlen Performance und Stabilität sicherzustellen? Wie sieht eine Fallback-Lösung aus, wenn Instant Payment oder ein VOP-Service nicht erreichbar ist? Wie werden Downtimes bei Releasewechsel ausgeschlossen, um jederzeit rund um die Uhr verfügbar zu sein? Welche Neben- und Umsysteme sind von den Anforderungen betroffen? Sind die Systeme darüber hinaus bereits auf kürzere Verarbeitungszeiten als zehn Sekunden ausgelegt, da ein solches Limit mit Blick auf die Zukunft nicht auszuschließen ist?

Was bedeutet die PSR-Evolution fürs Open Banking?

Die Banken werden verpflichtet, mehr Informationen mit den Zahlungsdienstleistern auszutauschen und die Infrastruktur für das Open Banking zu verbessern, um die verbleibenden Hindernisse für die Bereitstellung zu beseitigen und so den Markteintritt neuer, innovativer Dienstleistungen zu erleichtern. Bislang funktioniert das etwa bei der Öffnung der Schnittstellen nicht immer reibungslos und kundenfreundlich. Gerade beim Thema Login mit einer entsprechend starken Authentifizierung wird nachgebessert werden. Mit der PSR wird es auch hier Änderungen geben, die EU erhofft sich mehr Innovationen durch mehr Wettbewerb. Im Prinzip kann man die Entwicklung mit der Deregulierung im Telekommunikationssektor vergleichen: Früher gab es nur wenige marktbeherrschende Teilnehmer in ganz Europa. Durch die Öffnung profitieren wir heute beispielsweise vom kostenlosen Roaming. Mit der PSR sollen Bankkunden analog dazu künftig noch einfacher neue, innovative Dienstleistungen nutzen können.

Zum Autor:
Autor: Dr. Ernst Stahl (*1973) ist Head of Payments bei NTT DATA und beschäftigt sich rund um das Thema Zahlungsverkehr. Dabei steht im Zentrum, wichtige Zahlungsverkehrstrends zu verfolgen und strategisch zu bewerten. Davor war er viele Jahre Director und Gesellschafter von ibi research. Die Beratungs- und Projektschwerpunkte von Dr. Ernst Stahl sind: Zukunft des Zahlungsverkehrs im Spannungsfeld von Innovation (CDBC und CBMT, ISO 20022, RTP, ZV-Trends) und Regulierung (z. B. PSD & RTS, PSR und RPS) sowie strategisches Management. Dr. Ernst Stahl ist ferner Autor einer Vielzahl von Veröffentlichungen, Moderator und Referent zahlreicher Veranstaltungen und Kongresse sowie Dozent und Lehrbeauftragter an zahlreichen Bildungsakademien im Bereich Zahlungsverkehr.

de.nttdata.com/


CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kanzleien wollen in Prozess-Automatisierung investieren

Europäische Anwaltskanzleien geben verstärkt Geld für den Wechsel in die Cloud und die Automatisierung ihrer Arbeitsprozesse aus.

 

Karlsruhe,  Oktober 2024 – Die meisten europäischen Anwaltskanzleien sehen in der Cloud eine wichtige Zukunftstechnologie, in die sie investieren wollen. Etwas mehr als ein Drittel (37 Prozent) der befragten Kanzleien nannten die Cloud-Migration als eine der Top-3-Prioritäten für Technologieinvestitionen. Das hat eine internationale Umfrage, der Legal Tech Report von stp.one, einem führenden Anbieter von Legal-Tech-Komplettlösungen, herausgefunden.

Aber auch die Verbesserung bestehender Workflows steht auf der Investitionsagenda. Knapp die Hälfte (49 Prozent) der 1.250 in Deutschland, Österreich, der Schweiz, Benelux, Italien, Frankreich und Spanien befragten Kanzleien gab an, in die Automatisierung von Arbeitsabläufen zu investieren. Damit möchten die Anwaltskanzleien einerseits dem Fachkräftemangel etwas entgegenstellen und sich gleichzeitig für zukünftige Herausfoderungen wappnen. Etwa ein Drittel (36 Prozent) sagte, bis 2028 vorrangig in die Automatisierung der Dokumenten- und Vertragserstellung zu investieren. Und das soll erst der Anfang sein, denn langfristig können sich viele Kanzleiveranwortliche sogar vorstellen ein CRM-System einzuführen, um ihren Mandanten noch bessere Dienstleistungen bieten zu können. Hinzukommt, dass laut Legal Tech Report immer mehr Rechtsanwälte auf den Einsatz von BlockChain- und Smart-Contract-Technologien setzen wollen.

Cloud first

Voraussetzung für all das ist, dass die Anwaltskanzleien in einem ersten Schritt in die Cloud wechseln. In der Befragung gaben 90 Prozent der kleinen Kanzleien an, dass die Cloud-Migration bei ihnen auf der Prioritätenliste ganz vorne stehe. Anders sieht das bei den Großkanzleien aus. Bei ihnen priorisieren nur 20 Prozent den Wechsel in die Cloud, was damit zusammenhängen kann, dass in größeren Kanzleien schon länger auf Cloud-Technologie gesetzt wird. Geht man bei der Frage nach den geplanten Legal-Tech-Investitionen weiter in die Tiefe und in den Ländervergleich, zeigt sich, dass sich die Prioritäten international ähneln – es gibt nur wenige Ausnahmen. So wollen in eine automatisierte Konfliktprüfung 43 Prozent der deutschen Anwälte investieren, gegenüber durchschnittlich 30 Prozent. 37 Prozent der Kanzleien in Deutschland haben zudem vor, für die Datensicherheit und Verschlüsselung Geld auszugeben – das sind 10 Prozent mehr als der Durchschnitt.

Die Schweiz setzt auf Sicherheit – Österreich auf Zusammenarbeit

46 Prozent der Schweizer Kanzleien sagten, dass Investitionen in die IT-Sicherheit von zentraler Wichtigkeit sind und 24 Prozent sahen in der Datensicherheit und Verschlüsselung eine große Priorität. In Österreich wollen 34 Prozent der Kanzleien in die IT-Sicherheit investeren – hier spielt das Dokumentenmanagement mit 38 Prozent eine wichtigere Rolle. Aber auch die Investition in Cloud-Lösungen, die die Zusammenarbeit mit den Mandanten verbessern, steht bei den Österreichern (42 Prozent) und Schweizern (32 Prozent) auf der Agenda.

Mehr Informationen zum Legal Tech Report unter: Legal Tech Report 2024 (stp.one)

Über die STP Informationstechnologie GmbH

Die stp.one, mit Hauptsitz in Karlsruhe, ist einer der führenden Anbieter von Legal-Tech-Komplettlösungen, welche die Digitalisierung von Kanzleien, Insolvenzverwaltern und Rechtsabteilungen vorantreiben. Das Unternehmen bietet eine vollständig integrierte Legal-Tech-Plattform, die Workflow-Automatisierung, KI-basiertes Dokumentenmanagement, ERP-Software, Daten-Management sowie spezialisierte, softwaregestützte Outsourcing-Dienstleistungen umfasst. Contract Lifecycle-, Matter- und Knowledge-Management Lösungen gehören ebenfalls zum umfangreichen Portfolio, das tief in die Rechtsberatung, Insolvenz- und wirtschaftsrechtlichen Ökosysteme eingebettet ist.

stp.one beschäftigt über 375 Mitarbeiter an 10 Standorten und versorgt mehr als 7.000 Kunden mit Software und relevanten Dienstleistungen für ihren täglichen Arbeitsablauf.

Mehr Informationen unter: stp.one

Insolvenzen 2020 bis 2024: Wo steht die deutsche Wirtschaft aktuell?

Lübeck, Oktober 2024. Viele Meldungen berichten von Insolvenzen und erwecken den Eindruck, 2024 sei an Unternehmensaufgaben kaum zu überbieten. Aber ist dem so? Wirtschaftsinformationsanbieter databyte verfolgt die Entwicklungen am deutschen Markt, vergleicht die im Handelsregister verzeichneten Insolvenzen der Jahre 2020 bis heute und ordnet ihnen Bundesländer und Branchen zu.

 

Von Jahr zu Jahr
Die ersten drei Quartale 2024 verzeichneten bereits mehr Insolvenzen als die gesamten Jahre 2021 oder 2022: Bisher verbucht dieses Jahr 8.552 Konkurse, 2021 7.899 und 2022 8.170. Voraussichtlich zieht 2024 mindestens gleich mit 2020 und seinen insgesamt 9.526 Insolvenzen. Es bleibt abzuwarten, ob 2023 mit 10.477 Firmenpleiten seinen Platz als Rekordjahr dieses Jahrzehnts verteidigt.

Bundeslandvergleich

Die größten Bundesländer mit den meisten Unternehmen weisen verständlicherweise auch die meisten Konkurse auf: Nordrhein-Westfalen, Bayern und Baden-Württemberg verzeichnen in dieser Reihenfolge die meisten Insolvenzen. Von 2020 bis zum dritten Quartal 2024 verbucht NRW 10.628, Bayern 6.460 und BaWü 4.610 Konkurse, wobei Niedersachsen mit 4.039 nahe an das Treppchen heranreicht. Die wenigsten Bankrotte der letzten knapp vier Jahre erfasst das Saarland mit nur 491 Unternehmensaufgaben.

Interessante Entwicklungen durchlief beispielsweise Mecklenburg-Vorpommern, das von 2021 auf 2022 einen Insolvenzanstieg von 78 % hinnehmen musste. Auch das darauffolgende Jahr steigerte seine Konkurszahlen, 2024 jedoch könnten die Insolvenzen wieder sinken. Positiv steht es weiterhin für Bremen. Aktuell verbucht das Handelsregister hier 45 % weniger Illiquidität im Vergleich zum letzten Gesamtjahr. Ähnlich sieht es auch für das Saarland und Schleswig-Holstein aus mit einem Minus von je 33 %.

Nach Branchen

Auch im Branchenvergleich bestimmt die Größe die Anzahl der Insolvenzen. So beansprucht der Großhandel bei den Insolvenzen die Pole Position. Auf Platz zwei folgen vorbereitende Baustellenarbeiten, Bauinstallation und sonstiges Ausbaugewerbe. Auf Position drei und vier nah beieinander: Verwaltung und Führung von Unternehmen und Betrieben inklusive Unternehmensberatungen sowie der Einzelhandel. Die letzten beiden Branchen zählten noch vor zwei Jahren weit unter 1.000 Insolvenzen pro Jahr, 2024 sind es bereits 1.079 und 1.048.

Um frühzeitig auf Veränderungen am Markt reagieren zu können und mit entsprechenden Angeboten zu unterstützen, greifen Unternehmen auf Lösungen zurück, die möglichst aktuell das Marktgeschehen abbilden. Die Business Engine beispielsweise zeigt sowohl Neugründungen als auch Insolvenzen einzelner Unternehmen, aber auch ganzer Branchen. So bleiben Unternehmenslenker und Beobachter stets informiert.

www.databyte.de

 

DVR startet Aufklärungskampagne zu Cannabis im Straßenverkehr

„High lässt fahren“ mit prominenter Unterstützung

 

High fährt nicht – high lässt fahren. Das ist der Appell der neuen Präventionskampagne des Deutschen Verkehrssicherheitsrats (DVR), die am 09. Oktober 2024 in Berlin gestartet ist. Die Kampagne richtet sich insbesondere an die Hochrisikogruppe junger Verkehrsteilnehmender, um sie über die Gefahren von Cannabis im Straßenverkehr aufzuklären. Denn laut einer aktuellen DVR-Umfrage kennt die Hälfte der 18-24-Jährigen das absolute Konsumverbot für junge Fahrende nicht. 40% der Befragten geben an, aufgrund der Legalisierung mehr kiffen zu wollen.

Dazu sagt Manfred Wirsch, Präsident des DVR: „Wir gehen davon aus, dass die Anzahl der Cannabis-Konsumenten und damit auch Verkehrsunfälle unter Cannabis-Einfluss zunehmen werden. Der Anteil junger Menschen an schweren Verkehrsunfällen liegt schon heute über dem Durchschnitt, so wie auch der Konsum von Cannabis. Umso besorgniserregender ist ihre Wissenslücke bei den gesetzlichen Regeln und der Beeinträchtigung der Fahrtüchtigkeit. Unsere Kampagne soll einen Beitrag zur dringend notwendigen Aufklärung leisten.“

Die Kampagne startet mit prominenter Unterstützung: Schauspieler Wotan Wilke Möhring, der sich für den medizinischen Einsatz von Cannabis engagiert, erklärte heute zum Kampagnenauftakt: „Nach der Legalisierung von Cannabis ist es zu einer großen Verunsicherung gekommen – Darf ich kiffen und dann Autofahren? Wie lange soll ich mit dem Fahren warten, wenn ich gekifft habe? Hier fehlte in der Öffentlichkeit eine klare Linie und diese Präventionskampagne vermittelt sie.“

Weitere prominente Fürsprecher der Kampagne sind der Content-Creator Jonas Ems, der die Kampagne aktiv mit Social-Media-Inhalten begleiten wird, und Schauspielerin Kristin Meyer, die den Audiospots ihre Stimme verliehen hat.

Den dringenden Aufklärungsbedarf belegt eine repräsentative Civey-Umfrage im Auftrag des DVR. Demnach weiß die Hälfte der 18-24-Jährigen nicht, dass während der Führerschein-Probezeit und unter 21 Jahren ein absolutes Konsumverbot gilt. Zudem kennt eine Mehrheit von rund 60 Prozent der Befragten die empfohlene Wartezeit von 24 Stunden zwischen Cannabis-Konsum und Verkehrsteilnahme nicht. Damit fehlt dieses Wissen rund 3,7 Millionen jungen Menschen.

Die Kampagne wird mit Unterstützung der Deutschen Gesetzlichen Unfallversicherung (DGUV) umgesetzt. Weitere Partner sind der Bundesverband Deutscher Omnibusunternehmen e. V. (bdo) und der Bund gegen Alkohol und Drogen im Straßenverkehr (BADS e. V.). Die Kampagneninhalte werden online und auf Social Media sowie bundesweit im Kino, Hörfunk und auf digitalen Plakaten veröffentlicht. Die Kampagne selbst ist vorerst für eine Laufzeit von zwei Jahren angelegt.

Weiterführende Informationen

Steuerbare Verbrauchseinrichtungen sind der Schlüssel zur Dekarbonisierung

PRESSEMITTEILUNG

Will Deutschland klimaneutral werden, gibt es besonders in den Sektoren Gebäude und Verkehr erhebliche Herausforderungen. In Deutschland sollen fossile Heizungen und Kraftfahrzeuge durch elektrische Systeme ersetzt werden. Damit die Niederspannungsnetze nicht überlasten, werden Wärmepumpen und Wallboxen, also private Kfz-Ladestationen, zu steuerbaren Verbrauchseinrichtungen. Was das bedeutet, zeigt Martin Brandis, Experte von der Energieberatung der Verbraucherzentrale, mit einem Überblick.

Was bedeutet steuerbare Verbrauchseinrichtung?

Bei einer erheblichen Zunahme elektrischer Verbraucher in den örtlichen Verteilnetzen muss verhindert werden, dass die Netze zeitweise überlastet werden. Deshalb dürfen örtliche Verteilnetzbetreiber im Notfall Zugriff auf steuerbare Verbrauchseinrichtungen nehmen. Und zwar aus der Ferne. Schon bei bisherigen Wärmepumpen oder Nachtspeicherheizungen durfte der Netzbetreiber zwar die Stromzufuhr zeitweise unterbrechen. Neu bei den Regelungen zu steuerbaren Verbrauchseinrichtungen ist aber, dass die Stromzufuhr nur noch reduziert, aber nicht mehr unterbrochen werden darf. „Die Bundesnetzagentur hat Regelungen für steuerbare Verbrauchseinrichtungen festgelegt, um diese sicher, aber auch schnell ins Stromnetz zu integrieren“, erläutert Martin Brandis. Auch die Interessen der
Verbraucherinnen und Verbraucher spielen bei den Regelungen eine Rolle.

Die neuen Regelungen fasst Martin Brandis im Kern zusammen:

  • Verzögerungsfreier Netzanschluss: Netzbetreiber dürfen den Anschluss von Wärmepumpen oder privaten Ladeeinrichtungen für Elektroautos nicht mehr mit Verweis auf mögliche lokale Überlastungen ablehnen oder verzögern.
  • Temporäre Reduzierung der Stromzufuhr: Bei drohender Überlastung kann der Netzbetreiber den Strombezug steuerbarer
    Verbrauchseinrichtungen temporär “dimmen”. Eine Mindestleistung von 4,2 Kilowatt bleibt dabei aber stets verfügbar: Wärmepumpen können bei niedrigerer Leistung weiter betrieben und Elektroautos in aller Regel in zwei Stunden für etwa 50 Kilometer Strecke nachgeladen werden.
  • Wallbox und Wärmepumpe dürfen auch mehr beziehen, wenn dieser Strom aus einer eigenen Photovoltaikanlage kommt.
  • Neben Wärmepumpen und Wallboxen zählen außerdem Klimaanlagen und stationäre Batteriespeicher zu den steuerbaren
    Verbrauchseinrichtungen, deren Stromzufuhr aus den örtlichen Stromnetzen gedimmt werden darf. Der normale Haushaltsstrom ist
    von den Regelungen aber nicht betroffen.
  • Verbraucherinnen und Verbraucher müssen weniger Netzentgelte bezahlen. Die Reduzierung erfolgt pauschal oder prozentual als
    verringerter Strompreis. Ab April 2025 kann in Kombination mit der pauschalen Reduzierung des Netzentgelts ein zeitvariables Netzentgelt gewählt werden. Wer dann z. B. das Laden seines Elektroautos in die Nachtstunden mit weniger Netzauslastung verschiebt, spart dadurch Geld. Netzentgeltreduzierungen müssen beim Netzbetreiber beantragt werden.Martin Brandis geht davon aus, dass das Fernsteuern der Netzbetreiber nur selten und temporär erfolgt, und viele Haushalte davon keine Einschränkungen merken werden. Zudem verfügen Wärmepumpenheizungen über Wärmespeicher, und Wallboxen laden lediglich langsamer.Damit die betreffenden Anlagen als steuerbare Verbrauchseinrichtungen funktionieren, bedarf es Änderungen an den elektrischen Anlagen. So müssen diese mit intelligenten Messsystemen, Smart Meter genannt, ausgestattet werden. Außerdem bedarf es einer Steuerbox, auf die der Verteilnetzbetreiber zugreifen kann. Die Ausstattung mit der notwendigen Technik wird beim Netz- oder Messstellenbetreiber beauftragt.Haushalten mit mehreren steuerbaren Verbrauchseinrichtungen, z. B. Wärmepumpe und Wallbox oder mit Eigenerzeugung von Strom aus einer Photovoltaikanlage empfiehlt Martin Brandis den Einsatz eines Heim – Energiemanagementsystems, das Verbrauch, Speicherung und Erzeugung im Haus überwacht und steuert.

    Martin Brandis weist abschließend darauf hin, dass diese Regelungen für alle Wärmepumpen, Wallboxen, Klimaanlagen und Batteriespeicher mit mehr als 4,2 Kilowatt elektrischer Leistung und mit Inbetriebnahme nach dem 1. Januar
    2024 gelten. Für Anlagen, die schon davor als steuerbare Verbrauchseinrichtungen in Betrieb waren, ändert sich für die betreffenden
    Haushalte zunächst nichts. Nach einer Übergangsfrist, die spätestens am 31. Dezember 2028 endet, müssen auch diese Anlagen den neuen Regeln für steuerbare Verbrauchseinrichtungen folgen. Anlagen, die vor 2024 mit Haushaltsstrom versorgt wurden, müssen auch später den Regeln für steuerbare Verbrauchseinrichtungen nicht folgen und können auch nicht gedimmt werden.

    Haushalte können freiwillig bestehende Wärmepumpen oder Wallboxen beim Netzbetreiber als steuerbare Verbrauchseinrichtungen anmelden und so das geringere Netzentgelt beanspruchen.

    Wer nicht weiß, wer der zuständige Netzbetreiber in seiner Gemeinde ist, findet diese Information auf der gemeinsamen Plattform der Verteilnetzbetreiber www.vnbdigital.de.

 

www.verbraucherzentrale-energieberatung.de