Damit der CO2-Fußabdruck pro Fahrzeug künftig um mindestens 25 Prozent sinkt

ZEvRA entwickelt Lösungen für ein kreislauffähiges elektrisches Fahrzeug und erhöht den Einsatz recycelter Werkstoffe

Bis 2035 sollen nach EU-Vorgaben Neufahrzeuge nahezu vollständig aus recycelten, überarbeiteten, umfunktionierten, reparierten oder wiederverwendeten Teilen stammen und der Verbrauch neuer Rohstoffe für die PKW-Produktion gegen Null gehen. Das entspricht einer Einsparung von über 1,5 Tonnen Material pro Fahrzeug. Dabei müssen Neufahrzeuge auch künftig alle Anforderungen hinsichtlich der Crashsicherheit erfüllen und den Qualitätsansprüchen der Kunden genügen. Unter Federführung des Fraunhofer IWU zeigt ein Konsortium aus 28 europäischen Partnern, darunter fünf Automobilhersteller, im EU-Projekt ZEvRA nun Wege in eine konsequent ressourcenschonende Produktion auf. Die Partner wollen auf Basis eines beliebten Serienmodells von Skoda virtuell ein Circular Car Concept entwickeln; zu Demonstrationszecken werden sie ein Fahrzeug mit Teilen aus recycelten Werkstoffen aufbauen, die den Kriterien der Kreislaufwirtschaft entsprechen.

Seit vergangenem Jahr steht fest, dass ab 2035 in der EU nur noch Neufahrzeuge verkauft werden dürfen, deren Betrieb keine CO2-Emissionen verursacht. Damit die Klimabilanz batterieelektrisch angetriebener Fahrzeuge stimmt – ihre Produktion ist mit einem deutlich höheren CO2-Ausstoß verbunden als die Herstellung von Autos mit Benzin- oder Dieselantrieb – muss die gesamte Wertschöpfungskette betrachtet werden: von der Materialbereitstellung und der Herstellung bis zu den Prozessen am Ende des Produktlebens. Zu diesem Zweck wird ZEvRA eine Methodik für zirkuläres Design und eine ganzheitliche Kreislaufbewertung entwickeln. Betrachtet werden die wichtigsten Materialien, die mehr als 84 Prozent im Materialmix eines typischen Elektrofahrzeugs abdecken: Stahl, Aluminium (gewalzt, gegossen und geschäumt), Thermoplast-Verbundstoffe, Kunststoffe, Glas, Reifen und Seltene Erden. Die erarbeiteten Lösungen werden durch eine Reihe von digitalen Tools unterstützt, um Kreislauffähigkeit, Rückverfolgbarkeit und die virtuelle Integration von Komponenten in ein vollständig reproduzierbares Fahrzeug sicherzustellen. Dank ZEvRA soll der CO2-Fußabdruck pro Fahrzeug künftig um mindestens 25 Prozent sinken.

Aus alt mach neu‹–Anteil erreicht bei einigen Materialgruppen 100 Prozent

Damit das Ziel von Fahrzeugteilen ohne neue Rohstoffe erreichbar bleibt, müssen zahlreiche Materialien ein hundertprozentige Wiederverwendungsquote erfüllen. Dies gilt beispielsweise für Stahl und sämtliche Aluminiumlegierungen bei gewalzten, gegossenen und Aluminiumschaumteilen. Selbst für die Herstellung neuer Reifen sollen nahezu ausschließlich Sekundärrohstoffe zum Einsatz kommen – auch bei der Lauffläche. Bereits heute ist klar: Zirkuläres Design, also die Berücksichtigung von Wiederaufbereitungskriterien bereits in der Entwicklung neuer Teile, leistet den wichtigsten Beitrag zu einer verträglichen Umwelt- und Klimabilanz.

© KI-generiertes Bild / Adobe Firefly

Bei einer niedrigen Wiederverwertungsquote von Altteilen gehen wertvolle Ressourcen verloren. ZEvRA wird Wege aufzeigen, wie dieser Anteil bei (batterie-)elektrischen Fahrzeugen gesteigert werden kann.

 

 

ZEvRA: starke Allianz für eine Kreislaufwirtschaft in der europäischen Automobilindustrie

Im EU-Projekt ZEvRA (Zero Emission electric vehicles enabled by haRmonised circulArity, etwa » Null-Emissions-Elektrofahrzeuge dank harmonisierter Kreislaufwirtschaft«) haben sich PKW-Hersteller wie Volkswagen, Skoda, Stellantis (u.a. Peugeot, Citroën, Opel) und große Zulieferer (u.a. Faurecia, Continental) ehrgeizigen Nachhaltigkeitszielen verschrieben. Wichtige Erkenntnisse und Ergebnisse des bis Ende 2026 terminierten Projekts können so breit in der Automobilindustrie verankert werden und Wirkung entfalten. Die vollständige Liste der Projektpartner ist hier abrufbar.

Kernkompetenz Ressourceneffizienz: das Fraunhofer IWU koordiniert ZEvRA

Der Schwerpunkt der Forschungs- und Entwicklungsleistungen des Chemnitzer Instituts liegt auf der Energie- und Ressourceneffizienz im produzierenden Gewerbe. Im Bereich Kreislaufwirtschaft arbeitet es an den konstruktiven und herstellungsseitigen Voraussetzungen für ein zweites oder drittes Produktleben möglichst vieler Erzeugnisse. Bei ZEvRA bringt das IWU sein umfangreiches Know-How in Repurposeprozessen für Stahlbauteile, der Nutzung von Aluminiumrezyklaten für Knet-, Guss- und Schaumbauteile sowie der konstruktionsbegleitenden Kreislaufbewertung von Bauteilen ein.

Aufmacherbild / Quelle / Lizenz
Bild von Vicki Hamilton auf Pixabay

Immobilienmarkt seit 2015

Immobilienmarkt seit 2015: Auf und Ab der Immobilienpreise und unaufhaltsamer Anstieg von Bau-, Material- und Arbeitskoste

  • Zwischen 2015 und dem Beginn der Pandemie im März 2020 stiegen die Immobilienpreise in Berlin mit 65,1 Prozent am stärksten, gefolgt von Hamburg mit 62 Prozent und Leipzig mit 61,2 Prozent
  • Besonders auffällig ist, dass vom Beginn der Pandemie im März 2020 bis zum Beginn des Ukraine-Kriegs im Februar 2022 die Materialkosten mit 20,3 Prozent und die Baukosten mit 16,2 Prozent wesentlich stärker gestiegen sind als in den fünf Jahren zuvor
  • Vom Beginn des Ukraine-Kriegs im Februar 2022 bis zur ersten Leitzinserhöhung im Juli 2022 fielen die Immobilienpreise erstmals nach einer zwölfjährigen Boomphase: Innerhalb von nur fünf Monaten sanken die Quadratmeterpreise in Düsseldorf und Stuttgart um jeweils -5,3 Prozent, in Frankfurt am Main um -5,1 Prozent, in München um -3,9 Prozent und in Hamburg um -2,8 Prozent

Die Jahre 2020 bis 2023 waren geprägt von einer Vielzahl an Ereignissen und einer starken Volatilität, die auch den Immobilienmarkt und die damit verbundenen Kosten in der Baubranche maßgeblich beeinflusst haben. Doch wie stark haben sich Immobilienpreise und Baukosten im Vergleich zu 2015 wirklich verändert? Die VON POLL IMMOBILIEN Experten haben die Entwicklung der Immobilienpreise1 in den A-Städten sowie die Veränderungen der Bau-, Material- und Arbeitskosten2 in Deutschland verglichen. Dafür haben sie die Jahre seit 2015 in vier bedeutende Zeitabschnitte unterteilt: von 2015 bis zum Beginn der Corona-Pandemie im März 2020, vom Beginn der Pandemie bis zum Beginn des Ukraine-Kriegs im Februar 2022, vom Beginn des Ukraine-Kriegs bis zur ersten Erhöhung des Leitzinses durch die Europäische Zentralbank (EZB) im Juli 2022 und schließlich vom Zeitpunkt der ersten Leitzinserhöhung der EZB bis Dezember 2023. 

„In den Jahren vor der Pandemie erlebte der deutsche Immobilienmarkt eine Phase des Aufschwungs und starken Wachstums. Eine robuste Wirtschaftsentwicklung, niedrige Zinsen und eine hohe Nachfrage nach Wohnraum – insbesondere in den Ballungszentren – trugen zu einem kontinuierlichen Anstieg der Immobilienpreise bei. Gleichzeitig wuchsen die Arbeits-, Material- und somit die Baukosten insgesamt relativ moderat, was die Rentabilität von Immobilienkäufen und Bauprojekten ermöglichte“, erinnert sich Daniel Ritter, geschäftsführender Gesellschafter von VON POLL IMMOBILIEN. Und weiter: „Der Ausbruch der Pandemie im März 2020 stellte eine unerwartete Herausforderung dar, die auch den Immobilienmarkt und die Baubranche in Deutschland grundlegend veränderte. Die damit verbundenen Lockdown-Maßnahmen führten zu starken Preiserhöhungen in der Baubranche aufgrund globaler Störungen der Lieferketten. Allerdings hat das Thema Wohnen für die Menschen in dieser Zeit auch einen neuen Stellenwert bekommen und die Preisentwicklung bei Häusern und Eigentumswohnungen zusätzlich beflügelt.“

Zwischen 2015 und dem Beginn der Pandemie im März 2020 stiegen die Immobilienpreise am stärksten in Berlin mit 65,1 Prozent, gefolgt von Hamburg mit 62 Prozent und Leipzig mit 61,2 Prozent. München verzeichnete einen Preisanstieg bei Wohnimmobilien um 60 Prozent. Zwischen 50 Prozent und 54,1 Prozent stiegen die Immobilienpreise in Stuttgart mit 50,7 Prozent, in Köln mit 52,8 Prozent und Frankfurt am Main mit 54,1 Prozent. Den geringsten Preisanstieg in diesen rund fünf Jahren verzeichnete Düsseldorf unter den A-Städten, wo sich die Quadratmeterpreise um 43,4 Prozent erhöhten.

Ein Blick auf die Baubranche von 2015 bis März 2020 zeigt dagegen eine moderate Entwicklung in diesen fünf Jahren. Hier stiegen die Materialkosten lediglich um 9,1 Prozent, die Baukosten insgesamt um 12,4 Prozent sowie die Arbeitskosten um 18,3 Prozent.

Im Zeitraum zwischen Pandemie-Beginn im März 2020 und dem Ausbruch des Ukraine-Kriegs im Februar 2022 hat sich das Bewusstsein zum Thema Wohnen deutlich verändert. Das zeigt auch die Entwicklung der Immobilienpreise, die in diesen zwei Jahren deutlich an Fahrt aufgenommen haben. Am stärksten stiegen die Quadratmeterpreise bei Wohnimmobilien innerhalb dieser zwei Jahre in Düsseldorf mit 33,9 Prozent, gefolgt von Hamburg mit 32 Prozent und Leipzig mit 23,5 Prozent. Kaufinteressenten in Köln mussten mit einer Preissteigerung in Höhe von 21,9 Prozent rechnen, in Frankfurt am Main mit 20,7 Prozent. Unter 20 Prozent stiegen die Preise dagegen in Berlin mit 19,4 Prozent, in Stuttgart mit 19 Prozent und München mit 17 Prozent.

Besonders auffällig ist, dass vom Beginn der Pandemie bis zum Beginn des Ukraine-Kriegs die Materialkosten mit 20,3 Prozent und auch die Baukosten insgesamt mit 16,2 Prozent wesentlich stärker angestiegen sind als in den fünf Jahren zuvor. Die Arbeitskosten sind in dieser Zeit um 10,4 Prozent gestiegen.

Klicken Sie auf das BIld und erhalten Sie die interaktive Tabelle

https://www.datawrapper.de/_/6AHSY/

„Der Beginn des Ukraine-Kriegs im Februar 2022 markierte einen Wendepunkt für den Immobilienmarkt, denn die geopolitische Krise führte zu einem Anstieg der Material- und Baukosten insgesamt, insbesondere bei essenziellen Rohstoffen wie Stahl und Holz. Gleichzeitig verunsicherte die Situation in der Ukraine viele Immobilienkäufer, die Nachfrage nach Wohneigentum ging fast überall in Europa zurück, die Niedrigzinsphase endete abrupt und die Immobilienpreise gaben im Spätsommer 2022 erstmals leicht nach“, erläutert Daniel Ritter von VON POLL IMMOBILIEN. Er fügt hinzu: „Die erste – allerdings bereits erwartete – Erhöhung des Leitzinses im Juli 2022 verschärfte die Situation zusätzlich, da zur Verunsicherung und Kaufzurückhaltung die geldpolitische Straffung eine zahlungskräftige Käuferklientel verkleinerte, was sich dämpfend auf die Preisentwicklung bei Wohnimmobilien auswirkte. Gleichzeitig stiegen die Arbeitskosten stark an, aber auch die Bau- und Materialkosten kletterten weiter in die Höhe, was die Rentabilität von Immobilien- und Bauprojekten zusätzlich verschlechterte.“

Die Auswirkungen des Ukraine-Kriegs veränderten den Immobilienmarkt massiv. In einigen Großstädten fielen die Preise bei Wohnimmobilien erstmals nach einer fast zwölfjährigen Boomphase. Innerhalb von nur fünf Monaten – also bis zur ersten Leitzinserhöhung im Juli 2022 – sanken die Quadratmeterpreise in Düsseldorf und Stuttgart um jeweils -5,3 Prozent, in Frankfurt am Main um -5,1 Prozent, in München um -3,9 Prozent und in Hamburg um -2,8 Prozent. Lediglich in Köln mit 7,3 Prozent, Leipzig mit 2,4 Prozent und Berlin mit 1,5 Prozent legten die Kaufpreise für Immobilien leicht zu.

Zu einer Verteuerung kam es in diesem Zeitraum, zwischen Februar 2022 und Juli 2022, bei den Material- und Baukosten insgesamt – bei Materialkosten um 9,9 Prozent, bei Baukosten um 6,6 Prozent. Die Arbeitskosten erhöhten sich nur moderat mit 1,5 Prozent.

Die erste Leitzinserhöhung im Juli 2022 verschärfte die Situation in der Immobilien- und Baubranche und schränkte die Nachfrage weiter ein, was zu einem weiteren, teilweise starken Rückgang der Immobilienpreise bis Ende 2023 führte. In sechs von acht A-Städten fielen die Preise im zweistelligen Prozentbereich. Lediglich in Berlin mit -3,5 Prozent und in Stuttgart mit -6,5 Prozent reduzierten sich die durchschnittlichen Quadratmeterpreise nur im einstelligen Prozentbereich. Besonders stark fielen in diesem Zeitraum die Preise für Wohneigentum in Düsseldorf mit -15,8 Prozent gefolgt von Köln mit -15,6 Prozent und München mit -13,1 Prozent. Auch in Leipzig mit -12,4 Prozent, Hamburg mit -12,2 Prozent und Frankfurt am Main mit -11,2 Prozent gingen die Quadratmeterpreise um mehr als 10 Prozent zurück.

Nach einem kurzen Aufbäumen pendelten sich die Kosten für Arbeitskräfte beziehungsweise die Baukosten insgesamt auf einem erhöhten Niveau ein, legten aber auch nochmal um 3,7 Prozent beziehungsweise 2,2 Prozent zu. Die Kosten für Materialien beim Wohnungsbau stagnierten mit -0,5 Prozent ebenso auf hohem Niveau.

„Zusammenfassend lässt sich sagen, dass die Immobilienpreise seit Anfang 2022 sichtlich gesunken sind. Allerdings stellen die gestiegenen Material-, Arbeitskosten und somit Baukosten insgesamt weiterhin eine erhebliche finanzielle Belastung für Immobilien- und Bauprojekte dar“, erklärt Daniel Ritter von VON POLL IMMOBILIEN. Und weiter: „Ob der Bau oder Kauf einer Immobilie unter diesen Bedingungen noch möglich ist, hängt von individuellen Faktoren der Immobilie Lage sowie Zustand und der persönlichen Situation der Käufer oder Bauherren ab. Die Nachfrage nach Wohnraum wird jedoch weiterhin hoch bleiben beziehungsweise wieder steigen, getrieben von einer wachsenden Bevölkerung und dem anhaltenden Interesse an Immobilien als Sicherheit, Vermögenswert und Altersvorsorge.“

Alle Daten und Grafiken : www.von-poll.com

Die Datengrundlage der Immobilienpreisanalyse beruht auf den German Real Estate Index (GREIX), der auf Angaben der Gutachterausschüsse basiert, das heißt, die Preisentwicklung der tatsächlich stattgefundenen Transaktionen bei Wohnimmobilien in den A-Städten von 2015 bis 2023 darstellt und von VON POLL IMMOBILIEN Research bereinigt wurde. 

Als Datengrundlage für die Analyse der Bau-, Material-, und Arbeitskosten dienten die Auswertungen des Statistischen Bundesamts und von VON POLL IMMOBILIEN Research (2024). Unter dem Begriff „Baukosten insgesamt“ fallen, laut Statistischen Bundesamt, die bei einem Bauvorhaben eines Wohngebäudes eingesetzten Arbeits- und Materialkosten, daneben aber auch Kosten für Ausrüstung, Energie, Betriebsstoffe, Bauhilfsstoffe und sonstige Kostenfaktoren an. Unter „Materialkosten“ ist die Preisentwicklung für Baumaterialien gemeint, die beim Bau von Wohngebäuden typischerweise verarbeitet werden. Der Arbeitskostenindex wiederum gibt die Entwicklung der gesamten „Arbeitskosten“ aller im Baugewerbe beschäftigten Arbeitnehmer in Deutschland wieder.

 

 

Aufmacherbild / Quelle / Lizenz
Bild von Artrur Pflanz auf Pixabay

Übersicht zur neuen Executive Order

Implikationen der Executive Order des Weißen Hauses: eine vollumfängliche amerikanische Überwachung der mächtigen KI?

Für die Verarbeitung von Daten nutzen User und Unternehmen tagtäglich U.S.-Clouddienste. Oder amerikanische Rechendienstleistungen, um eigene Daten oder Daten aus den Datenzentren der Kunden an andere Datenzentren zu senden, dort zu verarbeiten, und anschließend wieder fertig verarbeitet entgegenzunehmen. Neben diesen Datendienstleistungen werden U.S.-Clouddienste genutzt, um Rechenleistungen für KI-Modelle zu beziehen. Am 30. Oktober 2023 erließ das Weiße Haus die „Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence“.  Dies ist ein einschlägiges Gesetz, welches unter anderem den U.S.-Clouddiensten weitere Transparenzpflichten auferlegt, die auch weltweit Unternehmen und Kunden betreffen. Nachfolgend wird eine Übersicht zu dieser Executive Order gegeben und ein kritischer Punkt hervorgehoben.

 

Grundstruktur der Executive Order

Solch eine (amerikanische) „Executive Order“ hat die Macht einer „Rechtskraft“ und enthält verbindliche normative Vorgaben. In dieser Durchführungsverordnung sind drei allgemeine Konzepte zu finden: (1) Qualitätsanforderungen (siehe Abbildung 1 unten vor allem Abschnitte 4 und 9), (2) Maßnahmen für die Sicherung von US-Arbeitsplätzen (siehe Abbildung 1 unten vor allem Abschnitte 5 und 6), (3) Überwachung von Ressourcen, die KI produzieren (siehe Abbildung 1 unten in Gelb markiert). Die einzelnen Konzepte werden kurz beleuchtet.

 

Abbildung 1 – Abschnittübersicht der Executive Order, entnommen aus Originaltext der Executive Order

Gleich zu Beginn steht fest, dass KI sicher und geschützt sein muss. Dies soll durch Robustheit, Zuverlässigkeit, Wiederholbarkeit und standardisierte Auswertungen der jeweiligen KI-Systeme erreicht werden (Konzept 1). Darüber hinaus spiegeln Investitionen in KI-bezogene Bildung und die Unterstützung amerikanischer Arbeitnehmer den Willen wider, die amerikanische Wirtschaft zu fördern, was an den New Deal von Roosevelt erinnert. Allerdings vielleicht nicht in diesem Ausmaß, oder vielleicht ist der Zustand der Weltwirtschaft einfach noch in der (Abwärts-)Entwicklung (Konzept 2). Der wohl interessanteste Teil ist Abschnitt 4.2 (gültig innerhalb von 90 Tagen nach der Durchführungsverordnung, das heißt ungefähr ab Anfang Februar 2024), denn in diesem Abschnitt werden neue Transparenzpflichten für US-amerikanische Infrastructure as a Service (Iaas)-Anbieter definiert.

 

Neue Transparenzpflichten für US-amerikanische Infrastructure as a Service (Iaas)-Anbieter

Es geht ausschließlich um Transparenzanforderungen für „U.S. IaaS-Anbieter“ zur Übermittlung von Meldungen an US-Behörden, wenn eine ausländische Person Transaktionen mit diesem US-amerikanischen IaaS-Anbieter abwickelt, um ein großes KI-Modell zu trainieren oder ein Rechencluster zu betreiben, welches das Training eines großen KI-Modells an theoretisch nur einem Tag ermöglicht. Die Durchführungsverordnung definiert Schwellenwerte, die die Meldepflicht mit zwei Indikatoren kennzeichnet. Der erste stellt eine „Musclepower“ dar und der zweite misst den „Volumenverbrauch“:

(1) Musclepower: Jedes Rechencluster, welches über eine Reihe von Maschinen verfügt, die sich physisch in einem einzigen Rechenzentrum befinden und transitiv durch ein Rechenzentrumsnetzwerk mit über 100 Gbit/s verbunden sind sowie mit einer theoretischen maximalen Rechenkapazität von E+20 (Anmerkung der Autorin: der Supercomputer „JUWELS Booster Module“ vom Forschungszentrum in Jülich kommt aktuell auf eine theoretische max. Rechenkapazität i.H.V. ca. E+15) Ganzzahl- oder Gleitkommaoperationen pro Sekunde [FLOPS = Floating Operations per Second] und sich für das Training von KI eignen, muss den US-Behörden gemeldet werden. Die zu meldenden Informationen gehen unter anderem bis zur Meldung der konkreten Kreditkartennummer, auf der das Rechencluster verbucht wird.

(2) Volumenverbrauch: Jedes Modell, das mit einer Rechenleistung von mehr als E+26 (Anmerkung der Autorin: Das große Sprachmodell von Mistral namens „Mistral-7B“ kommt auf ca. E+23 verbrauchte Rechenleistung) Ganzzahl- oder Gleitkommaoperationen [FLOS = Floating Operations] trainiert wurde oder die Verwendung hauptsächlich biologischer Sequenzdaten und der Einsatz einer größeren Rechenleistung als Ganzzahl- oder Gleitkommaoperationen, muss den US-Behörden gemeldet werden. Die zu meldenden Informationen gehen unter anderem bis zur Meldung der konkreten Kreditkartennummer, auf der das KI-Modell verbucht wird.

In Abbildung 2 ist ein abstraktes Beispiel zu den zuvor genannten Punkten abgebildet. Wenn ein US-IaaS-Anbieter (siehe Abbildung 2 unten links dunkelblauer Punkt mit Wolke und Chip Icon) Dienstleistungen für ein US-Unternehmen (siehe Abbildung 2 unten links dunkelblauer Punkt mit weißem Stern) erbringt, die Punkt 1 und/oder Punkt 2 zugewiesen werden können (siehe vorher), so ist der Anbieter verpflichtet Informationen an eine US-Behörde (siehe Abbildung 2 unten Mitte roter Punkt mit weißem Stern) über diese Transaktion zu melden (siehe Abbildung 2 unten graue Box). Gleiches gilt, wenn ein US-IaaS-Anbieter Dienstleistungen für ein Nicht-US-Unternehmen (also nicht in den USA ansässiges Unternehmen) erbringt.

Folgendes Beispiel soll diesen Sachverhalt greifbarer machen: Ein deutsches Unternehmen entwickelt und produziert Medikamente für diverse Immuntherapien und möchte mittels KI Forschungsprozesse effizienter gestalten. Zu diesem Zweck benutzt dieses deutsche Pharmaunternehmen Cloud-Recheninfrastrukturen, welche zum Beispiel in Frankfurt stehen, von einem US-IaaS-Anbieter, um mit den eigenen biologischen Sequenzdaten solch ein KI-Modell zu trainieren. In diesem Beispiel ist der US-IaaS-Anbieter dazu verpflichtet seiner Behörde Informationen über diese Transaktion zu melden. Darunter fallen zum Beispiel Name, Adresse, Zahlungsquelle oder auch technische Informationen über das KI-Modell. In diesem speziellen Fall befürchtet die US-Regierung den sogenannten „Dual-Use“-Fall bei KI-Modellen. Dieses auf biologischen Sequenzdaten trainierte KI-Modell mag zwar für die effiziente Erforschung von Immuntherapien gedacht sein, es kann aber auch für die Generierung von biologischen Waffen genutzt werden.

Abbildung 2 – Abstraktes Beispiel zur Transparenzpflicht für US-amerikanische IaaS-Anbieter, eigene Darstellung, Weltkartenbild von Vectonauta in Freepik

Fazit

 

Schon jetzt wird die Nutzung von großen Sprachmodellen unter Verwendung von Microsoft-Azure-Instanzen registriert und das unabhängig von diversen zuvor genannten Indikatoren. Dies dürfte vermutlich einen Hinweis darauf geben, dass die fallbezogene Untersuchung nicht möglich ist und eine allgemeine „Anmeldepflicht“ für solche Services besteht.

 

Abbildung 3 – Screenshot aus einem Teilabschnitt des Anmeldeformulars für die Erstellung eines Azure OpenAI Deployments (Quelle: LoyJoy GmbH)

Die neue Executive Order beinhaltet weitreichende Transparenzpflichten, die US-IaaS-Anbieter wie AWS, Microsoft Azure, GCP, DELL und HPE erfüllen müssen. Sie werden gültig innerhalb von 90 Tagen nach der Durchführungsverordnung, was zu Anfang Februar 2024 der Fall war. Dadurch, dass die amerikanischen Anbieter quasi Monopolmacht über digitale Rechenleistungen und KI-Services haben, verschaffen sich so die amerikanischen Behörden eine globale Überwachung unter anderem auch, so die Executive Order, zum Schutz vor Missbrauch mit solchen KI-Modellen.

 

 

Über die Autorin:

Lilian Do Khac ist Portfolio Offering Lead Trustworthy AI bei adesso. Sie verfügt über umfangreiches Wissen über Konzeption und Implementierung von KI-Lösungen für die datengetriebene Entscheidungsunterstützung. In ihrer Promotion an der Philips-Universität Marburg geht es um die bestmögliche Gestaltung von KI-Anwendungen.

 

 

 

Weitere Informationen unter:

https://www.adesso.de/de/index.jsp

 

 

 

 

 

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by Pete Linforth from Pixabay

KI als Retter der Produktivität?

KI und Automatisierung stehen noch am Anfang ihrer Entwicklung, doch wird schon jetzt deutlich, dass sie für unsere Arbeitswelt Chancen und Herausforderungen zugleich bringen.

Das Technologieunternehmen Slack hat unlängst sein neues KI-Feature Slack AI vorgestellt und analysiert regelmäßig mit hochwertigen Studien den Markt. Wo wir aktuell mit KI stehen, wo die Reise mit Slack AI hingehen soll und welche Herausforderungen und Gefahren “lauern” – das beantwortet Nina Koch von Slack im Interview.

 

Hallo Frau Koch, Sie haben gerade eine neue Umfrage von Slack unter mehr als 10.000 Büroangestellten weltweit veröffentlicht, die das Thema KI in den Fokus nimmt. Welche Ergebnisse möchten Sie mit uns teilen?

Unsere Workforce Lab AI Studie zeigt eine positive Entwicklung. Die Akzeptanz von KI-Tools am Arbeitsplatz ist im Vergleich zum vorherigen Quartal um 24 % gestiegen: Im Januar 2024 gab eine:r von vier Büroarbeiter:innen an, KI-Tools für die Arbeit auszuprobieren, im September 2023 war es im Vergleich nur eine:r von fünf. Und einer von drei Büroangestellten hat bereits Automatisierungstools für seine Arbeit genutzt.

„Von denjenigen, die KI- und Automatisierungstools für ihre Arbeit genutzt haben, geben rund 80 % an, dass diese Technologie bereits ihre Produktivität verbessert“

Und was berichten diejenigen, die bereits KI und Automatisierungstools für die Arbeit nutzen?

Von denjenigen, die KI- und Automatisierungstools für ihre Arbeit genutzt haben, geben rund 80 % an, dass diese Technologie bereits ihre Produktivität verbessert. Die wichtigsten Aufgaben, bei denen Büroangestellte heute den größten Nutzen von KI sehen, sind die Unterstützung beim Schreiben, die Automatisierung von Arbeitsabläufen, die Zusammenfassung von Inhalten und die Recherche nach neuen Themen. Zusammenfassungen haben seit der Slack-Umfrage vom September 2023 die Recherche als wichtigsten Mehrwert für die aktuelle Arbeit der Befragten abgelöst.

 

Die Studie zeigt auch: Rund die Hälfte aller Befragten (43 %) gab an, dass sie von ihren Führungskräften oder ihrem Unternehmen keine Anleitung für die Nutzung von KI-Tools bei der Arbeit erhalten haben. Hier werden Potenziale verschenkt, oder?

Der Mangel an Anleitung kann Mitarbeiter:innen davon abhalten, mit KI zu experimentieren. Die Büroarbeitenden, die KI-Richtlinien bereits in ihrem Unternehmen definiert haben, haben mit fünf- bis sechsmal höherer Wahrscheinlichkeit KI-Tools ausprobiert als Mitarbeiter:innen, die keine Richtlinien für die KI-Nutzung haben. Sogar diejenigen, deren Nutzungsrichtlinien den Einsatz von KI einschränken, haben mit höherer Wahrscheinlichkeit mit KI-Tools experimentiert als Arbeitnehmer:innen in Unternehmen, die keine Richtlinien für die KI-Nutzung haben. Wenn Unternehmen ihre Belegschaft auf die KI-Revolution vorbereiten wollen, sollten sie damit beginnen, Richtlinien für den Einsatz von KI am Arbeitsplatz zu erstellen.

Büroarbeiter:innen verbringen 41 Prozent ihrer Arbeitszeit mit kleinen und unbedeutenden Aufgaben.
KI als Retter der Produktivität?

 

Hand aufs Herz: Steigert KI wirklich die Produktivität der Belegschaft?

Im Durchschnitt geben die Büroarbeiter:innen an, dass sie 41 % ihrer Arbeitszeit mit Aufgaben verbringen, die „von geringem Wert sind, sich wiederholen oder keinen sinnvollen Beitrag zu ihren Hauptaufgaben leisten“. Und je mehr Zeit die Mitarbeiter:innen mit geringwertiger Arbeit verbringen, desto begeisterter sind sie davon, dass KI und Automatisierung die Aufgaben ihrer aktuellen Tätigkeit übernehmen können. Klar ist auch: Wir alle haben Aufgaben zu erledigen, die nicht zu unserer Stellenbeschreibung gehören, aber notwendig sind, damit Prozesse und Projekte reibungslos funktionieren. Das bezeichnen wir als ‚work for work‘. Aber wenn durchschnittliche Büroangestellte zwei volle Tage pro Woche mit dieser Zusatzarbeit verbringen, ist das ein großes Problem – und eine Chance für KI- und Automatisierungstools, unsere Energie auf jene Aktivitäten zu lenken, die wirklichen Mehrwert stiften.

Hier haben wir ein schönes Beispiel unseres Kunden Mast-Jägermeister SE. In dem international ausgerichteten Unternehmen gilt es, Informationen für alle gleich schnell zugänglich zu machen. Dafür hat Mast-Jägermeister SE in Kooperation mit der Übersetzungs-KI DeepL einen Workflow kreiert: Ankündigungen, die auf Deutsch oder Englisch in die Channels gestellt werden, lassen sich damit automatisch übersetzen. Es genügt, dem Post die Landesflagge einer Sprache hinzuzufügen. Ein neues Kapitel in Sachen Produktivität. Mehr als 30 mehrsprachige Workflows und Integrationen tragen heute dazu bei, dass die Mitarbeitenden produktiv, effizient und transparent arbeiten. Mit messbarem Erfolg: Über 11.000 Arbeitsstunden sowie rund 480.000 Euro hat das Unternehmen dank Slack in einem Jahr gespart. Das entspricht der Arbeitszeit von rund fünf Vollzeit-Angestellten.

 

Was sind abschließend für Sie die wichtigsten Stellschrauben für eine erfolgreiche KI-Implementierung in Unternehmen?
Wir sehen bereits jetzt, dass der Einsatz von KI am Arbeitsplatz im Vergleich zum vergangenen Quartal angestiegen ist. Vertrauen – in den Prozess, in die Mitarbeiter:innen und in die Technik – erachte ich als essenziell. Darüber hinaus muss uns allerdings bewusst sein, dass es ohne entsprechende Leitplanken der Führungsebene nicht funktionieren wird. Wenn Unternehmen ihre Belegschaft auf die KI-Revolution vorbereiten wollen, sollten sie damit beginnen, Richtlinien für den Einsatz von KI am Arbeitsplatz zu erstellen. Nur so wird es final möglich sein, die angekündigten Produktivitätsgewinne in Zukunft nachhaltig freizulegen und anzuwenden.

 

 

Aufmacherbild / Quelle / Lizenz
Image by Jorge Franganillo from Pixabay

HR-Report 2024 – Künstliche Intelligenz im Unternehmenskontext

Der vierzehnte HR-Report 2024 zum Thema Künstliche Intelligenz (KI) im Unternehmenskontext ist da!

„Der Einsatz von KI ist keine rein technologische, sondern eine allumfassende Angelegenheit. Er betrifft jede Führungskraft und sämtliche Mitarbeitenden ebenso wie die gesamte Unternehmenskultur. Umso wichtiger ist es daher, dass Unternehmen mit KI nicht sorglos umgehen und sich der Komplexität ihres Einsatzes bewusst sind. Im Sinne der Mitarbeitenden genauso wie des Unternehmenserfolgs.“

Prof. Dr. Jutta Rump Institut für Beschäftigung und Employability IBE

 

Im HR-Report werden unter anderem die folgenden Fragestellungen untersucht:

  • Wie werden die vielfältigen Möglichkeiten, die KI bietet, die Unternehmenswelt heute und in Zukunft prägen?
  • Welche Veränderungen sind in den Unternehmen durch den Einsatz von KI möglich?
  • Welche Chancen oder Herausforderungen werden beim Umgang mit dieser neuen Technologie gesehen und welche Beschäftigungseffekte sind zu erwarten?

Hier finden Sie den HR-Report 2024 zum kostenlosen Download.

Darüber hinaus widmet sich die aktuelle Folge unseres Podcasts „IBE-Workout“ den Ergebnissen des HR-Reports 2024 und ordnet diese ein. Der Podcast steht auf den folgenden Plattformen kostenfrei zur Verfügung:

Homepage des IBE

 

 

Bildquellen – h
https://www.ibe-ludwigshafen.de/aktuelles/detail/der-hr-report-2024-ist-da/

Augenoptiker: Wie clevere Digitalisierung eine ganze Branche aufmischt

Sehen ist unser wichtigster Sinn. Sehen ist damit ein elementares Grundbedürfnis. Die zunehmende Alterung der Gesellschaft, der steigende Konsum visueller Inhalte im Zuge der Digitalisierung und der gestiegene Anteil von PC-Arbeit bei künstlichem Licht führen jedoch zu einer insgesamt schwindenden Sehkraft über alle Altersgruppen hinweg.

Dementsprechend steigt der Bedarf an Sehhilfen wie Brillen und Kontaktlinsen. Dieser erhöhten Nachfrage steht ein steigendes Optikersterben gegenüber, das aufgrund von Fachkräftemangel und fehlendem Nachwuchs besonders die ländlichen Gegenden in Deutschland betrifft.

Durch eine moderne Remote-Technologie kann der Kunde wie gewohnt den notwendigen Sehtest im Ladengeschäft vornehmen und wird dafür digital per Videokonferenz mit dem Optikermeister verbunden, der den Sehtest fachkundig und vollumfänglich aus der Ferne durchführen kann.“

Digitalisierung beim Brillenverkauf: bisher ein blinder Fleck

In Deutschland sind neben Augenärzten auch Augenoptikermeister dazu befugt, Sehtests durchzuführen. Mittlerweile finden rund 90 Prozent aller Sehtests beim Optiker statt. Und genau an dieser Stelle könnte der Digitalisierungshebel ansetzen. Statt in jedem Optikergeschäft einen Meister zu beschäftigen , der als einziger befugt ist, die Sehstärke zu bestimmen, kann dieser (teure) Aspekt zentralisiert werden. Durch eine moderne Remote-Technologie kann der Kunde wie gewohnt den notwendigen Sehtest im Ladengeschäft vornehmen und wird dafür digital per Videokonferenz mit dem Optikermeister verbunden, der den Sehtest fachkundig und vollumfänglich aus der Ferne durchführen kann. Auch bei der Brillenglas-Beratung ist die tiefe Expertise eines Augenoptikermeisters vonnöten. Bei Brillengläsern mit Korrektionswirkung handelt es sich um ein medizinisches Produkt. Dementsprechend kann hier ebenso über Remote-Technologie die Beratung durch einen Augenoptikermeister stattfinden. Geschultes Verkaufspersonal vor Ort ergänzt dann in der Kundenberatung, wenn es um Passgenauigkeit und modische Aspekte der Brillenfassung geht. Gerade bei anspruchsvolleren Produkten wie der Gleitsichtbrille hat sich dieser Ansatz bewährt. Schließlich kann die heutige Technologie zudem bei der Ermittlung der Glaskonfiguration eingesetzt werden. Hier nutzt brillen.de künstliche Intelligenz, um für den Kunden das ideale Modell zu konfigurieren.

Schluss mit Optikersterben auf dem Land

Bei brillen.de führen so über 50 Optiker remote die nötigen Untersuchungen durch. Da sie nicht einem Ladengeschäft zugeordnet sind, können diese vielfach mehr Untersuchungen durchführen – egal wo sich der Laden befindet. Damit wird einem Strukturproblem begegnet, denn neben einer wachsenden Konsolidierung, bei der immer mehr kleinere Optikerbetriebe in der Fläche von großen Ketten in den Ballungsräumen verdrängt werden, kämpft die Branche mit mangelndem qualifiziertem Nachwuchs und fehlenden Nachfolgern. Manche Optikerbetriebe befinden sich in ländlichen Regionen, wo es nur eine geringe Anzahl von Laufkundschaft gibt, was ein profitables Wirtschaften erschwert. Die Folge ist, dass viele ländliche Augenoptikbetriebe irgendwann schließen müssen. Gerade bei einer immer älter werdenden Gesellschaft ist es jedoch essenziell, wichtige Dienstleistungen dort zu erbringen, wo die Menschen leben. Bei den über 60-Jährigen beträgt der Anteil der Brillenträger über 90 Prozent. Augenoptiker auf dem Land können sich als Partner von brillen.de die digitalen Vorteile und breitgefächerten Marketingmaßnahmen des Unternehmens zunutze machen und so ihr wirtschaftliches Überleben sichern. Denn durch eine Partnerschaft mit brillen.de werden Kunden über Werbung in der Onlinewelt und in den sozialen Netzwerken direktden Partneroptikern in der Nähe des Kunden zugeführt. So wird auch vor Ort die knappe Ressourcevdes Optikermeisters optimal ausgelastet.

Den Produktionsprozess straffen

Ein weiteres Optimierungspotenzial durch Digitalisierung bietet sich im Bereich der Produktion. Durch die Produktion der ganzen Brille aus einer Hand und die Abbildung des gesamten Produktionsprozesses über eine leistungsstarke Software, können die Produktionskosten enorm gesenkt und das Risiko von Lieferkettenproblemen deutlich verringert werden. So werden beispielsweise die Brillengläser bei brillen.de allesamt in Shanghai angefertigt und direkt und automatisiert in die vom Kunden gewählte Brillenfassung eingebracht. Das ist deshalb möglich, weil auf Markengestelle verzichtet und das gesamte Brillensortiment zentral gesteuert wird. Die ermittelten Gläser werden zentral in der Produktion mit der ausgewählten Brillenfassung produziert. Durch diesen gebündelten Produktionsprozess können die Preise der angebotenen Brillen dementsprechend deutlich gesenkt werden. Die Zentralisierung durch Digitalisierung bei der Ermittlung der Sehstärke und ein innovativer Produktionsprozess reduzieren die Preise bei den teuren und aufwändigen Gleitsichtbrillen ohne jeglichen Qualitätsverlust um rund 80 Prozent für den Endkunden.

Tradition trifft Moderne

Die Augenoptikbranche täte sich selbst einen Gefallen, wenn sie die Chancen der Digitalisierung klug einsetzen würde. Die Augenoptik ist ein systemrelevanter Teil des Gesundheitswesens, der durch die steigende Nachfrage nach Sehhilfen immer mehr an Bedeutung gewinnt. Kunden schätzen neben fachkundiger und persönlicher Beratung an ihrem Wohnort auch eine schnelle Anfertigung der Brille und günstige Preise bei hoher Qualität. Durch ein digital erweitertes Store-Konzept können diese Ziele effektiv umgesetzt werden.

Über den Autor:

Volker Grahl,
Vorstand bei brillen.de

 

Aufmacherbild / Quelle / Lizenz
Bild von Jason Gillman auf Pixabay

Wettbewerbsindex der deutschen Industrie 2024

Der Wettbewerbsindex der deutschen Industrie 2024 zeigt: Deutsche Industrie steht am Wendepunkt

 

  • Ein Drittel der befragten Entscheider erwartet, dass sich die internationale Wettbewerbsposition der deutschen Industrie im Jahr 2024 weiter verschlechtern wird.
  • Der Standort Deutschland wird zur Belastung: Fachkräftemangel, schwache Konjunktur, Preis- und Zinsentwicklung sowie Energiepolitik sind die größten Herausforderungen.
  • Die Studie zeigt Handlungsbedarf für Unternehmen und politische Entscheidungsträger auf, um die Wettbewerbsfähigkeit der deutschen Industrie zu stärken.

 

Alvarez & Marsal (A&M), ein weltweit führendes Beratungsunternehmen, initiiert in Zusammenarbeit mit der Deutschen Gesellschaft für Managementforschung (DGMF) den Wettbewerbsindex der deutschen Industrie 2024. Die Ergebnisse der Studie belegen, dass sich die deutsche Industrie an einem kritischen Wendepunkt befindet und die Unternehmen mit zunehmenden Belastungen konfrontiert sind, die ihre internationale Wettbewerbsfähigkeit erheblich gefährden.

 

Die Rolle der deutschen Industrie

Die Industrie spielt eine herausragende Rolle für Wachstum und Wohlstand in Deutschland. Sie bietet 8 Millionen Menschen hochqualifizierte Arbeitsplätze und treibt mit ihren Investitionen in Forschung und Entwicklung wichtige Innovationen voran. Dank seiner industriellen Stärke ist Deutschland nach China und den USA die führende Exportnation. Die globale Wettbewerbsfähigkeit deutscher Unternehmen ist die zwingende Voraussetzung für diese Exportstärke und damit für Wachstum und Wohlstand in Deutschland.

 

Der Wettbewerbsindex

Ziel des Wettbewerbsindex ist es, den Status quo und die Entwicklung der Wettbewerbsfähigkeit deutscher Industrieunternehmen im globalen Wettbewerb sowie deren wesentliche Einflussfaktoren transparent zu machen, um Maßnahmen zur Stärkung der Wettbewerbsposition zu initiieren.

230 Entscheider aus deutschen Unternehmen nahmen zwischen September und Dezember 2023 an persönlichen Interviews teil. Im Mittelpunkt der Befragung standen die Beurteilung des Standorts Deutschland, die aktuelle Einschätzung und Prognose der Wettbewerbsfähigkeit der Industrieunternehmen sowie die Maßnahmen zur Stärkung der Wettbewerbsposition.

Das Spektrum der Befragten reicht von Vorständen und Aufsichtsräten über Geschäftsbereichsleiter bis hin zu Leitern von Strategieabteilungen. Auch die Größe der Unternehmen spiegelt die gesamte Unternehmenslandschaft wider: vom börsennotierten DAX-Unternehmen bis hin zu Unternehmen mit weniger als 200 Millionen Euro Jahresumsatz. Die Unternehmen wurden aus vier Kernbranchen ausgewählt: Automobilindustrie, Maschinen- und Anlagenbau, Konsumgüter- und Prozessindustrie.

 

Wichtige Ergebnisse des Wettbewerbsindex der deutschen Industrie 2024

  1. Die Wettbewerbsfähigkeit der deutschen Industrie steht an einem kritischen Wendepunkt – die Indexbefragung lässt eine Schwächung der globalen Wettbewerbsposition erwarten. 31% der Unternehmen erwarten eine Verschlechterung ihrer Wettbewerbsfähigkeit.
  2. Der Standort Deutschland wird zunehmend zur Belastung – die Unternehmen können sich nicht von der sinkenden Wettbewerbsfähigkeit Deutschlands nicht abkoppeln. 40% der Unternehmen erwarten eine weitere Schwächung des Standorts Deutschland.
  3. Die Industrie setzt auf eine umfassende Optimierung der Geschäftsmodelle, um die Wettbewerbsfähigkeit wieder zu stärken – die Standortfrage steht zunehmend auf der Tagesordnung. 33% der Unternehmen halten Produktionsverlagerung ins Ausland für wichtig.
  4. Auch die umfassende Transformation von Geschäftsmodellen und der Portfolios wird von der Industrie vorangetrieben. 60% der Unternehmen räumen dem nachhaltigen Umbau ihrer Unternehmen hohe Priorität ein.

 

 

„Die Wettbewerbsfähigkeit der deutschen Industrie ist an einem kritischen Wendepunkt. Damit sie global auch in Zukunft eine führende Rolle spielen kann, braucht es eine gestärkte Veränderungsbereitschaft, vor allem bei Fragen der Digitalisierung, Kostenstrukturen und Standortfaktoren.“ kommentiert Patrick Siebert, Managing Director, Co-Head Deutschland sowie Co-Head European Corporate Transformation bei Alvarez & Marsal.

 

Philipp Ostermeier, Managing Director und Co-Lead Corporate Transformation bei Alvarez & Marsal, fügt hinzu: „Im Kampf um die globale Wettbewerbsfähigkeit wird der Faktor Zeit immer wichtiger. Unternehmen haben dies erkannt und planen im Jahr 2024 mit massiven Transformationen. Die Politik muss nachziehen und jetzt Rahmenbedingungen schaffen, die den Standort Deutschland nachhaltig wettbewerbsfähig und planungssicher machen.“

 

Alle Ergebnisse des Wettbewerbsindex der deutschen Industrie 2024 unter:
Wettbewerbsindex der deutschen Industrie | Alvarez & Marsal | Management Consulting | Professional Services (alvarezandmarsal.com)

 

Um mehr zu erfahren, besuchen Sie AlvarezandMarsal.com

 

 

Aufmacherbild / Quelle / Lizenz
Image by Annette from Pixabay

Wetter und Klima: Modell ICON wird Open Source

ICON-ART

Das numerische Modell ICON ermöglicht effiziente Wettervorhersagen und Klimaprojektionen. Mit ICON-ART hat das KIT das System um eine Komponente erweitert, um zu untersuchen, wie sich etwa Treibhausgasemissionen und Staubwolken von Saharastürmen ausbreiten oder wie sich Asche und andere Aerosole aus Vulkanausbrüchen auf Wetter und Klima auswirken. Das Modell steht nun unter einer Open-Source-Lizenz der Öffentlichkeit zur Verfügung und soll zu mehr Transparenz in der Wissenschaft beitragen.

„Die Open-Source-Stellung macht das Modell einer breiteren Wissenschafts- und Nutzungsgemeinschaft zugänglich“, sagt Professorin Corinna Hoose vom Institut für Meteorologie und Klimaforschung Troposphärenforschung des KIT. „Dies erleichtert es, ICON für Umweltvorhersagen gemeinsam mit den ICON-Partnern, Nutzenden sowie Entwicklerinnen und Entwicklern aus der ganzen Welt weiter zu verbessern und die Fähigkeiten des Modells zu erweitern.“

ICON errechnet mittels einer dreidimensionalen Computersimulation die Veränderung der Atmosphäre und des Klimas für die nächsten Stunden und Tage sowie mit Klimasimulationen für die nächsten Jahrzehnte bis Jahrhunderte. Es wird in Deutschland und der Schweiz für die operationelle Wettervorhersage eingesetzt. ICON-ART ermöglicht die Vorhersage von Aerosolen und atmosphärischer Chemie sowie deren Wechselwirkung mit der Atmosphäre. Aerosole und die chemische Zusammensetzung bestimmen die Luftqualität und beeinflussen etwa Sonneneinstrahlung, Wolken und Niederschlag. Der Deutsche Wetterdienst (DWD) nutzt ICON-ART für operationelle Vorhersagen von Mineralstaub und Pollen, was beispielsweise für die Planung von Photovoltaikerträgen oder die Gesundheit wichtig ist. (swi)

Weitere Informationen: icon-art.kit.edu/

 

 

Beitragsbild / Quelle: https://www.icon-art.kit.edu/index.php

 

Aufmacherbild / Quelle / Lizenz
Image by Michaela, at home in Germany • Thank you very much for a like from Pixabay

Ingenieurstudierendenzahlen besorgniserregend rückläufig

In den kommenden Jahren wird durch Demografie, Digitalisierung und Klimaschutz der Bedarf an Beschäftigten in Ingenieur- und Informatikerberufen deutlich zunehmen. Die Zahl der offenen Stellen in den Ingenieurberufen sind trotz konjunktureller Eintrübung hoch.

 

Konjunkturelle Eintrübung zeigt sich auf dem Arbeitsmarkt

Nach Berechnungen des Statistischen Bundesamt vom Januar 2024 dürfte das Bruttoinlandsprodukt im Jahr 2023 um 0,3 Prozent gesunken sein. Diese starke konjunkturelle Eintrübung hat auch (kurzfristige) Auswirkungen auf den Arbeitsmarkt in den Ingenieur- und Informatikerberufen. So ist im dritten Quartal 2023 die Gesamtzahl an offenen Stellen im Vorjahresvergleich um 4,7 Prozent auf 165.200 gesunken. Damit ist das Niveau der Vor-Corona-Zeit immer noch deutlich übertroffen (2019: 128.900). Es zeigt sich angesichts dieser Zahlen, dass der Ingenieurberuf weiterhin attraktiv ist

„…Der Ingenieurberuf ist der Zukunftsjob überhaupt. Sinnhaftigkeit und Mehrwert für die Gesellschaft stehen seit jeher im Fokus.“

„Von der Batterieproduktion bis zur Windkraft – überall werden Ingenieurinnen und Ingenieure gebraucht, wenn wir den Standort Deutschland aktiv und lebenswert gestalten wollen. Die immer noch hohe Zahl an offenen Stellen ist für mich schwer nachvollziehbar. Der Ingenieurberuf ist der Zukunftsjob überhaupt. Sinnhaftigkeit und Mehrwert für die Gesellschaft stehen seit jeher im Fokus“, so VDI-Direktor Adrian Willig.

VDI-Direktor Adrian Willig.

Zwischen den einzelnen Berufskategorien gibt es im Vorjahresvergleich große Unterschiede. So nahm die Anzahl der offenen Stellen im Jahresvergleich in den Ingenieurberufen Technische Forschung und Produktionssteuerung um 9,0 Prozent und in den Ingenieurberufen Maschinen- und Fahrzeugtechnik um 2,0 Prozent zu. Auf der anderen Seite nahm die Anzahl der offenen Stellen in den Bauingenieurberufen um 5,3 Prozent und bei den Informatikerberufen um 10,8 Prozent ab.

Herausforderung Kompetenzentwicklung bei Schülerinnen und Schülern

Der Monitor beleuchtet zudem die Entwicklungen an den Hochschulen. Die Zahl der Studienanfänger und -anfängerinnen ist im ersten Hochschulsemester in den Fächern Ingenieurwissenschaften und Informatik um besorgniserregende 12,5 Prozent gesunken. In den vergangenen zehn Jahren haben dabei die Studienbereiche Maschinenbau/Verfahrenstechnik und Elektrotechnik stark an Studienanfänger*innen verloren, während die Informatik deutlich zulegen konnte. Diese Entwicklung steht im starken Gegensatz zu den zunehmenden Anforderungen der sich wandelnden Gesellschaft„Dieser Trend sollte uns alarmieren, da wir dringend qualifizierte Fachkräfte in diesen Berufsfeldern benötigen, um den zukünftigen Anforderungen Deutschlands gerecht zu werden“, warnt VDI-Direktor Adrian Willig.

Der aktuelle Ingenieurmonitor sieht auch Herausforderungen bei der Kompetenzentwicklung der 15-Jährigen Schülerinnen und Schüler, die den Ausblick auf den Nachwuchs in den Ingenieur- und Informatikerberufen zusätzlich belasten. Während die durchschnittlichen mathematischen Kompetenzen 15-jähriger von PISA-2000 bis PISA-2012 kontinuierlich zugenommen haben, sind die Kompetenzen von PISA-2012 bis PISA-2018 gesunken und danach bis PISA-2022 noch einmal stärker eingebrochen. Die Zahl der 15-jährigen Schülerinnen und Schüler, die hohe Kompetenzen in Mathematik aufwiesen, halbierte sich von 17 Prozent (PISA-2012) fast auf 8,6 Prozent bei PISA-2022. Auch in den Naturwissenschaften verschlechterten sich die Werte. „Um entgegenzuwirken, sind Maßnahmen erforderlich, um junge Menschen für ingenieur- und informatikbezogene Inhalte zu begeistern. Gemeinsame Anstrengungen von Bildungseinrichtungen, Politik und Gesellschaft sind notwendig, um die Attraktivität des Ingenieurberufs zu steigern und qualifizierte Nachwuchskräfte zu gewinnen“, führt Adrian Willig aus. „Der VDI ist hier mit seinen Nachwuchsaktivitäten, wie zum Beispiel den VDini-Clubs oder  Zukunftspiloten aktiv.“

Der Ingenieurmonitor wird einmal pro Quartal gemeinsam vom VDI Verein Deutscher Ingenieure e.V. und dem Institut der deutschen Wirtschaft e.V. herausgegeben und präsentiert einen Überblick über den aktuellen Stand und die Entwicklung relevanter Indikatoren des Arbeitsmarktes in den Ingenieur- und Informatikerberufen.

 

 

Aufmacherbild / Quelle / Lizenz
Image by RAEng_Publications from Pixabay

 

Studie empfiehlt Investition in mehr Verständlichkeit

Interne Kommunikation: Forscher raten zu klarer Sprache

Klare interne Kommunikation entscheidet über den Erfolg von Unternehmen. Aktuelle Studien zeigen: Mitarbeiter und Führungskräfte sollten lernen, sich klar, präzise und transparent auszudrücken.

Mitarbeiter leisten mehr, wenn die interne Kommunikation effektiv ist. Das fand eine Studie aus dem Jahr 2023 heraus.1 Die Ergebnisse zeigen: Wirksame Kommunikation fördert die Loyalität der Mitarbeiter. Sie erhöht das Engagement und die Zufriedenheit am Arbeitsplatz. Im Jahr 2016 kam eine andere Studie2 zu ähnlichen Ergebnissen: Mitarbeiter sind demnach produktiver, wenn sie mit der Kommunikation im Unternehmen zufrieden sind.

„Der Bedarf an verständlicher Sprache ist groß“

„Durch Investitionen in eine klare Kommunikation und die Einbeziehung von Führungskräften können Unternehmen eine hoch engagierte Belegschaft fördern, was zu höherer Produktivität, Mitarbeiterbindung und allgemeinem Erfolg führt“, schreiben die Studienautoren.

„Mitarbeiter müssen Nachrichten, Dokumente und Informationen verstehen. Aber in Unternehmen und Organisationen gibt es unzählige Sprachbarrieren durch komplizierte Kommunikation“, sagt Gidon Wagner von WORTLIGA. Das Unternehmen entwickelt das kostenlose KI-Tool “Plain” für verständliche Sprache. Der TÜV Rheinland empfiehlt “Plain”, um technische Informationen in Unternehmen verständlicher zu gestalten.3

Qualität der Kommunikation: Ein wichtiger Faktor für den Wirtschaftsstandort Deutschland

Nicht nur der dringend benötigte Bürokratie-Abbau erfordert effektivere Sprache4, um Bürger und Unternehmen zu entlasten. Der Erfolg jeder Organisation, jedes Projekts hängt von der Klarheit der Kommunikation ab. Untersuchungen zeigten schon in den 90er-Jahren, dass Mitarbeiter zufriedener und produktiver sind, wenn sie mit verständlichen Informationen arbeiten.5 Durch leicht verständliche Online-Dokumente stieg etwa die Produktivität der Kundendienst-Mitarbeiter eines kanadischen Finanzdienstleisters um 36,9 Prozent. Die Fehler sanken zugleich um rund 77,1 Prozent. Nach der Überarbeitung waren 61,2 Prozent der Mitarbeiter mit den neuen Dokumenten zufriedener.

Verständliche E-Mails können Personalkosten in Milliardenhöhe einsparen

Eine US-Navy-Studie fand ähnliche Vorteile. Briefe und E-Mails in verständlicher Sprache sparten den Soldaten 17-23 Prozent Lesezeit. Die Autoren ermittelten, die Navy könnte so zwischen 27 und 73 Millionen Dollar jährlich sparen, wenn alle Offiziere ihre Nachrichten verständlicher schreiben würden.6

„Der Bedarf an verständlicher Sprache ist groß. Aber einfach schreiben ist schwer“, sagt Gidon Wagner. „Nur wenige Unternehmen verankern bisher Verständlichkeit in ihrer Sprachkultur – von Behörden ganz zu schweigen. Auch Medien sind betroffen. Selbst das journalistische Leitmedium Tagesschau braucht bei der Verständlichkeit Unterstützung. Das sahen wir in unserer Beratung für ARD-aktuell“, sagt der WORTLIGA-Chef.

Im Zuge der Barrierefreiheit sind viele Unternehmen gesetzlich verpflichtet, ihre Informationen verständlicher zu gestalten. Die Studien zur internen Kommunikation zeigen: Klare Sprache kann Unternehmen auch helfen zu wachsen und Kosten zu sparen.

Wie Organisationen Verständlichkeit kultivieren

Um die interne Kommunikation zu verbessern, empfiehlt Wagner neben Schulungsprogrammen den Einsatz von leicht verständlichen Tools, die alle Mitarbeiter nutzen können. „Es geht darum, dass alle im Unternehmen klare Sprache verwenden können. Das fördert eine Unternehmenskultur, in der jeder versteht und verstanden wird. Klare interne Kommunikation stärkt nicht nur das Teamgefühl und reduziert Fehler, sondern macht die Arbeit effizienter und zufriedenstellender.“

Über WORTLIGA

WORTLIGA ist bekannt für sein kostenloses Online-Tool zur Textanalyse und sein KI-Übersetzungstool „Plain“ für verständliche Sprache. Organisationen wie die Gesellschaft für deutsche Sprache e.V., angesiedelt im Deutschen Bundestag, sowie der AOK-Bundesverband und der TÜV Rheinland empfehlen die WORTLIGA-Technologie. Den Analysen der WORTLIGA vertrauen unter anderem große Unternehmen wie die Generali Deutschland AG oder Institutionen wie die Tagesschau.

1  https://www.nature.com/articles/s41599-023-01806-8

2 https://www.researchgate.net/publication/307871940_The_Impact_of_Organisational_Communication_Satisfaction_on_Employee_Productivity

3 https://www.qm-aktuell.de/neues-ki-tool-macht-schwere-texte-verstaendlich/

4 https://www.egovernment.de/wie-verstaendliche-sprache-kosten-spart-a-7fe24a5f35b3dcd5cd45e4020e3e2c1d/

5 https://wortliga.de/wp-content/uploads/2024/02/Der-Klartext-Effekt.pdf

6  https://obamawhitehouse.archives.gov/blog/2011/04/19/putting-it-plainly

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by VARAN VARAN from Pixabay

IAB-Arbeitsmarktbarometer bleibt im leicht positiven Bereich

Nach zwei Anstiegen in Folge verbleibt der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) im Februar bei 100,3 Punkten. Das European Labour Market Barometer kämpft sich nach oben auf 99,8 Punkte.

„Der Arbeitsmarkt widersteht weiterhin dem Sog des Wirtschaftsabschwungs“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“ am IAB. Die Komponente zur Vorhersage der Arbeitslosigkeit des IAB-Arbeitsmarktbarometers hat sich im Februar abermals verbessert: Sie steigt im Vergleich zum Vormonat um 0,5 Punkte auf 98,0 Punkte, zeigt damit allerdings noch immer steigende Arbeitslosigkeit an. Es besteht weiterhin das Risiko, dass sich die Arbeitslosigkeit stärker verfestigt. Die Komponente zur Vorhersage der Beschäftigung hat sich hingegen abgeschwächt, deutet aber weiter auf Anstiege der Beschäftigung hin. Die Komponente sinkt im Februar um 0,6 Punkte im Vergleich zum Vormonat und liegt nun bei 102,5 Punkten. „Selbst im Abschwung sind Arbeitskräfte in vielen Bereichen knapp. Das begrenzt bereits die möglichen Beschäftigungssteigerungen“, erklärt Weber.

Das European Labour Market Barometer klettert im Februar auf 99,8 Punkte, ein Anstieg um 0,5 Punkte im Vergleich zum Vormonat. Es liegt damit nur noch knapp unter der neutralen Marke von 100 Punkten. Beide Komponenten des Arbeitsmarkt-Frühindikators des Europäischen Netzwerks der öffentlichen Arbeitsverwaltungen und des IAB steigen im Februar. „Die Europäischen Arbeitsmarktservices sehen eine stabile Lage auf ihren Jobmärkten“, so Weber.

Datengrundlage

Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert.

Das European Labour Market Barometer ist ein monatlicher Frühindikator, der auf einer seit Juni 2018 gemeinsam von den 17 Arbeitsverwaltungen und dem IAB durchgeführten Befragung unter den lokalen oder regionalen Arbeitsagenturen der teilnehmenden Länder basiert. Dazu zählen: Belgien (Deutschsprachige Gemeinschaft, Wallonien), Bulgarien, Dänemark, Deutschland, Island, Liechtenstein, Litauen, Luxemburg, Malta, Österreich, Polen, Portugal, Schweden, die Schweiz, Tschechien und Zypern.

Während Komponente A des IAB-Arbeitsmarktbarometers und des European Labor Market Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert der beiden Barometer. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

 

 

Mehr zum Europäischen Arbeitsmarktbarometer findet sich unter https://iab.de/en/daten/european-labour-market-barometer/.

Weitere Information zum Arbeitskräfteknappheits-Index des IAB finden Sie unter https://iab.de/daten/arbeitskraefteknappheits-index/.

Megatrend Generative KI bietet enorme Chancen für Wirtschaft und Gesellschaft

Wirtschaftsinformatiker Prof. Dr. Nils Urbach ordnet das Potenzial von ChatGPT & Co für die Arbeitswelt ein

Frankfurt am Main, 22. Februar 2024. Zahlreiche Expert*innen messen Künstlicher Intelligenz großes Potenzial bei, andere weisen auf deren Risiken hin. Was bedeuten diese Entwicklungen für die Arbeitswelt? Prof. Dr. Nils Urbach, Professor für Wirtschaftsinformatik mit Schwerpunkt Digital Business der Frankfurt University of Applied Sciences (Frankfurt UAS), sieht in der Generativen KI einen großen Nutzen insbesondere für die Automatisierung von wissensintensiven Aufgaben. „KI hat dadurch das Potenzial, den Fachkräftemangel in Deutschland zu lindern. Die Technologie wird das Arbeitsumfeld, wie wir es heute kennen, mittelfristig verändern. Dabei werden etablierte Berufsgruppen verschwinden, dafür aber auch neue Arbeitsplätze entstehen. Einige Berufsgruppen profitieren enorm“, sagt Urbach.

Zum Hintergrund: Generative KI-Tools wie ChatGPT haben in kürzester Zeit enorme Verbreitung erfahren. Die Generative KI als ein Teilbereich des maschinellen Lernens beschäftigt sich mit der Erstellung neuer Datenmuster, d.h. sie erschafft neue Inhalte wie Text, Bild, Audio und Video. Die Generative KI lernt dabei aus vorhandenen Daten. „Mächtige Generative KI-Lösungen sind das Ergebnis mehrstufiger Lernprozesse“, erklärt Urbach. Sie sind dadurch in der Lage, neue, realistisch wirkende und kontextuell angemessene Inhalte zu generieren, die den Eindruck erwecken, von menschlicher Hand geschaffen zu sein. Diese KI-Modelle können vielseitig eingesetzt werden, beispielsweise in der Texterstellung, kreativen Gestaltung, Simulation von Szenarien oder sogar in der Unterstützung von künstlerischen Prozessen.

Bestimmte Berufsgruppen profitieren besonders von Generativer KI

Studien haben ergeben, dass bei etwa 80 Prozent der US-Arbeitskräfte mindestens 10 Prozent ihrer Arbeitsaufgaben von den Generativen KI-Modellen betroffen sind. Bei 19 Prozent der Arbeitnehmer*innen sind sogar mindestens 50 Prozent ihrer Tätigkeiten ersetzbar. Der Beruf der Softwareentwickler*innen und andere wissensintensive Berufe könnten dabei besonders von Generativer KI unterstützt werden. Andere Berufe, wie die von Grafiker*innen und Texter*innen, stünden dagegen in Gefahr, in Teilen ersetzt zu werden. Das Potenzial Generativer KI im Arbeitskontext scheint jüngsten Studien nach von der Aufgabenkomplexität und der menschlichen Befähigung abzuhängen. „Mit KI-Tools können vor allem Verbesserungen für unerfahrene und gering qualifizierte Mitarbeitende bei weniger komplexen Aufgaben erreicht werden, sie haben jedoch geringere Auswirkungen auf erfahrene und hochqualifizierte Mitarbeitende mit sehr anspruchsvollen Tätigkeiten“, ordnet Urbach ein.

Auffangen durch lebenslanges Lernen

Abschließend weist Urbach auf die Gefahr hin, dass durch die Fortschritte in der Künstlichen Intelligenz die Gefahr besteht, dass ein Teil der Gesellschaft zurückbleibe, was vor allem durch entsprechende Aus- und Weiterbildungen sowie ein lebenslanges Lernen adressiert werden könne. Hier sieht er auch die Hochschulen in der Pflicht, die jüngsten Technologieentwicklungen in entsprechenden Lehr- und Weiterbildungsangeboten aufzugreifen sowie deren gleichermaßen effektiven und verantwortungsbewussten Einsatz zu vermitteln.

 

Zur Person:

Prof. Dr. Nils Urbach ist Inhaber der Professur für Wirtschaftsinformatik, insbesondere Digital Business & Mobilität, und Direktor des Research Lab for Digital Innovation & Transformation (ditlab) an der Frankfurt University of Applied Sciences. Zudem ist er Direktor am FIM Forschungsinstitut für Informationsmanagement und am Institutsteil Wirtschaftsinformatik des Fraunhofer-Instituts für Angewandte Informationstechnik FIT sowie Mitgründer und -leiter des Fraunhofer Blockchain-Labors. Seine Schwerpunkte in Lehre und Forschung umfassen Digitale Innovation und Transformation, Blockchain & Distributed Ledger Technologies, Management von Künstlicher Intelligenz und Strategisches IT-Management. Näheres zum ditlab unter: www.frankfurt-university.de/ditlab.

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Bild von Amrulqays Maarof auf Pixabay

 

Lieferkettengesetz: Chance für eine Modernisierung der Unternehmensführung

Die Sorgfaltspflichten von Unternehmen in der EU werden kontinuierlich ausgeweitet. So sind Organisationen mit mehr als 1.000 Mitarbeitern nun dazu verpflichtet, zu prüfen, ob Lieferanten und Sublieferanten Menschenrechtsverletzungen begehen. Wer die neuen Vorgaben nicht nur als Pflicht, sondern auch als Chance begreift, kann einen positiven Wandel initiieren. Eine besondere Rolle spielt dabei das Qualitätsmanagement.

Studie: Umsetzung des Lieferkettengesetzes fällt vielen Unternehmen schwer

Unternehmen manövrieren seit Jahren von Krise zu Krise. Erschwerend kommen kontinuierlich neue Gesetzesvorgaben hinzu. War früher vor allem ein finanzielles Reporting erforderlich, so rücken nun ESG-Kriterien immer mehr in den Fokus der Berichtspflichten. Ein Beispiel ist das „Gesetz über die unternehmerischen Sorgfaltspflichten zur Vermeidung von Menschenrechtsverletzungen in Lieferketten“, kurz LkSG. Es soll den Schutz von Menschenrechten und Umwelt in globalen Lieferketten verbessern – beispielsweise Zwangs- und Kinderarbeit oder Trinkwasserverunreinigungen minimieren.

Was nachvollziehbar und wichtig klingt, ist für viele Unternehmen eine enorme administrative Aufgabe mit hohem Aufwand. Beispielsweise ist der Aufbau eines Risikomanagements erforderlich, um mögliche Gefahren in der Supply Chain überhaupt systematisch analysieren und identifizieren zu können. Laut einer aktuellen Studie von Integrity Next und dem Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) (Quelle) haben jedoch erst ein Viertel der Unternehmen mit über 3.000 Mitarbeitern ein solches Konstrukt aufgebaut. Beim Versuch, aufgedeckte Menschenrechtsverstöße bei Lieferanten zu beheben, haben 70 Prozent der Befragten offensichtlich erhebliche Probleme. Klaren Handlungsbedarf gibt es auch in Unternehmen mit mehr als 1.000 Mitarbeitern, die seit 1. Januar 2024 ebenfalls unter das LkSG fallen. Hier sehen sich erst 22 Prozent gut oder sehr gut aufgestellt, was die wichtigsten Anforderungen des Lieferkettengesetzes betrifft.

Bislang wurden fehlende Bemühungen um Menschenrechte in der Supply Chain noch nicht scharf sanktioniert. Vielmehr verfolgt die zuständige Behörde (BAFA) das Ziel, im Dialog mit betroffenen Unternehmen eine Lösung zur Verbesserung der jeweiligen Situation herbeizuführen. Doch dies könnte sich bald ändern. Denn die kürzlich verabschiedete „Lieferkettenrichtlinie“ aus Brüssel sieht vor, Unternehmen anzuklagen, wenn diese gegen ihre Lieferketten-Sorgfaltspflichten verstoßen. Die Folge könnten dann hohe Bußgelder sein. Somit ist klar: Unternehmen müssen jetzt handeln. Dabei ist in erster Linie die Geschäftsführung in der Pflicht. Ein wichtiger Ansatz kann in diesem Zusammenhang die Modernisierung des Qualitätsmanagements (QM) sein. Dieses beinhaltet die systematische Planung, Steuerung und Optimierung aller Prozesse in einem Unternehmen, um die Kundenzufriedenheit und Einhaltung von Gesetzesvorgaben sicherzustellen.

 

„Um diese neue Anforderung zu erfüllen, muss das Qualitätsmanagement im Unternehmen modernisiert werden. Es reicht nicht mehr aus, ein normgerechtes QM-System aufzubauen, um marktübliche Zertifizierungen zu erlangen.“

Gastautor Lutz Krämer, Bereichsleiter Produkte / Director of Products und Mitglied der Geschäftsführung, bei Babtec.

Mit neuem QM-Mindset gegen Supply-Chain-Risiken

CO2-Emissionen senken, sparsam mit natürlichen Ressourcen umgehen, sozial verantwortlich handeln und die Wahrung von Menschenrechten in globalen Lieferketten sicherstellen: Diese und ähnliche Kriterien nehmen immer stärker Einfluss auf die Kaufentscheidung von Kunden und somit auf die Wettbewerbsposition von Unternehmen. In diesem Zuge verändert sich auch die Definition des Begriffs „Qualität“. Er bezieht sich nicht länger nur auf Aspekte wie Funktionalität, Design und Verarbeitung, sondern schließt ESG-Kriterien ein. ESG steht für die nachhaltige und ethische Praxis von Unternehmen. Qualitativ hochwertig ist ein Produkt demnach nur, wenn es auch umweltverträglich und unter Wahrung der sozial-gesellschaftlichen Verantwortung hergestellt wurde. Natürlich erfordert dies eine Zusammenarbeit mit Lieferanten und Vorlieferanten, die sich an einschlägige Normen halten.

Um diese neue Anforderung zu erfüllen, muss das Qualitätsmanagement im Unternehmen modernisiert werden. Es reicht nicht mehr aus, ein normgerechtes QM-System aufzubauen, um marktübliche Zertifizierungen zu erlangen. Das Ziel sollte es vielmehr sein, Qualitätsmanagement zum festen Bestandteil der Unternehmensführung zu machen. Insbesondere marktführende, zumeist mittelständisch geprägte Unternehmen, aber auch viele Start-Ups machen es vor: Sie richten ihre gesamte Strategie auf Qualität aus. Damit erfüllen sie nicht nur die Kundenbedürfnisse, sondern übertreffen sie oft sogar – auch im Hinblick auf Transparenz und faire Verhältnisse in der Supply Chain.

 

Diese Anpassungen im QM sind notwendig

Um materielle Qualität und ESG-Kriterien gleichermaßen im Qualitätsmanagement zu verankern, ist zunächst eine organisatorische Änderung erforderlich: Das Thema Qualität darf im Organigramm nicht länger als eine Stabsstelle oder Abteilung abgebildet werden. Es sollte ab sofort Führungsaufgabe sein. Konkret heißt das: Oberes Management und Qualitätsmanager benötigen deutlich mehr Nähe zueinander. Sie sollten ein Team bilden, um den neuen Qualitätsgedanken unternehmensweit zu implementieren.

Sobald diese grundlegende Voraussetzung geschaffen wurde, kann Qualität wie ein roter Faden in allen Geschäftsprozessen wirken. So auch im Bereich Beschaffung, der maßgeblich für Lieferketten und die entsprechenden Sorgfaltspflichten verantwortlich ist. Hier geht es in der Praxis vor allem darum, die bestehende Risikoeinschätzung an die neuen Anforderungen des Lieferkettengesetzes anzupassen. Bereits beim Onboarding neuer Zulieferer ist es dann möglich, dessen wirtschaftliches, soziales und umweltbezogenes Handeln zu überprüfen. Gleiches gilt für die genaue Herkunft der Zulieferprodukte. Ebenso wichtig ist ein regelmäßiges Auditieren bestehender Lieferanten. Natürlich sollten sämtliche Aktivitäten gut dokumentiert werden, um im Bedarfsfall Nachweise liefern zu können und eine transparente Berichterstattung zu realisieren.

 

Fazit

Qualität entsteht schon immer entlang der gesamten Lieferkette. Doch der Qualitätsbegriff ist heute ein anderer. Unternehmen müssen bestrebt sein, eine Qualität zu liefern, auf die sie stolz sein können. Zu erreichen ist dies nur, wenn in jedem Glied der Lieferkette faire Bedingungen für Menschen und Umwelt herrschen. Damit dieses Kriterium im gesamten Handeln eines Unternehmens den notwendigen Stellenwert erhält, muss Qualität zur Führungsaufgabe erklärt werden. Ein wichtiger Schritt für die zukünftige Wettbewerbsfähigkeit.

 

Weiterführende Informationen zum Unternehmen

https://www.babtec.de/

 

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay

 

 

 

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:

  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.

Unter den folgenden Bedingungen:

 

 

 

Lieferkettengesetz: So hilft modernes Risikomanagement bei der Einhaltung von Sorgfaltspflichten

Das Lieferkettensorgfaltspflichtengesetz (LkSG) verpflichtet Unternehmen dazu, ihre Lieferanten im Hinblick auf Menschenrechts- und Umweltthemen zu überprüfen. Doch die Umsetzung bereitet vielerorts Probleme. Dadurch drohen Sanktionen und Bußgelder. Was ist konkret zu tun, um sich sicher aufzustellen? Und warum spielt ein modernes Risikomanagement dabei eine zentrale Rolle?

 

LkSG: Viele Unternehmen haben Probleme bei der Umsetzung

„Erst 22 Prozent dieser Zielgruppe sehen sich mit Blick auf die zentralen Gesetzesanforderungen gut oder sehr gut aufgestellt. Dabei drängt die Zeit, denn eine erst kürzlich durch die EU verabschiedete Lieferkettenrichtlinie sieht eine Anklage vor, wenn sich Unternehmen nicht ausreichend um Menschenrechte in ihrer Supply Chain bemühen.“

 

Über den Autor: Thomas Neuwert ist Gründer von GORISCON und Geschäftsführer von neto consulting. (Bildquelle @netoconsulting )

Die Implementierung des Lieferkettengesetzes stellt für viele Unternehmen eine signifikante Herausforderung dar. Eine Studie von Integrity Next und dem Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) hat kürzlich aufgezeigt, dass ein Viertel der befragten Großunternehmen (über 3.000 Mitarbeiter) noch kein Risikomanagement etabliert hat, das für die systematische Analyse möglicher Gefahren für Menschenrechte jedoch unerlässlich ist. Besonders besorgniserregend ist, dass 70 Prozent der Unternehmen erhebliche Probleme bei der Behebung von Menschenrechtsverstößen bei ihren Zulieferern haben.

 

Am 1. Januar 2024 wurde das Lieferkettengesetz auf Unternehmen mit mehr als 1.000 Mitarbeitern ausgeweitet. Auch hier gibt es laut BME-Studie offensichtlich große Schwierigkeiten: Erst 22 Prozent dieser Zielgruppe sehen sich mit Blick auf die zentralen Gesetzesanforderungen gut oder sehr gut aufgestellt. Dabei drängt die Zeit, denn eine erst kürzlich durch die EU verabschiedete Lieferkettenrichtlinie sieht eine Anklage vor, wenn sich Unternehmen nicht ausreichend um Menschenrechte in ihrer Supply Chain bemühen. Die Verantwortung für die Einhaltung der Vorschriften liegt bei der Unternehmensführung, die jetzt handeln muss, um negative Konsequenzen abzuwenden.

 

Praktische Schritte zur Risikomanagement-Implementierung

 

Um Risiken entlang der Lieferkette aufzuspüren und Strafen zu vermeiden, sind mehrere Maßnahmen erforderlich. Vor allen Dingen gilt es, ein modernes Risikomanagement einzuführen, welches für Transparenz sorgt und Reaktionsfähigkeit gewährleistet. Dafür empfiehlt sich ein Vorgehen in mehreren Schritten:

  1. Organisatorische Rahmenbedingungen schaffen: Der erste Schritt in Richtung eines effektiven Risikomanagements besteht darin, die organisatorischen Rahmenbedingungen zu etablieren. Dies geschieht durch die Implementierung von Tools, die mit einfachen Anleitungen und Templates ausgestattet sind. Diese Werkzeuge ermöglichen es Unternehmen, ihre Risikomanagementprozesse schrittweise zu entwickeln und anzupassen, um den sich ständig ändernden Geschäftsanforderungen gerecht zu werden. Die Einführung eines geeigneten Tools, ermöglicht die schrittweise Entwicklung von Risikomanagementprozessen.
  2. Eine KI-basierte Risikoanalyse begünstigt die automatisierte Erkennung von Risikofaktoren, basierend auf internen und externen Daten, wie Länder- und Warengruppenrisiken. Dieser Prozess beruht auf einem dreistufigen, KI-basierten Ansatz, der sowohl interne als auch externe Daten analysiert. Hierzu zählen beispielsweise Länder- und Warengruppenrisiken. Die Nutzung künstlicher Intelligenz ermöglicht es, komplexe und vielschichtige Daten effizient zu analysieren und somit Risiken frühzeitig zu erkennen.
  3. Transparente Maßnahmen führen zu einer systemgestützten Umsetzung und Überwachung von Präventions- und Korrekturmaßnahmen. Diese beinhaltet die kontinuierliche Analyse von Verdachtsfällen, zum Beispiel durch das Beschwerdeverfahren. Ein solches System ermöglicht es nicht nur, Risiken zu identifizieren und zu bewerten, sondern auch, angemessene Maßnahmen zeitnah und effektiv umzusetzen.
  4. Durch eine lückenlose Dokumentation sind Transparenz und Nachvollziehbarkeit für die Einhaltung regulatorischer Anforderungen gewährleistet. Sie gewährleistet die Nachvollziehbarkeit und Transparenz aller Maßnahmen und Prozesse. Dies ist insbesondere im Hinblick auf die Einhaltung regulatorischer Anforderungen, wie sie das BAFA stellt, von Bedeutung.

 

Fazit

 

Die Umsetzung des Lieferkettengesetzes ist eine komplexe Aufgabe, die ein umfassendes Verständnis der eigenen Lieferkette, eine gründliche Risikoanalyse, die Entwicklung effektiver Risikomanagementstrategien und die Implementierung geeigneter Software-Unterstützung erfordert. Unternehmen, die diese Herausforderung erfolgreich meistern, können nicht nur gesetzliche Anforderungen erfüllen, sondern auch einen positiven Beitrag zum Schutz von Menschenrechten und der Umwelt leisten. Die Implementierung eines effektiven Risikomanagements ist daher nicht nur eine rechtliche Notwendigkeit, sondern auch eine Chance, nachhaltige und verantwortungsvolle Geschäftspraktiken in der eigenen Organisation zu etablieren.

 

 

Weiterführende Informationen zu neto consulting finden Sie unter:

 

 

 

 

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:

  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.

Unter den folgenden Bedingungen:

 

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay

 

Wie können Unternehmen von der Anschaffung von E-Fahrzeugen profitieren?

Einblicke von Shell Fleet Solutions

 

Häufig hindern die angenommenen hohen Kosten die konsequente Elektrifizierung von Fuhrparks. Verantwortliche legen einen starken Fokus auf Anschaffungskosten, während Dekarbonisierungsziele möglicherweise nicht fristgemäß umgesetzt werden können. Ein genauerer Blick zeigt jedoch, dass der voraussichtliche Wert der Anschaffung von Elektrofahrzeugen für Flotten diese bereits heute auch finanziell rentabel machen kann.

Die Besorgnis der Unternehmen über die finanziellen Implikationen einer Umrüstung sind nachvollziehbar. Um diese jedoch fair zu bewerten, sollte der Blick auf die langfristigen Gesamtbetriebskosten (TCO) gerichtet sein und nicht ausschließlich auf die Anschaffungskosten der Fahrzeuge. Wenn die Gesamtbetriebskosten mit der Effizienz einer Flotte übereinstimmen, wird die langfristig ohnehin unumgängliche Dekarbonisierung weitaus attraktiver. Es gilt, den wahren Wert von Elektrofahrzeugen zu bestimmen. Denn nur so wird ein ausgeglichenes Bild davon vermittelt, ab wann und in welchem Ausmaß Unternehmen von der Umrüstung profitieren.

Eine langfristige TCO-Analyse kann den wahren Wert aufzeigen

Um die TCO von E-Fahrzeugen im Vergleich zu Verbrennern zu verstehen, müssen verschiedene Faktoren berücksichtigt werden, wie beispielsweise der Flottentyp oder auch Marktvariablen. Es kann aktuell noch immer sein, dass Anschaffung und Betrieb eines Elektrofahrzeugs noch immer kostspieliger sind als bei einem Verbrenner. Über eine Analyse des Gesamtlebenszyklus eines Fahrzeugs hinweg können Flottenmanager aber bestimmte Bereiche identifizieren, in denen E-Fahrzeuge schon heute kosteneffektiv eingesetzt werden können.

Die Langzeitperspektive und weitere positive Nebeneffekte für das Unternehmen insgesamt sind wichtige Faktoren. Verantwortliche müssen berücksichtigen, dass erfolgreiche ESG-Initiativen eine immer wichtigere Rolle bei der Einstiegsbereitschaft von Investoren spielen. Auch regulatorische Maßnahmen wie das Verbrenner-Verbot der EU müssen eingeplant werden.

Nach einer McKinsey-Studie könnten die Gesamtbetriebskosten pro Meile für elektrische leichte Nutzfahrzeuge in den USA bis 2025 voraussichtlich um 13% unter denen vergleichbarer Verbrenner liegen (IEA. „Global EV-Outlook 2023: Policy Developments“, 2023). Dies resultiert aus geringeren Betriebskosten von Elektrofahrzeugen im Vergleich zu Verbrennern, die voraussichtlich im Laufe der Zeit weiter sinken werden. Die langfristige Frage ist also nicht, ob Unternehmen, sondern wann Unternehmen ihre Flotten umrüsten.

Schlüsselfaktor Laden: Eine effiziente und intelligente Infrastruktur für Flotten

Die Frage der Ladeinfrastruktur ist für Flottenmanager aus finanziellen und praktischen Gründen eine Herausforderung. Eine geeignete Ladeinfrastruktur trägt wesentlich zu einem effizienten und kostengünstigen Betrieb von E-Flotten bei. Zudem macht sie eine zuverlässige Analyse der Gesamtbetriebskosten erst möglich.  Bei der Planung einer effizienten Ladeinfrastruktur sind zahlreiche Faktoren zu berücksichtigen. Bei sorgfältiger Planung und langfristiger Unternehmensperspektive können Elektrofahrzeuge zu deutlich niedrigeren TCO führen und die Effizienz der gesamten Flotte steigern.

Eine Untersuchung von Shell und Deloitte zeigt, dass beim Thema Ladeinfrastruktur noch viel Unsicherheit bei den Flottenverantwortlichen besteht. Deshalb stellt Shell Fleet Solutions umfassende Leitfäden und Hintergrundinformationen zur Verfügung, damit die Dekarbonisierung von Unternehmensflotten strategisch und kosteneffizient umgesetzt werden kann.

Mit einer Anmeldung bei „Accelerate to Zero“ können Fuhrparkmanager tiefer in die Fakten eintauchen und gemeinsam mit Shell Fleet Solutions den wahren Wert von der Elektrifizierung ihrer Flotte bestimmen: www.shell.de/a2z

 

 

 

Aufmacherbild / Quelle / Lizenz
Bild von Hookyung Lee auf Pixabay

Die fünf großen IT-Trends 2024

In keiner Branche gibt es so rasante Entwicklungen mit einem solch großen Impact für Geschäftsmodelle und die Art wie wir in Unternehmen arbeiten wie in der IT. Deshalb haben wir den Fortune-500-Solutions Integrator Insight gefragt: Was sind die fünf wichtigsten Trends in der IT für 2024? Hier die Antworten des Geschäftsführers der DACH-Region Thomas Kühlewein.

 

Herr Kühlewein, können Sie uns einen Überblick über die wichtigsten Trends geben, die Ihrer Meinung nach das Jahr 2024 dominieren werden?

Auf Basis unseren Erfahrungen und den Marktinformationen, die unsere Experten im vergangenen Jahr gesammelt haben, haben wir fünf Haupttrends definiert:

  1. Künstliche Intelligenz: Der Einsatz insbesondere der generativen KI ermöglicht nachhaltiger als bisher die Umwandlung von Daten in Wissen und verändert die Art, wie wir arbeiten werden. Ein echter Game Changer für viele Unternehmen.
  2. Der phygitale Kunde: Die Verschmelzung von digitalen und physischen Kunden-Erlebnissen wird weiter zunehmen.
  3. Zunehmende Vernetzung durch IoT: Immer mehr Geräte werden vernetzt sein und Daten sammeln, die wertvoll sein können, aber die es auch gilt zu filtern und zu nutzen.
  4. Die Dezentralisierung der Arbeitsplätze: Sie wird weiter voranschreiten, mit all ihren Herausforderungen unter anderem in Sachen Cybersicherheit.
  5. Und last but not least ökologische Nachhaltigkeit: Nachhaltige Arbeitspraktiken sind heute ein strategischer Unternehmensschwerpunkt. Dieser Trend setzt sich fort.

Sie haben als ersten Trend die KI genannt und sie als Game Changer bezeichnet. Warum?

KI wird eine entscheidende Rolle bei der Erschließung des Werts von Unternehmensdaten spielen, indem sie sie in Wissen umwandelt. Generative KI – also KI, die neue Inhalte auf Basis von Daten, aus denen sie lernt, erstellen kann, wird zum Herzstück des Informationsmanagements. Sie ermöglicht es Unternehmen, ihre organisatorische Intelligenz zu maximieren und ihre Produktivität und Effizienz zu steigern sowie das Kundenerlebnis zu verbessern. KI verändert die Grundlagen der Entscheidungsfindung und kann unsere Fähigkeit verbessern, bekannte Probleme zu lösen und diese Erkenntnisse sogar für die Erkennung und Lösung von Herausforderungen zu nutzen, denen wir uns bisher nicht bewusst waren, die aber Auswirkungen auf Unternehmen haben oder haben können.


„Arbeiten heute ist hybrid, global, flexibel, mobil und stark vernetzt. Mitarbeiter haben daher gewisse Erwartungen an den Zugang zu Systemen, kollaborativen Tools und virtuellen Arbeitsräumen, unabhängig von ihrem physischen Standort.“

Thomas Kühlewein


Sie haben eben vom phygitalen Kunden gesprochen. Ein Kunstwort, das noch nicht so lange bekannt ist, für Sie aber einen wichtigen Trend beschreibt. Inwiefern?

Phygital ist eine Kombination der Worte physisch und digital und beschreibt eine fließende Verbindung der Online- und der Offline-Welt. Heute erwarten Kunden, sich nahtlos zwischen diesen Welten bewegen zu können. Zum Beispiel möchten sie Online-Banking für alltägliche Transaktionen benutzen, aber für ihre Baufinanzierung zu ihrem Berater in die Filiale gehen. Unternehmen müssen diese hybriden Möglichkeiten schaffen, um wettbewerbsfähig zu bleiben.

Doch es gibt noch eine zweite Herausforderung. Das digitale Kundenerlebnis eröffnet Unternehmen dank der ständigen Erfassung und Analyse von Daten große Möglichkeiten, näher an den Kunden zu kommen. Aber die Interaktionen mit dem Kunden müssen trotz steigender Automatisierung und Digitalisierung empathisch und emotional intelligent bleiben. Es ist ein hochspannender Balance-Akt.

Neben dem Kundenerlebnis ist ein zweiter Teil unseres Lebens immer mehr durch hybride Konzepte geprägt – die Arbeit.

Ein Trend, der sich nicht mehr umkehren lässt – und das ist gut so. Arbeiten heute ist hybrid, global, flexibel, mobil und stark vernetzt. Mitarbeiter haben daher gewisse Erwartungen an den Zugang zu Systemen, kollaborativen Tools und virtuellen Arbeitsräumen, unabhängig von ihrem physischen Standort. Unternehmen müssen diese Erwartungen erfüllen, um Fachkräfte von sich als Arbeitgeber zu überzeugen. Gleichzeitig müssen sie die Cybersicherheit gewährleisten.

Als weiteren Trend haben Sie die zunehmende Vernetzung durch IoT genannt. Wie verändert das Internet der Dinge unsere Welt?

IoT ist mittlerweile so allgegenwärtig in unserem Leben und an unseren Arbeitsplätzen, dass wir seine Präsenz als selbstverständlich ansehen. Durch die flächendeckende Versorgung mit 5G wird sich das Wachstum von IoT voraussichtlich fortsetzen. Die Herausforderung besteht in der enormen Datenmenge. Es ist nicht praktikabel und sinnvoll, alle von IoT-Geräten erzeugten Daten zu speichern und zu analysieren, aber es ist wichtig, Wege zu finden, um die wichtigsten Kennzahlen zu erfassen und zu bewerten. Denn diese Daten können dazu beitragen, Geschäftsprozesse und Interaktionen zu optimieren. Aufgrund dessen sehen wir auch eine wachsende Bedeutung von intelligentem Edge-Computing, das hilft, die Last der gesammelten Daten zu verteilen und mehr Analysen lokaler oder globaler relevanten Daten durchzuführen.

Wir haben viel über Digitalisierung und ihre Möglichkeiten gesprochen. Ein Trend hebt sich davon ab: die ökologische Nachhaltigkeit. Welche Bedeutung hat dies für Unternehmen im Jahr 2024?

Nachhaltige Arbeitspraktiken sind heute ein strategischer Unternehmensschwerpunkt. Sie sind nicht mehr nur ein Punkt auf der Checkliste, sondern stehen im Zentrum der modernen unternehmerischen Umwelt-, Sozial- und Governance-Vision (ESG). Partner und Kunden beurteilen Unternehmen und Lieferanten zunehmend auch nach ihren Nachhaltigkeitswerten. Da genügen Lippenbekenntnisse auf der Unternehmenswebsite längst nicht mehr. Wer Reputationsschäden und finanzielle Risiken vermeiden und gleichzeitig die soziale Verantwortung, die Unternehmen haben, erfüllen möchte, kommt nicht umhin, ganzheitliche Nachhaltigkeitskonzepte umzusetzen.

Abschließend die Frage an Sie: Was heißt all das für Sie als Geschäftsführer und für Ihre Pläne für 2024?

Als IT-Partner müssen wir aus digitaler Innovation kontinuierlich praktikable Lösungen mit dem Ziel entwickeln, die Innovationskraft unserer Kunden weiter zu stärken. Entsprechend folgen wir Trends, um neue Chancen der digitalen Transformation laufend zu erkennen und zu bewerten. Als Unternehmen haben wir zum Beispiel eine Strategie entwickelt, die es allen unseren 14.500 Mitarbeiterinnen und Mitarbeitern weltweit ermöglicht, von KI zu profitieren.

Wir lernen täglich, um unsere Kunden in der digitalen Transformation heute und in Zukunft als neutraler IT-Partner zu begleiten.

 

Vielen Dank für diese interessanten Einblicke.

 

Wer sich näher über diese fünf Trends informieren möchte,
kann dies im aktuellen Trends Report von Insight unter Trends Report | Insight DE tun.

 

 

Aufmacherbild / Quelle / Lizenz
Image by Peace,love,happiness from Pixabay

Digitale Agilität

Gastbeitrag von Nina Koch

 

Digital-First-Strategie: Der Schlüssel zum Wachstum im deutschen Mittelstand

In dieser kritischen Phase, in der das Wachstum der deutschen Wirtschaft unter dem europäischen Durchschnitt liegt, wird die Notwendigkeit einer strategischen Neuausrichtung immer deutlicher. Und laut dem KfW-Ifo-Mittelstandsbarometer ist das Geschäftsklima der kleinen und mittleren Unternehmen (KMU) in Deutschland im Dezember 2023 um 3,1 Zähler auf -19,1 Saldenpunkt gesunken – ein deutliches Warnsignal.

Nina Koch arbeitet seit 2022 als Director Customer Success bei Slack, ihre Aufgabe ist es, ein Team aus verschiedenen Customer Success Managern in ganz Europa aufzubauen, die Kunden durch die Nutzung der Automatisierungs-, Wissens- und Verbindungsfunktionen der Produktivitätsplattform zum Erfolg verhelfen können.

Der “Digital-First” Ansatz bietet hier großes Potenzial, den Mittelstand zu revitalisieren. Diese Strategie bedeutet den Umbau zu einem agilen Unternehmen, in dem Technologie und Unternehmenskultur nahtlos ineinandergreifen, um eine solide Basis für die gesamte Organisation zu schaffen. Dabei adressiert diese Herangehensweise nicht nur zentrale Herausforderungen wie ineffiziente Kommunikation, mangelnde Transparenz und komplexe Geschäftsprozesse, sondern bietet gleichzeitig Lösungsmöglichkeiten für diese.

Digital-First-Kultur: Mehr als nur Technologie – ein neues Mindset:

 Die digitale Transformation im deutschen Mittelstand beinhaltet weit mehr als die Einführung technologischer Neuerungen. Sie repräsentiert den Übergang zu einer Digital-First-Kultur, die das Herzstück eines jeden zukunftsorientierten Unternehmens bilden sollte. Dieser Ansatz bettet das Thema Digitalisierung tief in die DNA einer Firma ein, was zu mehr Agilität, Effizienz und Wettbewerbsfähigkeit in sämtlichen Geschäftsbereichen führt. Die Transformation hin zu einer Digital-First-Mentalität in Unternehmen erfordert ein ausgewogenes Zusammenspiel verschiedener Schlüsselaspekte:

 

  1. Bildung als Brücke: Befähigung der Belegschaft
    Gemäß einer Studie von Gartner aus dem Jahr 2021 reagieren 60 Prozent der Mitarbeitenden aufgrund unzureichender Schulungen und Unterstützung frustriert auf neue Technologien. Durch die Bereitstellung der notwendigen Ressourcen und Trainings können KMUs sicherstellen, dass ihre Belegschaft nicht nur die neuen Technologien annimmt, sondern diese auch effektiv und ihren individuellen Bedürfnissen entsprechend nutzt.
    Um Widerstände zu minimieren, ist es unabdingbar, Ziele und Erwartungen klar und transparent zu kommunizieren. Jeder Mitarbeitende sollte die übergeordnete Vision des Unternehmens verstehen und sich mit dieser identifizieren. Dies fördert das Engagement und die Bereitschaft, an der digitalen Transformation aktiv teilzunehmen.
  2. Demokratisierung von Technologie: Förderung einer Bottom-Up-Kultur
    Ein Wechsel von top-down getroffenen Entscheidungen hin zu einem Modell, bei dem die Mitarbeitenden in den Auswahlprozess zur Anschaffung neuer Tools und Software einbezogen werden, ist entscheidend. Durch eine Kultur der offenen Kommunikation und Kooperation werden Teams nicht nur in iteratives Denken eingeführt, sondern auch dazu ermutigt, digitale Lösungen zu finden, die sowohl ihren individuellen Anforderungen als auch den Zielen des Unternehmens entsprechen.
  3. Führungskräfte als Wegbereiter der Digitalisierung: Inspiration und Leitung
    Führungskräfte haben Vorbildfunktion und spielen eine entscheidende Rolle bei der Implementierung der Digital-First-Strategie. Sie müssen die Werte einer digitalen Kultur vorleben und durch eine Kombination aus Führung, Schulungen und transparenter Kommunikation eine Grundlage und vor allem Akzeptanz für die digitale Transformation schaffen.

 

Smarte Technologiewahl: Der Grundstein für digitale Agilität

Die Auswahl neuer Prozesse, Plattformen und Tools stellt für Unternehmen jeglicher Größe eine Herausforderung dar. Besonders für kleinere Unternehmen, die oft über begrenzte IT-Ressourcen verfügen, gestaltet sich dieser Wandel oft schwierig. Aus diesem Grund müssen gerade KMUs geeignete digitale Lösungen finden, die sich nahtlos in die vorhandene Infrastruktur integrieren lassen. All-in-one-Lösungen, wie Produktivitätsplattformen, bieten hier eine optimale Grundlage: Durch ihre Channel-Struktur schaffen sie eine optimale Basis für effiziente, standortunabhängige und asynchrone Zusammenarbeit und somit einen reibungslosen Informationsfluss. Diese Flexibilität ermöglicht es, die digitale Infrastruktur zu zentralisieren und fördert die Teamdynamik im hybriden Arbeitsumfeld. So profitieren KMUs gleich doppelt: Neben einer zentralen digitalen Infrastruktur haben Unternehmen nun auch die Möglichkeit, standortunabhängig qualifizierte Fachkräfte anzuwerben – ein großer Pluspunkt im War for Talents.

 

„Die Zukunft des Mittelstands in der digitalisierten Welt wird von der Fähigkeit abhängen, sich schnell anzupassen, kontinuierlich zu lernen und innovative Technologien zu integrieren.“

Nina Koch, Director Customer Success bei Slack

Automatisierung: Der Weg zu höherer Effizienz und Produktivität

In der heutigen Wirtschaftswelt ist Digitalisierung gut, Automatisierung allerdings besser. Vor allem KMUs profitieren durch den strategischen Einsatz von Künstlicher Intelligenz (KI) und Automatisierung. So können sie ihre betriebliche Effizienz, Resilienz und Produktivität verbessern.

Durch den Einsatz von Produktivitätsplattformen werden Teams ermächtigt Routineprozesse eigenständig zu automatisieren. Dabei bieten insbesondere No-/Low-Code-Workflows und modulare Templates enormes Potenzial. Diese erlauben durch ihr Baukastenprinzip eine flexible Kombination von Funktionalitäten und benötigen daher wenig bis keine Programmierkenntnisse, um schnell und unkompliziert eigene Workflows einzurichten. Der Einsatz solcher Tools befreit Mitarbeitende von repetitiven Aufgaben wie beispielsweise der Bearbeitung von Anfragen, dem Incident-Management oder dem Versand von Eingangsbestätigungen und schafft Freiräume für strategische, kreative oder wertschöpfende Projekte. Trivago, der Düsseldorfer Spezialist für Hotelsuche, hat einen eigenen Bot entwickelt, der die Erfassung von Quartalsverträgen automatisiert und somit die Angestellten entlastet. Zusätzlich fördert Trivago die Digital Skills seiner Belegschaft durch regelmäßige Schulungen, was langfristig zu einer stärkeren Fokussierung auf wichtigere Aufgaben führt.

Digital-First als Fundament für die Zukunft des Mittelstand

Die Zukunft des Mittelstands in der digitalisierten Welt wird von der Fähigkeit abhängen, sich schnell anzupassen, kontinuierlich zu lernen und innovative Technologien zu integrieren. Durch die Umarmung einer Digital-First-Strategie können KMUs ihre Position stärken und sich als proaktive, zukunftsorientierte Akteure in der globalen Wirtschaft etablieren. Letztlich ist es dieser mutige Schritt in Richtung Digitalisierung, der den Mittelstand nicht nur durch aktuelle Herausforderungen navigieren, sondern auch den Grundstein für nachhaltiges Wachstum und langfristigen Erfolg legen wird.

 

***

 

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay

 

 

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:

  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.

Unter den folgenden Bedingungen:

  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

EU AI Act: appliedAI fordert Zustimmung der Bundesregierung

Stellungnahme zum EU AI Act

Auf den letzten Metern der Gespräche könnte der EU AI Act an der Enthaltung einiger Länder scheitern. Dabei wäre kein AI Act zum aktuellen Zeitpunkt der Dynamik und vor dem Hintergrund der entstehenden Unsicherheit negativer als ein Zustandekommen des AI Acts. Europas größte KI-Initiative appliedAI bezieht Stellung zu den aktuellen Entwicklungen und befürworten die Verabschiedung des EU AI Acts.

Die finale Entscheidung zur Verabschiedung des EU AI Acts am 2. Februar 2024 steht auf der Kippe. Eine Enthaltung Deutschlands könnte zum Dominoeffekt für weitere Länder werden. Daher sprechen sich die Initiative sowie das Institute appliedAI für eine deutsche Zustimmung zum AI Act aus. Ein Scheitern des AI Acts ist aus mehreren Gründen negativer zu bewerten als die Umsetzung des AI Acts. So ist davon auszugehen, dass ein Scheitern zur Verabschiedung nationaler Regulierungsansätze führt und den europäischen Binnenmarkt zu einem weiteren Flickenteppich macht, mit entsprechend negativen Konsequenzen für Marktzugänge, hohem Umsetzungsaufwand, geringeren Investitionen und erhöhter Unsicherheit.

„Der EU AI Act wird maßgeblich Innovation in Europa beeinflussen. Kein AI Act wird allerdings nur zu noch größerer Unsicherheit und Zurückhaltung im Markt führen. Daher sollten wir uns lieber auf eine gute Umsetzung konzentrieren, statt wieder zurück auf Los zu gehen. Nun muss aber die Innovationsfähigkeit Europas im Fokus stehen“, so Dr. Andreas Liebl, Managing Director und Gründer der appliedAI Initiative. „Verzögerungen durch die anstehende Europawahl und die anschließende Bildung einer neuen EU-Kommission würden zu einer weiteren monatelangen Unsicherheit bei der KI-Implementierung auf Unternehmensseite führen.“

Es braucht einheitliche Regeln auf EU-Ebene

appliedAI setzt sich bereits seit mehreren Jahren für die Innovations- und Wettbewerbsfähigkeit Europas durch die Entwicklung und den Einsatz von KI-Lösungen sowie die Stärkung des europäisches KI-Ökosystems ein. Von Anfang an ist die Regulierung von KI dabei ein wichtiges Thema. Entscheidend ist es jetzt Rechtssicherheit zu erlangen, denn die Frage, ob und in welcher Form eine EU-weite Regulierung kommt, führt derzeit zu Zurückhaltung von Investitionen und zu Unsicherheiten bei der Implementierung von KI-Produkten. „Es gilt das Vertrauen in die neuen Technologien sowie deren Einsatz zu fördern und die digitale wie auch technologische Souveränität zu steigern”, so Frauke Goll Geschäftsführerin des appliedAI Institute for Europe. Ein mögliches Scheitern des EU AI Acts wäre ein großer Rückschlag für die bisherigen Bemühungen einer einheitlichen Regulierung.  Dieses würde laut Goll letztlich zu einem viel größeren Kollateralschaden führen als die Verabschiedung des aktuellen Gesetzesentwurfs.

 Auch bei Zustimmung, dringender Nachbesserungsbedarf nötig

Sollte es am 2. Februar zu einer Zustimmung kommen, könnte der EU AI Act bereits im Sommer in Kraft treten. Die Rahmenbedingungen des aktuellen Gesetzesentwurfs sind für appliedAI akzeptabel – allerdings müsste an einigen Stellen noch nachgeschärft beziehungsweise verpflichtende Vereinbarung für die Umsetzung getroffen werden. In vielen Bereichen besteht weiterhin große Unklarheit, wodurch Anpassungen sowie Konkretisierungen und Interpretationen des Gesetzestextes notwendig sind. Diese müssen schnellstmöglich umgesetzt werden.

Druck besteht insbesondere bei der Sicherstellung gültiger Standards für KI-Anwendungen, denn Unternehmen entwickeln bereits heute die Produkte, die in den nächsten Jahren auf den Markt kommen und müssten dafür den Standards bereits jetzt folgen. Neben der Implementierung von Standards muss jedoch auch die Anpassungsfähigkeit der Regulierung berücksichtigt werden.

Die technologische Entwicklung ist rasant, so dass das AI Office der EU über die Kompetenz verfügen muss, Änderungen der Regulierung anzustoßen bzw. Anpassungen vorzunehmen. Zudem sollte es ein kontinuierliches Monitoring der Startup- und Innovationslandschaft sowie unmittelbare Reaktionen bei negativen Auswirkungen geben, etwa durch kurzfristige, gezielte und wirkungsvolle Förderprogramme. Zusätzlich sollte eine Stelle für verbindliche Interpretationen bei Fragen der Industrie geschaffen werden, mit definierter maximaler Antwortzeit von weniger als drei Monaten. Die generellen Antwortzeiten von Behörden sollten ebenfalls innerhalb dieser Zeitspanne sichergestellt werden. Ergänzend sind umfassende Unterstützungsprogramme zur Reduzierung der Kosten für die Wirtschaft, zur Stärkung europäischer KI-Unternehmen und zur Weiterbildung von Aufsichtsbehörden und Entwicklern nötig.

appliedAI würde darüber hinaus die Etablierung eines Innovationsrats für KI mit Teilnehmenden aus Industrie, KI-Initiativen, Gründungszentren und Startups befürworten. Diese Instanz soll als Balance zum AI Office fungieren, um die Interessen und Ansichten für die zukünftige Innovationsfähigkeit Europas zu vertreten.

„Was wir in Europa brauchen, sind vertrauenswürdige KI-Anwendungen, die in einem innovationsfreundlichen Rechtsrahmen festgelegt werden. Wir blicken gespannt auf den 2. Februar und setzen uns für ein Ja zum EU AI Act ein“, fasst Managing Director Liebl zusammen.

 

 

 

Über die appliedAI Initiative

appliedAI ist Europas größte Initiative für die Anwendung vertrauenswürdiger KI-Technologie. Die Initiative wurde 2017 von Dr. Andreas Liebl als Bereich der UnternehmerTUM München aufgebaut und 2022 in ein Joint Venture mit dem Innovation Park Artificial Intelligence (IPAI) Heilbronn überführt.
An den Standorten München und Heilbronn verfolgen über 140 Mitarbeitende das Ziel, die europäische Industrie zu einem Gestalter im KI-Zeitalter zu machen, um die Wettbewerbsfähigkeit Europas zu erhalten und die Zukunft aktiv mitzugestalten.
appliedAI unterstützt internationale Konzerne, darunter BMW und Siemens, sowie mittelständische Unternehmen ganzheitlich bei der KI-Transformation. Dies gelingt durch den partnerschaftlichen Austausch und den gemeinsamen Aufbau von Wissen, durch umfassende Beschleuniger-Programme sowie durch spezifische Lösungen und Services.

Weiter Informationen finden Sie unter www.appliedai.de

 

 

 

Über das gemeinnützige appliedAI Institute for Europe

Das appliedAI Institute for Europe hat sich zum Ziel gesetzt, das europäische KI-Ökosystem zu stärken, Forschung im Bereich KI voranzutreiben, Wissen rund um KI zu entwickeln, vertrauenswürdige KI-Tools bereitzustellen und Bildungs- sowie Interaktionsformate rund um hochwertige KI-Inhalte zu schaffen.
Als gemeinnützige Tochtergesellschaft der appliedAI Initiative wurde das Institut 2022 in München gegründet. Die appliedAI Initiative selbst ist ein Joint Venture aus UnternehmerTUM und IPAI. Die Leitung des Instituts obliegt Dr. Andreas Liebl und Dr. Frauke Goll.
Das appliedAI Institute for Europe stellt die Menschen in Europa in den Mittelpunkt. Es verfolgt die Vision, eine gemeinsame KI-Community zu formen und hochwertige Inhalte im Zeitalter der KI für die gesamte Gesellschaft bereitzustellen. Durch die Förderung von vertrauenswürdiger KI beschleunigt das Institut die Anwendung dieser Technologie und stärkt Vertrauen in KI-Lösungen. Mit einem Fokus auf Wissensentwicklung, Forschung und der Bereitstellung vertrauenswürdiger KI-Tools bietet das appliedAI Institute for Europe eine wertvolle Ressource für Unternehmen, Organisationen und Einzelpersonen, die ihre Kenntnisse und Fähigkeiten im Bereich KI erweitern möchten. Durch Bildungs- und Interaktionsformate ermöglicht das Institut einen intensiven Austausch von Expertise und fördert die Zusammenarbeit zwischen Akteuren aus verschiedenen Bereichen.Das appliedAI Institute for Europe lädt Unternehmen, Organisationen, Startups und KI-Enthusiast:innen ein, von den vielfältigen Angeboten und Ressourcen des Instituts zu profitieren. Die appliedAI Institute for Europe gGmbH wird unterstützt durch die KI-Stiftung Heilbronn gGmbH.

Weitere Informationen finden Sie unter www.appliedai-institute.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Spatial Computing in HR 

Gastbeitrag Hans Elstner
Spatial Computing ist eine sich entwickelnde Form der Datenverarbeitung, bei der unsere physische Welt und virtuelle Erfahrungen miteinander verschmelzen. Es ermöglicht Menschen, auf neue Weise miteinander und mit Maschinen zu interagieren, und verleiht Maschinen die Fähigkeit, unsere physische Umgebung auf neue Weise zu navigieren und zu verstehen. Neue Devices wie die Apple Vision Pro oder die Meta Quest3, mit ihrem Fokus auf Mixed Reality, zeigen wie weit vorangeschritten und wie vielfältig die Technologie ist.
Spatial Computing beginnt bereits, sich auf unser tägliches Leben und die Arbeitswelt auszuwirken, auch im Personalwesen. Wie die digitale Räumlichkeit im Recruiting, beim Onboarding und beim Employer Branding eingesetzt werden kann, erklärt Hans Elstner, Gründer und CEO von rooom.
Spatial Computing ist ein Begriff, den viele in der Geschäftswelt vielleicht zum ersten Mal bei der Ankündigung von Apple gehört haben, aber es ist keineswegs neu. Der Forscher Simon Greenwold definierte Spatial Computing bereits 2003 als: „Menschliche Interaktion mit einer Maschine, bei der die Maschine Bezüge zu realen Objekten und Räumen beibehält und manipuliert.“ Unternehmen wie Amazon, Apple, Magic Leap, Meta, Microsoft und andere haben ihre eigenen Definitionen entwickelt, aber im Grunde laufen sie auf Folgendes hinaus: Spatial Computing erweitert unsere physische Umgebung um eine digitale Schicht, mit der Menschen mit Maschinen und miteinander auf neue Arten interagieren können.
„Spatial Computing erweitert unsere physische Umgebung um eine digitale Schicht, mit der Menschen mit Maschinen und miteinander auf neue Arten interagieren können.“
Zwar spielen VR-Brillen im Spatial-Bereich eine Rolle und ermöglichen die Erfahrung von virtuellen Räumen, jedoch ist die gemeinsame Arbeit mit VR und anderen Hardware-Produkten noch nicht Standard. Webanwendungen erfreuen sich daher großer Nachfrage, da sie eine breitere Zugänglichkeit gewährleisten.
Ein weiterer Aspekt, der eine zentrale Rolle spielt und auch von Apple weiter aufgegriffen wurde, ist Spatial Audio –
also die Lautstärke und die Richtung von Sprechenden relativ zur eigenen Position. Insbesondere bei gemeinsamen
Treffen und Zusammenarbeit spielt die räumliche Audioerfahrung eine bedeutende Rolle, die die Interaktion in virtuellen Umgebungen weiter verbessert.

Die Evolution der Kommunikation und in der Personalbeschaffung

Die Art und Weise, wie wir über Bildschirme kommunizieren, wird sich zwangsläufig weiterentwickeln .Dies führt zu einer Entwicklung in Richtung immersiverer Kommunikationsformen, bei denen man vollständig in die virtuelle Welt eintaucht.
Ein weiterer logischer Schritt ist das Erleben von Kopräsenz, also dem gemeinsamen Dasein mit anderen Menschen im virtuellen Raum. Ein wichtiger Bereich, in dem Spatial Computing eingesetzt wird, ist die Personalbeschaffung und -verwaltung. Anstelle von schlecht produzierten Videos und veralteten Folien wird Spatial Computing heute schon eingesetzt, um Bewerber:innen bei der Vorbereitung auf Vorstellungsgespräche zu helfen oder über geografische Distanz hinweg Recruiting persönlicher und nahbarer zu machen.
Die Anwendungsmöglichkeiten von Spatial Computing ziehen sich jedoch über den kompletten Employer Lifecycle. Insbesondere in den jüngsten Pandemie-Jahren erlebten viele Mitarbeitende ein eher distanziertes Remote Onboarding.
Während Videokonferenzen zweifellos hilfreich sind, können sie jedoch nicht mit der Erfahrung mithalten, Kolleg:innen und die neue Arbeitsumgebung in drei Dimensionen zu erleben. Eine Lösung kann da eine immersive digitale Welt bieten, etwa durch einen virtuellen Rundgang durch den Hauptsitz des Unternehmens, das Kennenlernen neuer Teammitglieder in einem interaktiven 3D-Raum oder durch virtuelle Teambuilding-Aktivitäten. Spatial Computing erweist sich darüber hinaus als wertvoll für eine breite Palette von bestehenden HR-Aufgaben.
Es ermöglicht etwa den Zugang zu On-Demand- Schulungsprogrammen für komplexe Geräte, räumliche Meetings von überall aus und interaktive Veranstaltungen, die die Zusammenarbeit und Kreativität fördern. Mitarbeitende werden in dreidimensionalen Welten nicht nur informiert, sondern aktiv eingebunden. Durch virtuelle Welten und immersive Erlebnisse wird Wissen nachhaltig verankert, da alle aktiv am Lernprozess teilnehmen.

Immersive Unternehmenspräsentation und dreidimensionales Employer Branding

Die Flexibilität ermöglicht es Unternehmen, nicht nur statische Inhalte zu präsentieren, sondern für das Employer Branding interaktive 3D-Welten zu schaffen, die die Unternehmenskultur auf authentische Weise widerspiegeln.
Unternehmen können durch diese Herangehensweise ihre einzigartige Identität herausstellen und eine einladende Atmosphäre für neue und bestehende Mitarbeitende schaffen.
Die geschickte Integration von Gamification-Elementen, also die Anwendung von spielerischen Elementen und Mechanismen in einem nicht-spielerischen Kontext, macht den Austausch von Ideen und die Zusammenarbeit zudem zu einem interaktiven Erlebnis. Die spielerischen Aspekte fördern nicht nur die Kreativität, sondern stärken auch den Teamgeist. Virtuelle Teamspiele oder Challenges könnten die Zusammenarbeit intensivieren und gleichzeitig eine
positive und motivierende Arbeitsatmosphäre schaffen.
Zusätzlich ermöglicht die standortunabhängige Natur dieser Plattform eine weltweite Vernetzung von Mitarbeitenden. Virtuelle Räume fördern die Nähe von Teams trotz räumlicher Distanz und tragen nicht nur zur täglichen Zusammenarbeit bei, sondern unterstützen auch die Entwicklung einer globalen Unternehmenskultur, die Vielfalt und Inklusion betont.

Gekommen um zu bleiben

Aktuell beherrscht generative KI die Schlagzeilen, daher ist es leicht zu verstehen, warum die Geschäftswelt das Spatial Computing noch nicht voll eingebunden hat. Dennoch bietet das Spatial Computing einige erste Einblicke in seine
heutige Nützlichkeit und in das Geschäftspotenzial des nächsten Jahrzehnts.
Spatial Computing ist eine natürliche Weiterentwicklung der Art, wie wir Technologie nutzen und erleben. Es kann neue Schnittstellen und Möglichkeiten der Interaktion mit Menschen schaffen. Spatial Computing tritt in unser Leben
ähnlich wie Telefone und statische Computer zuvor und verändert die Weise, wie wir miteinander und mit unserer Arbeit interagieren. Es hat das Potenzial, die Art, wie die Menschen über Computer denken, grundlegend zu verändern – von der Zusammenarbeit zwischen Mitarbeitenden über die Förderung der Kreativität bis hin zur Optimierung von Geschäftsprozessen.
Wenn Personaler:innen die Technologie richtig integrieren, werden Recruiting, Onboarding und Employer Branding auf ein neues Niveau gebracht. Spatial Computing ist keine virtuelle Flucht und es ist keine Modeerscheinung. Es ist der natürliche nächste Schritt in der Interaktion zwischen Menschen miteinander und zwischen Computern und Menschen. Wir befinden uns noch in der Anfangsphase des Spatial Computing. Dennoch deuten alle Signale auf einen Wandel hin, der so gewaltig ist wie der, den wir mit dem Aufkommen des Internets und des Mobiltelefons erlebt haben.

Über den Autor:

Hans Elstner ist Gründer und CEO der 2016 gegründeten rooom AG. Das Thüringer Unternehmen bietet Unternehmen weltweit eine Web-basierte Plattform, um digitale Welten, Showrooms, Events und mehr selbst zu gestalten und ist Landessprecher Thüringen des Startup-Verbandes Deutschlands
Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Warum jede Führungskraft einen Risikomanagementplan haben sollte

Geschäftsrisiken sind ein wichtiges Thema für Betriebsleiter:innen – vor allem, weil es sich um Fehler handelt, die sie Zeit und Geld kosten

Betriebsleiter:innen jonglieren täglich mit unterschiedlichen Risiken. Es ist ihre Aufgabe, bestehende Risiken zu bewerten und abzuschwächen sowie Strategien zur Vermeidung künftiger Risiken zu entwickeln. Dabei steht viel auf dem Spiel: Risikofolgen reichen von Produktivitätsverlusten – während die Mitarbeiter:innen mit der Behebung von Fehlern beschäftigt sind – bis hin zu Geldverschwendung, wenn Fristen und Fortschritte nicht eingehalten werden.

Cosima von Kries, Nintex Director, Solution Engineering EMEA.

„Ein Risikomanagementplan hilft Führungskräften dabei, Risiken bestmöglich zu steuern. Er erfordert eine sorgfältige Analyse, um Entscheidungen über die Ressourcenzuweisung im Interesse der Effizienz zu treffen. Letztendlich ist es das Ziel einer Führungskraft, unvermeidbare Risiken in Chancen für einen erfolgreichen Betrieb umzuwandeln – und das ist keine leichte Aufgabe,“ weiß Cosima von Kries, Nintex Director, Solution Engineering EMEA.

 

Compliance, Regulierung und betriebliche Risiken 

Betriebsleiter:innen sind ständig auf der Suche nach Risiken im Zusammenhang mit der Einhaltung von Gesetzen und Vorschriften sowie nach betrieblichen Risiken, die sich negativ auf den Betriebsablauf auswirken könnten.

Sich ändernde Gesetze und Vorschriften stellen ein Risiko für Unternehmen dar, die die notwendigen Änderungen nicht schnell genug umsetzen können, um die Vorschriften einzuhalten. Die Bewältigung dieser Risiken kann Zeit und Ressourcen vom normalen Geschäftsbetrieb abziehen.

Zu den operativen Risiken gehören Fehler oder Versäumnisse, die während des Tagesgeschäfts auftreten und schnell behoben werden müssen, um größere Unterbrechungen zu vermeiden. Alle diese Arten von Risiken stellen eine zusätzliche Belastung für Betriebsleiter:innen dar, da sie sich mit allen Abteilungen abstimmen müssen, um potenzielle Probleme zu entschärfen. Dies nimmt wieder Zeit und Ressourcen in Anspruch, welche ohnehin knapp verfügbar sind.

„Für Betriebsleiter:innen können die Risiken im Zusammenhang mit der Einhaltung von Vorschriften, gesetzlichen Bestimmungen und betrieblichen Abläufen schnell überwältigend werden, wenn sie diese nicht richtig handhaben. Ein Beispiel für ein solches Risiko sind zu komplexe, manuelle Prozesse, die zu Ineffizienzen führen. Ganz gleich, ob es sich um Kundendienstvereinbarungen oder die Implementierung neuer Systeme handelt, jede Art von Risiko kann zu unerwarteten Ineffizienzen und Fehlern führen, die das Unternehmen letztendlich übermäßig viel Geld kosten und die Produktivität beeinträchtigen,“ erklärt Cosima von Kries genauer.

 

„Ein gutes Prozessmanagement stellt sicher, dass die Prozesse regelmäßig aktualisiert und automatisiert werden, um alle Änderungen zu berücksichtigen.“

 

Risikomanagementplan mit Geschäftsprozessmanagement und Automatisierung

 Um potenzielle Risiken im Griff zu behalten, benötigen Führungskräfte proaktive Prozesse, die Risiken antizipieren, identifizieren und verwalten, bevor sie zu einer echten Bedrohung für das Unternehmen werden. Wenn die richtigen Prozesse implementiert und automatisiert werden, können Betriebsleiter:innen in jeder Situation mit Zuversicht präzise Strategien anwenden und die Chancen auf störende Auswirkungen mindern.

Cosima von Kries weist darauf hin, dass Prozessmanagement und -automatisierung Führungskräften mehr denn je die Möglichkeit geben, Risiken zu minimieren; dies sollten alle Führungskräfte als Teil ihrer Managementstrategie in Betracht ziehen.

Die Prozessautomatisierung verringert das Risiko weiter, indem sie fehleranfällige, sich wiederholende und manuelle Prozesse automatisiert und so die Datengenauigkeit und Prozesseffizienz verbessert. Diese proaktive Strategie hilft operativen Teams, potenzielle Fehler zu erkennen und zu beseitigen, bevor sie auftreten, und spart so Zeit und Geld. Außerdem können die Verantwortlichen den Fortschritt in Echtzeit überwachen und sicherstellen, dass unvorhergesehene Risiken schnell erkannt und behoben werden.

Beispiele hierfür sind digitale Formulare, automatisierte Dokumentenzusammenarbeit, Workflows, robotergestützte Prozessautomatisierung (RPA), Geschäftsregelmanagement, analytisches Dashboarding, Datenintegrationslösungen und kollaborative Entscheidungsfindung.

 

Kontinuierliche Prozesspflege und -steuerung

 Prozesse sind nur dann sinnvoll, wenn sie regelmäßig verwaltet und aktualisiert werden, damit sie die aktuellen Geschäftsabläufe einer Organisation widerspiegeln. Wenn Prozesse nicht die aktuellen Geschäftspraktiken widerspiegeln, kann dies zu fehlerhaften Prozessen führen, die nicht mit der Arbeitsweise eines Unternehmens vereinbar sind.

„Viele Unternehmensabteilungen entscheiden sich dafür, Prozessprobleme zu umgehen, was die Produktivität langsam untergräbt und das Risiko für das Unternehmen erhöht. Der Auslöser für eine Änderung kann ein verlorener Kunde, ein Verstoß gegen Vorschriften oder Bestimmungen, ein fehlgeschlagenes Audit oder sogar eine Rufschädigung sein, so Cosima von Kries.

Ein gutes Prozessmanagement stellt sicher, dass die Prozesse regelmäßig aktualisiert und automatisiert werden, um alle Änderungen zu berücksichtigen. Dies hat das Potenzial, die Effizienz des Betriebsteams durch Rationalisierung der Abläufe und Identifizierung potenzieller Risiken deutlich zu verbessern.

 

Kaputte Prozesse = unkontrolliertes Risiko

 Als Nintex 2023 eine Untersuchung durchführte, um die weltweit am häufigsten unterbrochenen Prozesse besser zu verstehen, befragten es über 1.400 Großunternehmen in 12 Ländern.  Laut den Befragten weisen die Betriebsabteilungen mehr fehlerhafte Systeme und Prozesse auf als jede andere Abteilung. 77 % der Befragten gaben an, dass die Betriebsabteilungen auch ein Hindernis für die Automatisierung ihrer eigenen Prozesse darstellen können.

 

Die wichtigsten Informationen zum Aufbau eines Risikomanagementplans finden Interessierte in einem separaten eBook.

Es behandelt die folgenden Themen:

–       Die wichtigsten Geschäftsrisiken, die Betriebsleiter kennen sollten

–       Tipps für einen ganzheitlichen Ansatz zum Risikomanagement

–       Wie Unternehmen Prozessmanagement und Automatisierung für das Risikomanagement nutzen

Das eBook in englischer Sprache kann hier kostenfrei herunterladen werden: https://resources.nintex.com/managing-risk/risk-is-a-problem

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay